JP2973016B2 - Digital radiation image recognition system - Google Patents
Digital radiation image recognition systemInfo
- Publication number
- JP2973016B2 JP2973016B2 JP2168539A JP16853990A JP2973016B2 JP 2973016 B2 JP2973016 B2 JP 2973016B2 JP 2168539 A JP2168539 A JP 2168539A JP 16853990 A JP16853990 A JP 16853990A JP 2973016 B2 JP2973016 B2 JP 2973016B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- signal
- neural network
- digital
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000005855 radiation Effects 0.000 title claims description 41
- 238000013528 artificial neural network Methods 0.000 claims description 53
- 238000003384 imaging method Methods 0.000 claims description 40
- 238000013139 quantization Methods 0.000 claims description 7
- 239000010410 layer Substances 0.000 description 22
- 210000002569 neuron Anatomy 0.000 description 16
- 210000000225 synapse Anatomy 0.000 description 9
- 238000000034 method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 241001270131 Agaricus moelleri Species 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Radiography Using Non-Light Waves (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
【発明の詳細な説明】 <産業上の利用分野> 本発明はデジタル放射線画像の画像認識装置に関し、
詳しくは、被写体を透過した放射線量として撮影される
放射線画像をデジタル信号化したデータから被写体の撮
影部位や撮影体位などを認識し得る装置に関する。Description: TECHNICAL FIELD The present invention relates to an image recognition apparatus for digital radiation images,
More specifically, the present invention relates to an apparatus capable of recognizing an imaging part, an imaging position, and the like of an object from data obtained by converting a radiation image captured as a radiation dose transmitted through the object into a digital signal.
<従来の技術> X線画像のような放射線画像は医療用として多く用い
られており、この放射線画像を電気画像信号として得る
方法として、例えば以下のようなものがある。<Prior Art> A radiographic image such as an X-ray image is widely used for medical purposes, and a method for obtaining the radiographic image as an electric image signal includes, for example, the following.
即ち、被写体としての人体を通過した放射線をある種
の蛍光体に吸収させ、その後、この蛍光体を光又は熱エ
ネルギーで励起することにより、この蛍光体が前記吸収
により蓄積していた放射線エネルギーを蛍光として放射
させ、この蛍光を光電変換素子で検出して放射線画像情
報を電気的に得るものであり、かかる放射線画像信号を
デジタル化してから、階調処理や空間周波数処理を施し
てCRT等に出力して可視化するようにしているものがあ
る(特開昭63−189853号公報等参照)。That is, the radiation that has passed through the human body as a subject is absorbed by a certain kind of phosphor, and then the phosphor is excited by light or heat energy, so that the radiation energy that the phosphor has accumulated by the absorption is absorbed. Radiation is emitted as fluorescent light, and this fluorescent light is detected by a photoelectric conversion element to obtain radiation image information electrically.Then, the radiation image signal is digitized, and then subjected to gradation processing and spatial frequency processing to be applied to a CRT or the like. Some are output and visualized (see Japanese Patent Application Laid-Open No. 63-189853).
ところで、上記のようにデジタル放射線画像信号を可
視像として出力する前の処理段階においては、上記のよ
うに階調処理や空間周波数処理を施して読影に適した可
視像とする必要があるが、人体における撮影部位や撮影
体位の違いによって、それぞれの再生画像において該部
位中の関心領域の濃度が変化してしまうことがある。By the way, in the processing stage before outputting a digital radiation image signal as a visible image as described above, it is necessary to perform a gradation process and a spatial frequency process as described above to obtain a visible image suitable for image interpretation. However, the density of the region of interest in each of the reconstructed images may change due to a difference in the photographed region and the photographing position of the human body.
従って、階調処理や空間周波数処理などの画像処理を
施す前に、オリジナルのデジタル放射線画像から撮影体
位を自動的に判別しそれぞれの体位に最適な画像処理を
施すことが要求され、そのため、従来から画像データの
濃度ヒストグラムや画像データ中の画像所定方向に沿っ
た信号レベル分布などを用いて撮影体位を自動判別でき
るようにした方法・装置が種々提案されている(特開昭
63−262128号公報,特開昭63−262132号公報等参照)。Therefore, before performing image processing such as gradation processing or spatial frequency processing, it is required to automatically determine the imaging position from the original digital radiographic image and perform optimal image processing for each position. Various methods and apparatuses have been proposed which enable automatic determination of the photographing position using a density histogram of image data or a signal level distribution in a predetermined direction of the image in the image data.
63-262128, JP-A-63-262132, etc.).
<発明が解決しようとする課題> しかしながら、従来の撮影体位判別では、撮影部位を
一部位に限定した上で、撮影体位が正面であるか側面で
あるかを判別できる程度であり、撮影部位及び撮影体位
の識別が限定されてしまうという問題があった。<Problems to be Solved by the Invention> However, in the conventional photographing position determination, the photographing position is limited to a part, and it is possible to determine whether the photographing position is the front or the side. There is a problem that the identification of the photographing position is limited.
かかる問題点を解決するために、一般的な画像認識の
技術を用い、複数の特徴量を抽出してこの特徴量の組み
合わせなどによって判別を行おうとしても、処理の流れ
や判定に用いる計算式が等非常に複雑になってくると共
に、特徴量の辞書をそれぞれの撮影部位・撮影体位毎に
マッチングする必要があって多くの労力を要するため
に、実用に供することが困難であった。In order to solve such a problem, a general image recognition technique is used to extract a plurality of feature amounts and perform a determination based on a combination of the feature amounts. Has become very complicated, and it has been necessary to match a dictionary of feature amounts for each imaging region / posture, requiring a lot of labor, and thus it has been difficult to put it to practical use.
更に、従来の画像認識では、抽出した複数の特徴量が
どの程度認識に有効であるかということを定量的に把握
することが難しいために、どの特徴量を抽出して画像認
識に用いるかという選択が簡便に行えず、この点からも
従来の画像認識技術をデジタル放射線画像の認識に流用
することが困難であり、撮影部位・撮影体位を限定して
の認識に留まっていたのが現状であった。Further, in the conventional image recognition, it is difficult to quantitatively grasp how effective the plurality of extracted feature amounts are for recognition. Therefore, it is difficult to determine which feature amount is to be used for image recognition. Selection is not easy, and it is difficult to apply conventional image recognition technology to digital radiation image recognition from this point, and at present, recognition has been limited to imaging parts and imaging positions. there were.
本発明は上記問題点に鑑みなされたものであり、複雑
な計算を必要とせず、然も、抽出すべき特徴量の選択や
辞書マッチングなどの労力を不要にできるデジタル放射
線画像の画像認識装置を提供することを目的とする。The present invention has been made in view of the above problems, and does not require a complicated calculation, and of course, does not require an effort such as selection of a feature amount to be extracted or dictionary matching. The purpose is to provide.
<課題を解決するための手段> そのため本発明では、第1図に示すように、デジタル
放射線画像の画素数と信号の量子化ステップ数との少な
くとも一方を縮減させる信号間引き手段と、前記デジタ
ル放射線画像の特徴が予め学習され、信号間引き手段の
出力を入力し、入力した画像が予め特定される複数の認
識対象のどれに該当するかを示す識別信号を出力するニ
ューラルネットワークと、前記ニューラルネットワーク
を用いて学習データ集合の内容を変えて複数回学習する
ことにより得られた学習結果を複数記憶する学習結果記
憶手段と、該記憶された複数の学習結果それぞれに基づ
き前記信号間引き手段の出力が複数の認識対象のどれに
対応するか判別を行い、前記各々の学習結果から導かれ
る複数の識別信号の中の最も多いものを最終的に出力す
る判別手段と、を含んでデジタル放射線画像の画像認識
装置を構成した。<Means for Solving the Problems> Therefore, according to the present invention, as shown in FIG. 1, signal thinning means for reducing at least one of the number of pixels of a digital radiation image and the number of signal quantization steps, A neural network in which the features of the image are learned in advance, an output of the signal thinning means is input, and an identification signal indicating which of the plurality of recognition targets the input image corresponds to is output. Learning result storage means for storing a plurality of learning results obtained by performing learning a plurality of times while changing the contents of a learning data set using the learning data set; and a plurality of outputs of the signal thinning means based on each of the plurality of stored learning results. It is determined which of the recognition targets corresponds to, and the most one of the plurality of identification signals derived from the respective learning results is finally determined. And a discriminating means for outputting the digital radiation image.
ここで、前記認識対象は、デジタル放射線画像におけ
る被写体の撮影部位と撮影体位との少なくとも一方とす
ることができる。Here, the recognition target may be at least one of an imaging part and an imaging position of the subject in the digital radiation image.
また、信号間引き手段が、原画像を複数の小領域に分
割し、これら小領域それぞれでの画像信号値の平均値又
は代表値をサンプリングすることでデジタル放射線画像
の画素数と信号の量子変ステップ数との少なくとも一方
を縮減させるよう構成すると良い。Further, the signal thinning means divides the original image into a plurality of small regions, and samples the average value or the representative value of the image signal values in each of these small regions, thereby obtaining the number of pixels of the digital radiation image and the quantum variation step of the signal. Preferably, at least one of the numbers is reduced.
ここで、上記のように複数の学習結果を備えるように
する場合には、未学習初期値を用いて最初のニューラル
ネットワーク学習を行わせ、2回目以降の学習において
は前回の学習結果を初期値として学習を行わせることに
よって複数の学習結果を得るよう構成すると良い。Here, when a plurality of learning results are provided as described above, the first neural network learning is performed by using the unlearned initial value, and in the second and subsequent learning, the previous learning result is set to the initial value. It is preferable to obtain a plurality of learning results by performing learning as.
<作用> かかる構成のデジタル放射線画像の画像認識装置によ
ると、デジタル放射線画像の原画像データが、まず、信
号間引き手段において画素数と信号の量子化ステップ数
との少なくとも一方を縮減させる処理を施される。この
ようにしてデータ量が縮減されたデジタル放射線画像
は、デジタル放射線画像の特徴が予め学習されているニ
ューラルネットワークに入力される。ニューラルネット
ワークは、予め行われている学習に沿って入力信号を処
理し、入力した画像が予め特定される複数の認識対象の
どれに該当するかを示す識別信号を出力する。<Operation> According to the digital radiation image image recognition apparatus having such a configuration, the original image data of the digital radiation image is first subjected to a process of reducing at least one of the number of pixels and the number of signal quantization steps in the signal thinning means. Is done. The digital radiation image whose data amount has been reduced in this way is input to a neural network in which the features of the digital radiation image have been learned in advance. The neural network processes an input signal in accordance with learning performed in advance, and outputs an identification signal indicating which of the plurality of recognition targets the input image corresponds to in advance.
即ち、信号間引き手段で処理した信号を入力させたと
きに複数の認識対象に識別できるように、予めニューラ
ルネットワークを学習させておくことにより、デジタル
放射線画像から特徴量を抽出したり、特徴量の辞書を作
成したりといった労力を必要とせず、ニューラルネット
ワークに信号間引き手段でデータ量を縮減した画像信号
を入力させればその画像が識別されることになる。That is, by learning a neural network in advance so that a plurality of recognition targets can be identified when a signal processed by the signal thinning unit is input, a feature amount can be extracted from a digital radiation image, or a feature amount can be extracted. The image can be identified by inputting an image signal whose data amount has been reduced by the signal thinning means to the neural network without requiring labor such as creating a dictionary.
更に、ニューラルネットワークにおいては予め学習デ
ータ集合の内容を変えながら複数回学習されることにな
るが、かかる学習によって得られた学習結果を複数備え
るようにして、それぞれの学習結果を用いて処理され出
力された識別信号の多数決を取るようにすれば、1つの
学習結果に基づくニューラルネットワークの1つの認識
結果を最終結果とする場合よりも、デジタル放射線画像
の認識率を向上させることができる。Further, in the neural network, learning is performed a plurality of times while changing the content of the learning data set in advance. However, a plurality of learning results obtained by such learning are provided, and processing is performed using each learning result and output is performed. By taking the majority decision of the identified identification signals, the recognition rate of the digital radiation image can be improved as compared with the case where one recognition result of the neural network based on one learning result is the final result.
ここで、前記認識対象として、デジタル放射線画像で
必要になるのは例えば被写体の撮影部位と撮影体位との
少なくとも一方であり、この場合ニューラルネットワー
クは、撮影部位が何処であるかを示す識別信号、又は、
撮影体位が正面や側面などのうちのどれであるを示す識
別信号を出力する。Here, as the recognition target, what is required in the digital radiation image is, for example, at least one of the imaging region and the imaging position of the subject. In this case, the neural network uses an identification signal indicating where the imaging region is, Or
An identification signal indicating whether the photographing position is front or side is output.
また、信号間引き手段で、デジタル放射線画像の画素
数と信号の量子化ステップ数との少なくとも一方を縮減
させるには、原画像を複数に分割した小領域それぞれの
画像信号値の平均値又は代表値をサンプリングさせるよ
うにすれば、複雑な計算式や多大な計算量を必要とする
ことなく、簡便にデータ量を縮減させてニューラルネッ
トワークに入力させることができる。Further, in order to reduce at least one of the number of pixels of the digital radiographic image and the number of quantization steps of the signal by the signal thinning means, the average value or the representative value of the image signal values of each of the small regions obtained by dividing the original image into a plurality of regions is used. Is sampled, the data amount can be easily reduced and input to the neural network without requiring a complicated calculation formula or a large amount of calculation.
また、上記のように複数の学習結果を備えるようにす
る場合に、未学習初期値を用いて最初のニューラルネッ
トワーク学習を行わせ、2回目以降の学習においては前
回の学習結果を初期値として学習を行わせて複数の学習
結果を得るようにすれば、それぞれ未学習値を初期とし
て学習を行わせる場合に比べ学習時間を短縮できる。Further, when a plurality of learning results are provided as described above, the first neural network learning is performed using the unlearned initial value, and in the second and subsequent learning, the previous learning result is used as the initial value. Is performed to obtain a plurality of learning results, the learning time can be reduced as compared with the case where the learning is performed with an unlearned value as an initial value.
<実施例> 以下に本発明の実施例を説明する。<Example> An example of the present invention will be described below.
第2図は本発明にかかるデジタル放射線画像の画像認
識装置の一実施例を示すものである。FIG. 2 shows an embodiment of a digital radiation image image recognition apparatus according to the present invention.
ここで、画像入力部1は、蓄積性蛍光体上に記憶(蓄
積)された放射線画像の潜像をレーザ光で走査して読み
取るよう構成されたデジタルX線撮影装置や、X線フィ
ルムをデジタル信号化するイメージスキャナ、或いは、
既にデジタル放射線画像データが複数記録されているフ
ァイリングシステルなどである。Here, the image input unit 1 scans a latent image of a radiation image stored (accumulated) on the stimulable phosphor with a laser beam and reads the latent image. Image scanner to signal, or
For example, a filing system in which a plurality of digital radiation image data are already recorded.
画像入力部1から入力されるオリジナルのデジタル放
射線画動データf(x,y)は、まず、信号間引き部(信
号間引き手段)2に入力される。この信号間引き部2
は、オリジナルのデジタル画像データf(x,y)の画素
数及び階調数(量子化ステップ数)を間引いて、撮影体
位判別に用いる画像データ量を縮減させ、後述するニュ
ーラルネットワークに対して画像の大きな濃淡特徴が入
力されるようにする。The original digital radiation image data f (x, y) input from the image input unit 1 is first input to the signal thinning unit (signal thinning unit) 2. This signal thinning unit 2
Reduces the number of pixels and the number of gradations (the number of quantization steps) of the original digital image data f (x, y) to reduce the amount of image data used for the photographing posture determination, Is input.
具体的には、オリジナルのデジタル画像データf(x,
y)を、複数の小領域(n画素×n画素)に分割し、各
小領域に含まれる画素それぞれに対応する信号値の平均
値を算出したり、又は、各小領域に含まれる画素に対応
する信号値の中の1つを代表値として求めることによ
り、オリジナルのデジタル画像データf(x,y)の画素
数及び階調数を間引いた画像データf′(x′,y′)を
設定する。尚、2048×2464画素,1024階調のオリジナル
のデジタル画像データf(x,y)を、第3図に示すよう
に、5×5画素〜10×10画素,256階調程度にまで間引い
ても、撮影部位や撮影体位がある程度限定されるもので
あれば充分に識別可能であり、例えば胸部の正面・側面
とか頭部の正面・側面といった部位及び体位をそれぞれ
2種類程度に限定した比較的粗い判別であれば精度は充
分に高い。Specifically, the original digital image data f (x,
y) is divided into a plurality of small areas (n pixels × n pixels), and an average value of signal values corresponding to pixels included in each small area is calculated, or a pixel included in each small area is calculated. By obtaining one of the corresponding signal values as a representative value, image data f ′ (x ′, y ′) obtained by thinning out the number of pixels and the number of gradations of the original digital image data f (x, y) is obtained. Set. The original digital image data f (x, y) of 2048 × 2464 pixels and 1024 gradations is thinned out to about 5 × 5 pixels to 10 × 10 pixels and 256 gradations as shown in FIG. Also, if the imaging part and the photographing position are limited to some extent, it can be sufficiently identified. For example, the parts and body positions such as the front and side surfaces of the chest and the front and side surfaces of the head are relatively limited to about two types, respectively. The accuracy is sufficiently high for a rough determination.
ここで、画素数の間引きを行わず、オリジナルの信号
値を、大きなステップ幅で量子化し直して階調数のみを
縮減させるようにしても良いが、後述するニューラルネ
ットワーク構造や学習を複雑化させることになるので、
画素数と階調数とを共に縮減させることが好ましい。Here, without thinning out the number of pixels, the original signal value may be re-quantized with a large step width to reduce only the number of gradations, but this will complicate the neural network structure and learning described later. Because
It is preferable to reduce both the number of pixels and the number of gradations.
信号間引き部2で画素数及び階調数が縮減された画像
信号f′(x′,y′)は、第3図に示すような構成のニ
ューラルネットワーク(ニューロコンピュータ)3に入
力され、該ニューラルネットワーク3による演算(判別
手段3a)によって予め特定される複数の認識対象のどれ
に該当するかを示す識別信号が出力される。The image signal f '(x', y ') whose number of pixels and number of gradations have been reduced by the signal thinning section 2 is input to a neural network (neurocomputer) 3 having a configuration as shown in FIG. An identification signal indicating which of the plurality of recognition targets specified in advance by the operation (determination means 3a) by the network 3 is output.
前記複数の認識対象としては、例えば被写体を人物と
した医療用の場合、胸部正面・胸部側面・頭部正面・頭
部側面などとする。The plurality of recognition targets are, for example, in the case of medical use in which a subject is a person, a chest front, a chest side, a head front, a head side, and the like.
判別手段3aから上記のような認識対象のどれに該当す
るかを示す識別信号が出力されると、この識別信号を受
ける画像処理部4では、画像入力部1からのオリジナル
のデジタル画像データf(x,y)に対し、読影に適した
可視像に再生されるように撮影部位及び撮影体位の判別
結果に基づいて階調変換や周波数強調,輪郭抽出などの
種々の画像処理・解析を行う。When the discrimination means 3a outputs an identification signal indicating which of the above-mentioned recognition targets corresponds, the image processing unit 4 receiving this identification signal outputs the original digital image data f () from the image input unit 1. For x, y), various image processing and analysis such as gradation conversion, frequency emphasis, and contour extraction are performed based on the determination result of the imaging region and the imaging position so that a visible image suitable for image interpretation is reproduced. .
前記画像処理部4で処理された画像データが入力され
る画像出力部5では、画像処理後の画像データ(デジタ
ル放射線画像信号)を、再びファイリングシステム内に
記録したり、CRT上に再生したり、プリンタによってフ
ィルム上に記録したりする。ここで、被写体(本実施例
では人体)の撮影部位及び撮影体位を判別した後の画像
データを、ファイリングシステムにファイリングする際
には、患者名・撮影年月日などの画像情報と共に、撮影
部位及び撮影体位を画像データに対応させて記録してお
けば、後の検索に便利であると共に、繰り返し撮影部位
・撮影体位の認識を行う必要がなくなる。In the image output unit 5 to which the image data processed by the image processing unit 4 is input, the image data (digital radiation image signal) after the image processing is recorded again in the filing system or reproduced on the CRT. Or recording on a film by a printer. Here, when filing the image data of the subject (the human body in the present embodiment) after determining the imaging region and the imaging position, the image data such as the patient name and the imaging date is included in the filing system. If the photographing position is recorded in association with the image data, it is convenient for later retrieval, and it is not necessary to repeatedly recognize the photographing site and the photographing position.
ところで、前記ニューラルネットワーク3は、「日経
エレクトロニクス 第427号」1987年8月10日号の第115
頁〜第124頁などに紹介されているように、人間の脳を
真似たネットワークで脳のニューロン(神経細胞)に対
応した複数のユニットが複雑に接続し合ったもので、各
ユニット間の接続形態(結合荷重)を適宜決定すること
で、パターン認識機能などを埋め込む(学習する)こと
ができるものである。By the way, the neural network 3 is described in “Nikkei Electronics No. 427,” August 10, 1987, No. 115.
As shown on page-page 124, etc., a plurality of units corresponding to brain neurons (nerve cells) are connected in a complicated manner by a network imitating the human brain, and the connection between each unit By appropriately determining the form (coupling weight), a pattern recognition function or the like can be embedded (learned).
本実施例におけるニューラルネットワーク3は、第3
図に示すように、入力層S,中間層A,出力層Rによって構
成され、入力層Sは、前記信号間引き部2で間引かれた
画素数と同じ数のニューロンモデル(ユニット)S1,S2,
・・・・Ssからなっており、各ニューロンモデルS1,S2,
・・・・Ssに対して対応する画素の信号値がそれぞれ入
力されるようになっている。尚、前述のように、階調数
をオリジナルの1024階調から256階調(8ビット)程度
にまで減縮させてからニューラルネットワーク3に入力
させるようにするが、信号値の入力層Sに対する入力に
際しては、前記0〜255の256階調を0.0〜1.0に正規化し
て入力させるようにする。The neural network 3 in the present embodiment is a third network.
As shown in the figure, the input layer S is constituted by an input layer S, a middle layer A, and an output layer R. The input layer S has the same number of neuron models (units) S 1 as the number of pixels decimated by the signal decimating section 2, S 2 ,
... has become from the S s, each neuron model S 1, S 2,
... A signal value of a corresponding pixel is input to S s . As described above, the number of gray scales is reduced from the original 1024 gray scales to about 256 gray scales (8 bits) before being input to the neural network 3. At this time, the 256 gradations from 0 to 255 are normalized to 0.0 to 1.0 and input.
中間層AのニューロンモデルA1,A2,・・・・Aaは、入
力層Sの各ニューロンモデル(ユニット)S1,S2,・・・
・Ssの全てと結合可能である。該中間層Aのニューロン
モデル数aは経験的に決定されるが、本発明の場合、入
力層Sのニューロンモデル数sと出力層Rのニューロン
モデル数rと総和の半数程度が好ましい。また、中間層
Aは本実施例のように、1層でも良いが、2層,3層・・
・と複層構造にしても良い。The neuron models A 1 , A 2 ,..., A a of the intermediate layer A are the neuron models (units) S 1 , S 2 ,.
-Can be combined with all of S s . Although the number a of neuron models in the intermediate layer A is empirically determined, in the case of the present invention, it is preferable that the number of neuron models s in the input layer S and the number r of neuron models in the output layer R be about half of the sum. The intermediate layer A may be a single layer as in this embodiment, but may be two layers, three layers, etc.
・ A multi-layer structure may be used.
出力層Rは、認識対象を、例えば胸部正面・胸部側面
・頭部正面・頭部側面の4種類とするときには、4つの
ニューロンモデルR1〜R4で構成され、このニューロンモ
デルR1〜R4は中間層Aの各ニューロンモデルA1,A2,・・
・・Aa全てと結合可能である。The output layer R is a recognition target, for example, when the 4 kinds of the front chest, chest side, the head front-side of the head is composed of four neuron model R 1 to R 4, the neuron model R 1 to R 4 is each neuron model A 1 , A 2 ,.
·· A a all and is capable of binding.
出力層Rにおける識別信号は、例えば胸部正面である
と識別したときには、ニューロンモデルR1の出力のみが
1となるようにしておき、どのニューロンモデルR1〜R4
の出力が1であるかによって画像認識(撮影部位・撮影
体位の認識)が行えるようにする。Identification signal in the output layer R, for example when identified as a chest front, only the output of the neuron model R 1 is previously set to be 1, which neuron model R 1 to R 4
Image recognition (recognition of the imaging part / posture) based on whether or not the output is 1.
ところで、上記のように間引き後の各画素の信号値を
ニューラルネットワーク3に入力させて、その画像を認
識させるには、予めデジタル放射線画像の特徴を学習さ
せておいて、例えば胸部正面の画像信号が入力されたと
きにはニューロンモデルR1の出力のみが1となるとよう
に予め学習させておく必要がある。By the way, in order to input the signal value of each pixel after thinning as described above to the neural network 3 and to recognize the image, the characteristics of the digital radiographic image are learned in advance, for example, the image signal of the front of the chest. Needs to be learned in advance so that only the output of the neuron model R1 becomes 1 when is input.
かかるニューラルネットワーク3の学習は、予め撮影
部位・撮影体位が判っているデジタル放射線画像信号を
信号間引き部2で処理してニューラルネットワーク3に
入力させたときに、正確である撮影部位・撮影体位に対
応する識別信号が出力されるように、学習データ集合
(学習用としてニューラルネットワーク3に入力させる
間引き画像信号)を変えながらニューラルネットワーク
3における各シナプスウェイト(結合荷重)の値を出力
層R側から順次学習させて認識率を除々に増大させるも
のであり、かかる学習(バックプロパゲーション則)に
よって被写体の撮影部位・撮影体位の違いによる入力デ
ータの違いを学習させ、撮影部位・撮影体位を識別した
いデジタル放射線画像信号を信号間引き部2で間引いた
結果をニューラルネットワーク3に入力させることで、
デジタル放射線画像における撮影部位・撮影体位を予め
定めた複数の認識対象の何れかに識別させるようにする
ものである。The learning of the neural network 3 is such that when a digital radiation image signal whose imaging region and imaging position is known in advance is processed by the signal thinning unit 2 and input to the neural network 3, an accurate imaging region and imaging position is obtained. The value of each synapse weight (connection weight) in the neural network 3 is changed from the output layer R while changing the learning data set (thinned-out image signal input to the neural network 3 for learning) so that the corresponding identification signal is output. The learning rate is gradually increased by learning sequentially, and the learning (backpropagation rule) is used to learn the difference in the input data due to the difference in the imaging part and the imaging position of the subject and to identify the imaging part and the imaging position. The result of thinning out the digital radiation image signal by the signal thinning unit 2 is By inputting the work 3,
The purpose of the present invention is to identify an imaging part and an imaging position in a digital radiation image to any of a plurality of predetermined recognition targets.
ここで、上記ニューラルネットワーク3の特性及びバ
ックプロパゲーション則に基づく学習を更に説明する
と、第3図に示すようなニューラルネットワーク3を構
成する各ユニット(ニューロンモデル)Uiは、他のユニ
ットからの入力Qjの総和を一定の規則で変換し、Qiとす
るが、他のユニットとの結合部にはそれぞれ可変の重み
Wij(シナプスウェイト)が付いている。この重みWij
は、各ユニット間の結合の強さを表すためのもので、こ
の値を変えると接続状態を変えなくても実質的にネット
ワークの構造が変わることになる。ニューラルネットワ
ーク3の学習とは、この値を変えることであって、重み
Wijは正,ゼロ,負の値をとり、ゼロは結合がないこと
を表す。Here, the learning based on the characteristic of the neural network 3 and the back propagation rule will be further described. Each unit (neuron model) Ui constituting the neural network 3 as shown in FIG. The sum of Qj is converted according to a certain rule, and is defined as Qi.
With Wij (synapse weight). This weight Wij
Represents the strength of the connection between the units. Changing this value will substantially change the network structure without changing the connection state. Learning of the neural network 3 means changing this value.
Wij can be positive, zero, or negative, where zero indicates no binding.
あるユニットUiが他の複数のユニットUiから入力を受
けた場合、その入力の総和をNETで表すとすると、ユニ
ットUiの入力の総和は、 となる。If a unit Ui receives inputs from a plurality of other units Ui, and the sum of the inputs is represented by NET, the sum of the inputs of the unit Ui is Becomes
各ユニットUiは、この入力の総和NETを関数fに適用
し、次式に示すように出力Qiに変換する。Each unit Ui applies this input sum NET to a function f and converts it into an output Qi as shown in the following equation.
上記関数fは各ユニットUi毎に違って良いが、一般に
は、第4図に示すようなしきい値関数又は第5図に示す
ようなsigmoid関数を用いる。 The function f may be different for each unit Ui, but generally, a threshold function as shown in FIG. 4 or a sigmoid function as shown in FIG. 5 is used.
このsigmoid関数は、微分可能な疑似線形関数で、 で表せる。値域は0〜1で、入力値が大きくなるにつれ
1に、小さくなるにつれ0に近づく。入力が0のときは
0.5となる。しきい値θ(バイアス)を加えて、 とする場合もある。This sigmoid function is a differentiable pseudo-linear function, Can be represented by The value range is from 0 to 1, approaching 1 as the input value increases and approaching 0 as the input value decreases. When the input is 0
0.5. Adding a threshold θ (bias), In some cases,
このようなニューラルネットワーク3において、入力
層Sに入力データを与えると、この信号は各ユニットで
変換され、中間層Aに伝わり、最後に出力層Rから出て
くるが、望ましい出力を得るためには各ユニット間の結
合の強弱すなわち重みを適切な値に設定する必要があ
る、この重みの設定は、ニューラルネットワーク3を次
のように学習させることによって行う。In such a neural network 3, when input data is given to the input layer S, this signal is converted in each unit, transmitted to the intermediate layer A, and finally comes out from the output layer R. To obtain a desired output, It is necessary to set the strength of the connection between the units, that is, the weight, to an appropriate value. This weight is set by learning the neural network 3 as follows.
まず最初は、すべての重みをランダムに設定してお
き、入力層の各ユニットに学習用の入力データ(予め望
ましい出力の分かっているデータ)を与える。そして、
このとき出力層の各ユニットから出てきた出力値と望ま
しい出力値とを比べ、その差(誤差)を減らすように各
重みの値を、出力層側から順次修正する。そしてこれを
多数の学習データを用いて誤差が収束するまで繰り返す
ものである(「入門ニューロコンピュータ」菊池豊彦著
1990年1月20日 株式会社オーム社 発行等参照)。First, all weights are set at random, and input data for learning (data for which a desired output is known in advance) is given to each unit of the input layer. And
At this time, the output value output from each unit of the output layer is compared with the desired output value, and the value of each weight is sequentially corrected from the output layer side so as to reduce the difference (error). This is repeated using a large number of training data until the error converges ("Introductory Neurocomputer" by Toyohiko Kikuchi
January 20, 1990 Ohm Co., Ltd.).
このように予め学習されたニューラルネットワーク3
に対して、認識させたいデジタル放射線画像の間引きデ
ータを入力させてやれば、どの撮影部位・撮影体位に近
いものであるかを識別する演算が広範な画像で実時間で
行われ、然も、本実施例のようにニューラルネットワー
ク3を用いたシステムにおいては、デジタル放射線画像
から特徴量を抽出したり、特徴量の辞書を作成したりと
いった労力を必要としないため、撮影部位及び撮影体位
を比較的限定しなくても識別可能なシステムを簡便に構
築できるものである。Neural network 3 learned in advance in this way
In contrast, if thinning data of a digital radiological image to be recognized is input, an operation for identifying which imaging part / position is close to the imaging part / position is performed in a wide range of images in real time. In the system using the neural network 3 as in the present embodiment, since it is not necessary to extract a feature amount from a digital radiation image or create a dictionary of the feature amount, a comparison is made between the imaging part and the imaging position. It is possible to easily construct an identifiable system without any limitation.
即ち、ニューラルネットワーク3を用いたデジタル放
射線画像の認識においては、予めある程度認識すべき対
象の画像範囲を定め、かかる画像範囲で必要とされる識
別能力を設定すれば、あとはニューラルネットワーク3
のユニット構成を決定し、サンプルとなる画像データを
ニューラルネットワーク3に入力させて所望の答えが出
てくるように学習させることで、高精度にデジタル放射
線画像を認識させることができるものであり、前処理が
間引き処理だけで簡易であり、然も、かかる前処理によ
ってニューラルネットワーク3の構成も簡略化できるの
で、簡素化したシステムとなる。That is, in recognizing a digital radiation image using the neural network 3, if an image range of a target to be recognized to some extent is determined in advance and the discrimination ability required in the image range is set, the neural network 3
By determining the unit configuration of, and inputting image data as a sample to the neural network 3 and learning it so that a desired answer comes out, a digital radiation image can be recognized with high accuracy. The pre-processing is simple only by the thinning-out processing, and the pre-processing can also simplify the configuration of the neural network 3, resulting in a simplified system.
尚、認識対象を多くする場合には、それだけ画像の濃
淡情報を細かくニューラルネットワーク3に入力させる
必要があるので、信号間引き部2における間引き割合を
少なくする必要があり、これに伴ってニューラルネット
ワーク3の構成ユニット数も増大させる必要があり、学
習にも多くの時間を要することになるので、認識対象を
最低限必要な数に限定することが好ましい。When the number of recognition targets is increased, it is necessary to input the grayscale information of the image to the neural network 3 more precisely. Therefore, it is necessary to reduce the thinning ratio in the signal thinning unit 2. It is necessary to increase the number of constituent units, and a lot of time is required for learning. Therefore, it is preferable to limit the number of recognition targets to the minimum required number.
ところで、ニューラルネットワーク3のシナプスウェ
イト学習においては、1つの学習結果のみを用いてニュ
ーラルネットワーク3における体位識別処理を行わせる
ことが一般的であるが、シナプスウェイトの学習結果を
複数記憶させておき、それぞれの学習結果に基づきネッ
トワークされたニューラルネットワーク3で処理して得
た(判別手段3aで演算して得た)複数の認識結果の多数
決で最終的な体位の識別を行わせるようにすれば、より
一層識別率を向上させることが可能となる。By the way, in synapse weight learning of the neural network 3, it is common to perform the body position identification processing in the neural network 3 using only one learning result. However, a plurality of learning results of the synapse weight are stored, If a plurality of recognition results obtained by processing by the neural network 3 networked based on the respective learning results (obtained by calculation by the discriminating means 3a) are used to determine the final position, It is possible to further improve the identification rate.
即ち、第2図に示すように、ニューラルネットワーク
3を学習させるためのニューラルネット学習手段3bによ
って学習された結果(各シナプスウェイト値)を記憶す
る学習結果記憶手段3cを備えるようにしておいて、信号
間引き部2で画素及び階調数を間引いたデジタル放射線
画像信号を入力して撮影部位・撮影体位を判別する判別
手段3aでは、前記学習結果記憶手段3cに記憶されている
各学習結果に基づいてそれぞれに処理し、それぞれの学
習結果から導かれる複数の認識結果の多数決を取って最
終的に画像処理部4に出力させるようにする。That is, as shown in FIG. 2, a learning result storage means 3c for storing a result (each synapse weight value) learned by the neural network learning means 3b for learning the neural network 3 is provided. In the discriminating means 3a for inputting a digital radiation image signal in which the number of pixels and the number of gradations are thinned out by the signal thinning-out unit 2 and discriminating a radiographing part and a radiographing position, based on each learning result stored in the learning result storage means 3c Each processing is performed, a majority decision of a plurality of recognition results derived from each learning result is taken, and finally the image processing unit 4 outputs the result.
ここで、例えば5種類の学習結果(シナプスウェイ
ト)が学習結果記憶手段3cに記憶されていたとすると、
それぞれの学習結果を用いたニューラルネットワーク3
(判別手段3a)の処理で、3種類が胸部正面であると識
別し、残りの2種類で頭部側面であると識別した場合に
は、最終的な識別結果として数の多い胸部正面を出力さ
せるものである。Here, for example, if five types of learning results (synapse weights) are stored in the learning result storage means 3c,
Neural network 3 using each learning result
In the processing of (determination means 3a), when three types are identified as the front of the chest and the remaining two types are identified as the side of the head, a large number of the front of the chest is output as a final identification result. It is to let.
また、通常、ニューラルネットワーク3のシナプスウ
ェイトの学習においては、各シナプスウェイトの未学習
初期値として乱数を用いて、該乱数を学習によって変更
させていく場合が多いが、上記のように同じ処理に供す
る学習結果を複数設定させる場合には、初期値を乱数と
して学習させた結果を、次の学習の初期値として用いる
ようにして、次々に前回の学習結果を初期値として更に
学習させるようにすれば、それぞれ乱数を初期値として
学習を開始させる場合に比べ複数の学習結果を得る場合
に学習時間を大幅に短縮できる。Usually, in learning the synapse weight of the neural network 3, the random number is often changed by learning using a random number as an unlearned initial value of each synapse weight, but the same processing is performed as described above. When a plurality of learning results to be provided are set, the result of learning using the initial value as a random number is used as the initial value of the next learning, and the learning result of the previous learning is further used as an initial value one after another. For example, the learning time can be greatly reduced when a plurality of learning results are obtained as compared with the case where learning is started using random numbers as initial values.
更に、ニューラルネットワーク3の学習においては、
予め学習のベースとなる複数のデジタル放射線画像を信
号間引き部2で処理した結果を間引き画像記憶部6にそ
の撮影部位・撮影体位と共に記憶させておき、オペレー
タがコンソール操作(第2図の学習用データ選択手段7
が相当する。)によって前記間引き画像記憶部6の中か
ら任意の学習データを必要なだけ読み出し、この読み出
された学習データに基づいてニューラルネット学習手段
3bがニューラルネットワーク3におけるシナプスシェイ
トの学習を行うようにしておけば、学習の妨げとなるよ
うなデータを排除しつつ、オペレータの要求に合った学
習を容易に合わせることができる。Further, in learning the neural network 3,
The results of processing a plurality of digital radiographic images, which are the basis of learning, by the signal thinning unit 2 are stored in the thinned image storage unit 6 together with their imaging sites and imaging positions, and the operator operates the console (see FIG. 2 for learning). Data selection means 7
Is equivalent. ), Necessary learning data is read out from the thinned-out image storage unit 6 as needed, and a neural network learning unit is provided based on the read learning data.
If 3b performs learning of the synapse shade in the neural network 3, it is possible to easily adapt learning that meets the demands of the operator while excluding data that hinders learning.
尚、上記のように間引き画像記憶部6に学習用のデー
タを記憶させるようにしても、間引き画像は前述のよう
に5×5画素〜10×10画素程度で充分であるから、複数
枚の画像を学習用として記憶させるようにしても、装置
の記憶負担は軽い。Even if the data for learning is stored in the thinned-out image storage unit 6 as described above, the number of thinned-out images is about 5 × 5 pixels to 10 × 10 pixels, as described above. Even if an image is stored for learning, the storage load on the device is light.
また、本実施例では、ニューラルネットワーク3によ
って撮影部位と撮影体位との両方を認識させるようにし
たが、部位・体位の一方が固定される場合には、ニュー
ラルネットワーク3によって他方の識別のみが行われる
ようにすれば良い。Further, in the present embodiment, both the imaging region and the imaging position are recognized by the neural network 3. However, when one of the region and the posture is fixed, only the other identification is performed by the neural network 3. I just want to be done.
<発明の効果> 以上説明したように、本発明にかかるデジタル放射線
画像の画像認識装置によると、信号の間引き処理を行っ
たデシタル放射線画像をニューラルネットワークに入力
させて認識させるようにしたので、予め抽出する特徴量
を選択したり、また、特徴量の辞書をマッチングさせる
必要がなく、簡素な画像認識システムを簡便に構築でき
る一方、実際の画像認識においては、複雑な計算を必要
とせず広範な画像を実時間でかつ高い識別率で認識させ
ることができ、かかる認識によって得た撮影部位や撮影
体位の情報に基づいてその後の読影に最適な画像処理を
施すことができる。<Effects of the Invention> As described above, according to the digital radiation image image recognition apparatus according to the present invention, the digital radiation image subjected to the signal decimation process is input to the neural network and recognized, so that There is no need to select a feature value to be extracted or match a dictionary of feature values, and a simple image recognition system can be easily constructed.On the other hand, in actual image recognition, a complicated It is possible to recognize an image in real time and at a high identification rate, and it is possible to perform optimal image processing for subsequent image interpretation based on information on an imaging part and an imaging position obtained by the recognition.
第1図は本発明の構成を示すブロック図、第2図は本発
明の一実施例を示すシステムブロック図、第3図は第2
図示のニューラルネットワークの構成を示す概略図、第
4図及び第5図はそれぞれニューラルネットワークの各
ユニットの変化特性例を示す線図である。 1……画像入力部、2……信号間引き部3……ニューラ
ルネットワーク、3a……判別手段、3b……ニューラルネ
ット学習手段、3c……学習結果記憶手段、4……画像処
理部、5……画像出力部、6……間引き画像記憶部、7
……学習用データ選択手段FIG. 1 is a block diagram showing the configuration of the present invention, FIG. 2 is a system block diagram showing one embodiment of the present invention, and FIG.
FIGS. 4 and 5 are schematic diagrams showing the configuration of the illustrated neural network, and FIGS. 4 and 5 are diagrams showing examples of change characteristics of each unit of the neural network. 1 image input unit 2 signal thinning unit 3 neural network 3a determination unit 3b neural network learning unit 3c learning result storage unit 4 image processing unit 5 ... Image output unit, 6 ... Thinned image storage unit, 7
...... Learning data selection means
───────────────────────────────────────────────────── フロントページの続き (72)発明者 田島 弘明 東京都日野市さくら町1番地 コニカ株 式会社内 (56)参考文献 特開 昭63−262137(JP,A) 特開 昭63−262139(JP,A) 特開 平2−96283(JP,A) 「医用画像処理」(1982−2−25) 朝倉書店 P.112−113 (58)調査した分野(Int.Cl.6,DB名) A61B 6/00 - 6/14 ──────────────────────────────────────────────────続 き Continuation of front page (72) Inventor Hiroaki Tajima 1 Konica Corporation, Sakura-cho, Hino-shi, Tokyo (56) References JP-A-63-262137 (JP, A) JP-A-63-262139 ( JP, A) JP-A-2-96283 (JP, A) "Medical image processing" (1982-2-25) Asakura Shoten 112-113 (58) Field surveyed (Int. Cl. 6 , DB name) A61B 6/ 00-6/14
Claims (4)
化ステップ数との少なくとも一方を縮減させる信号間引
き手段と、 前記デジタル放射線画像の特徴が予め学習され、前記信
号間引き手段の出力を入力し、入力した画像が予め特定
される複数の認識対象のどれに該当するかを示す識別信
号を出力するニューラルネットワークと、 前記ニューラルネットワークを用いて学習データ集合の
内容を変えて複数回学習することにより得られた学習結
果を複数記憶する学習結果記憶手段と、 該記憶された複数の学習結果それぞれに基づき前記信号
間引き手段の出力が複数の認識対象の中の最も多いもの
を最終的に出力する判別手段と、 を含んで構成したことを特徴とするデジタル放射線画像
の画像認識装置。1. A signal thinning means for reducing at least one of the number of pixels of a digital radiographic image and the number of signal quantization steps, wherein the characteristics of the digital radiographic image are learned in advance and the output of the signal thinning means is input. A neural network that outputs an identification signal indicating to which of a plurality of recognition targets the input image corresponds in advance, and learning is performed a plurality of times by changing the content of a learning data set using the neural network. Learning result storing means for storing a plurality of obtained learning results; and discriminating, based on each of the stored plurality of learning results, that the output of the signal thinning means finally outputs the largest one among a plurality of recognition targets. Means for recognizing an image of a digital radiographic image.
ける被写体の撮影部位と撮影体位との少なくとも一方で
あることを特徴とする請求項1記載のデジタル放射線画
像の画像認識装置。2. The digital radiation image image recognition apparatus according to claim 1, wherein the recognition target is at least one of an imaging region and an imaging position of a subject in the digital radiation image.
領域に分割し、該小領域それぞれの画像信号値の平均値
又は代表値をサンプリングすることでデジタル放射線画
像の画素数と信号の量子化ステップ数との少なくとも一
方を縮減させるよう構成されたことを特徴とする請求項
1又は2のいずれかに記載のデジタル放射線画像の画像
認識装置。3. The signal thinning means divides an original image into a plurality of small areas, and samples the average value or the representative value of the image signal values of each of the small areas to thereby obtain the number of pixels of the digital radiation image and the signal of the signal. The digital radiation image image recognition apparatus according to claim 1, wherein at least one of the quantization step number and the quantization step number is reduced.
ットワーク学習を行わせ、2回目以降の学習においては
前回の学習結果を初期値として学習を行わせることによ
って複数の学習結果を得るよう構成したことを特徴とす
る請求項1〜3のいずれか1つに記載のデジタル放射線
画像の画像認識装置。4. A plurality of learning results are obtained by performing initial neural network learning using unlearned initial values and performing learning using the previous learning results as initial values in the second and subsequent learning. The digital radiation image image recognition apparatus according to any one of claims 1 to 3, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2168539A JP2973016B2 (en) | 1990-06-28 | 1990-06-28 | Digital radiation image recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2168539A JP2973016B2 (en) | 1990-06-28 | 1990-06-28 | Digital radiation image recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0458943A JPH0458943A (en) | 1992-02-25 |
JP2973016B2 true JP2973016B2 (en) | 1999-11-08 |
Family
ID=15869893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2168539A Expired - Lifetime JP2973016B2 (en) | 1990-06-28 | 1990-06-28 | Digital radiation image recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2973016B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3013095B2 (en) * | 1990-07-31 | 2000-02-28 | 富士写真フイルム株式会社 | Method for determining radiation image reading conditions and / or image processing conditions |
JPH0478972A (en) * | 1990-07-23 | 1992-03-12 | Nippon Telegr & Teleph Corp <Ntt> | Gradation picture identifying device |
JP5192751B2 (en) * | 2007-08-10 | 2013-05-08 | 富士フイルム株式会社 | Image processing apparatus, image processing method, and image processing program |
JP6348431B2 (en) * | 2015-02-24 | 2018-06-27 | 株式会社日立製作所 | Image processing method and image processing apparatus |
JP2020036773A (en) * | 2018-09-05 | 2020-03-12 | コニカミノルタ株式会社 | Image processing apparatus, image processing method, and program |
JP2021021672A (en) * | 2019-07-30 | 2021-02-18 | 日本電気通信システム株式会社 | Distance measuring device, system, method, and program |
JP7418171B2 (en) * | 2019-08-30 | 2024-01-19 | キヤノン株式会社 | Image processing device, radiography system, image processing method and program |
-
1990
- 1990-06-28 JP JP2168539A patent/JP2973016B2/en not_active Expired - Lifetime
Non-Patent Citations (2)
Title |
---|
「医用画像処理」(1982−2−25) |
朝倉書店 P.112−113 |
Also Published As
Publication number | Publication date |
---|---|
JPH0458943A (en) | 1992-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0170270A2 (en) | Method of adjusting radiation image read-out conditions | |
JPH0737087A (en) | Picture processor | |
JP2007534179A (en) | Adjusting the brightness of digital images | |
KR102053527B1 (en) | Method for image processing | |
WO2020066257A1 (en) | Classification device, classification method, program, and information recording medium | |
CN114120176A (en) | Behavior analysis method for fusion of far infrared and visible light video images | |
JP2973016B2 (en) | Digital radiation image recognition system | |
JP2676009B2 (en) | Radiation image reading condition and / or image processing condition determination method and device, and radiation image analysis method and device | |
JPH06304159A (en) | Method for recognizing picture photographing position | |
CN115240240A (en) | Infrared face recognition method and system based on YOLO network | |
CN113256605B (en) | Breast cancer image identification and classification method based on deep neural network | |
JP2694580B2 (en) | Method for determining image points in subject image | |
JP2929031B2 (en) | Digital radiographic image position determination device | |
JPH04261649A (en) | Method and apparatus for analyzing radiation image | |
JP3953569B2 (en) | Image processing device | |
US5553159A (en) | Radiation image processing method utilizing neural networks | |
JP3013095B2 (en) | Method for determining radiation image reading conditions and / or image processing conditions | |
JPH0538334A (en) | Method of recognizing field of view of collimation of radiation | |
JP2739386B2 (en) | Method and apparatus for determining radiation image reading conditions and / or image processing conditions | |
JP2739385B2 (en) | Method and apparatus for determining radiation image reading conditions and / or image processing conditions | |
JP2565791B2 (en) | Multilayer neural network coefficient storage device | |
JP2727258B2 (en) | Method and apparatus for determining radiation image reading conditions and / or image processing conditions | |
JP2678815B2 (en) | Radiation image reader | |
JPS62104264A (en) | Method for recognizing irradiation field | |
JPH11196296A (en) | Image processor, method for it, nonlinear filter and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080903 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090903 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100903 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100903 Year of fee payment: 11 |