JPH0458943A - Image recognizing device for digital radiation image - Google Patents

Image recognizing device for digital radiation image

Info

Publication number
JPH0458943A
JPH0458943A JP2168539A JP16853990A JPH0458943A JP H0458943 A JPH0458943 A JP H0458943A JP 2168539 A JP2168539 A JP 2168539A JP 16853990 A JP16853990 A JP 16853990A JP H0458943 A JPH0458943 A JP H0458943A
Authority
JP
Japan
Prior art keywords
image
learning
signal
neural network
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2168539A
Other languages
Japanese (ja)
Other versions
JP2973016B2 (en
Inventor
Atsushi Kido
淳 木戸
Hiroshi Takeuchi
寛 竹内
Hisashi Yonekawa
久 米川
Hiroaki Tajima
田島 弘明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2168539A priority Critical patent/JP2973016B2/en
Publication of JPH0458943A publication Critical patent/JPH0458943A/en
Application granted granted Critical
Publication of JP2973016B2 publication Critical patent/JP2973016B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Radiography Using Non-Light Waves (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To eliminate the need of a complicated calculation, and to recognize a wide image with a high recognition rate by providing a neural network for inputting an output of a signal thinning-out means in which a feature is learned in advance, and outputting a discriminating signal for showing which of plural recognition objects the image corresponds to. CONSTITUTION:Digital radiation image data inputted from an image input part 1 is inputted to a signal thinning-out part 2 of the number of picture elements and the number of gradations, and thereafter, inputted to a neural. network 3, and by an operation (discriminating means 3a), a discriminating signal for showing which of recognition objects specified in advance the data corresponds to is outputted. Subsequently, it reaches an image output part 5 from an image processing part 4. In that case, in order to recognize the image, a feature of the image is learned. That is, a learning result storage means 3c for storing a result leaned by a neural net learning means 3b is provided. Subsequently, a result of processing by the signal thinning-out part 2 is stored in a thinned-out image storage part 6, and by an image data selecting means 7, arbitrary learning data is read outs and the learning means 3b executes learning of a synapse weight in the neural network 3.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 本発明はデジタル放射線画像の画像認識装置に関し、詳
しくは、被写体を透過した放射線量として撮影される放
射線画像をデジタル信号化したデータから被写体の撮影
部位や撮影体位なとを認識し得る装置に関する。
[Detailed Description of the Invention] <Industrial Application Field> The present invention relates to an image recognition device for digital radiation images, and more specifically, the present invention relates to an image recognition device for digital radiation images. The present invention relates to a device that can recognize the body part to be imaged and the body position to be imaged.

〈従来の技術〉 X線画像のような放射線画像は医療用として多く用いら
れており、この放射線画像を電気画像信号として得る方
法として、例えは以下のようなものがある。
<Prior Art> Radiographic images such as X-ray images are often used for medical purposes, and examples of methods for obtaining radiographic images as electrical image signals include the following.

即ち、被写体としての人体を通過した放射線をある種の
蛍光体に吸収させ、その後、この蛍光体を光又は熱エネ
ルギーで励起することにより、この蛍光体が前記吸収に
より蓄積していた放射線エネルギーを蛍光として放射さ
せ、この蛍光を光電変換素子で検出して放射線画像情報
を電気的に得るものであり、かかる放射線画像信号をデ
ジタル化してから、階調処理や空間周波数処理を施して
CRT等に出力して可視化するようにしているものがあ
る(特開昭63−189853号公報等参照)。
In other words, the radiation that has passed through the human body as an object is absorbed by a certain type of phosphor, and then this phosphor is excited with light or thermal energy, thereby removing the radiation energy that the phosphor has accumulated due to the absorption. It emits fluorescence and detects this fluorescence with a photoelectric conversion element to electrically obtain radiographic image information.The radiographic image signal is digitized and then subjected to gradation processing and spatial frequency processing to be displayed on a CRT, etc. There are some that are designed to be output and visualized (see Japanese Unexamined Patent Application Publication No. 189853/1983, etc.).

ところで、上記のようにデジタル放射線画像信号を可視
像として出力する前の処理段階においては、上記のよう
に階調処理や空間周波数処理を施して読影に適した可視
像とする必要があるが、人体における撮影部位や撮影体
位の違いによって、それぞれの再生画像において該部位
中の関心領域の濃度が変化してしまうことがある。
By the way, in the processing stage before outputting the digital radiation image signal as a visible image as described above, it is necessary to perform gradation processing and spatial frequency processing as described above to make a visible image suitable for interpretation. However, due to differences in the part of the human body to be photographed or the position to be photographed, the density of the region of interest in the part may change in each reproduced image.

従って、階調処理や空間周波数処理などの画像処理を施
す前に、オリジナルのデジタル放射線画像から撮影体位
を自動的に判別しそれぞれの体位に最適な画像処理を施
すことが要求され、そのため、従来から画像データの濃
度ヒストグラムや画像データ中の画像所定方向に沿った
信号レベル分布などを用いて撮影体位を自動判別てきる
ようにした方法・装置が種々提案されている(特開昭6
3−262128号公報、特開昭63−262132号
公報等参照)。
Therefore, before performing image processing such as gradation processing and spatial frequency processing, it is required to automatically determine the imaging position from the original digital radiation image and apply the optimal image processing for each body position. Various methods and devices have been proposed that can automatically determine the imaging position using the density histogram of image data or the signal level distribution along a predetermined image direction in the image data (Japanese Patent Laid-Open No. 6
3-262128, JP-A-63-262132, etc.).

〈発明が解決しようとする課題〉 しかしながら、従来の撮影体位判別では、撮影部位を一
部位に限定した上で、撮影体位か正面であるか側面であ
るかを判別できる程度であり、撮影部位及び撮影体位の
識別か限定されてしまうという問題かあった。
<Problems to be Solved by the Invention> However, in conventional imaging body position determination, it is only possible to determine whether the imaging position is front or side after limiting the imaging area to one area. There was a problem with the ability to identify shooting positions to be limited.

かかる問題点を解決するために、−殻内な画像認識の技
術を用い、複数の特徴量を抽出してこの特徴量の組み合
わせなどによって判別を行おうとしても、処理の流れや
判定に用いる計算式等が非常に複雑になってくると共に
、特徴量の辞書をそれぞれの撮影部位・撮影体位毎にマ
ツチングする必要があって多くの労力を要するために、
実用に供することが困難であった。
In order to solve this problem, even if you use in-depth image recognition technology to extract multiple feature quantities and perform discrimination based on a combination of these feature quantities, the processing flow and the calculations used for determination The equations become very complex, and it is necessary to match a dictionary of feature values for each body part and body position, which requires a lot of effort.
It was difficult to put it into practical use.

更に、従来の画像認識では、抽出した複数の特徴量かど
の程度認識に有効であるかということを定量的に把握す
ることか難しいために、どの特徴量を抽出して画像認識
に用いるかという選択が簡便に行えず、この点からも従
来の画像認識技術をデジタル放射線画像の認識に流用す
ることが困難であり、・撮影部位・撮影体位を限定して
の認識に留まっていたのが現状であった。
Furthermore, in conventional image recognition, it is difficult to quantitatively understand how effective the multiple extracted features are for recognition, so it is difficult to determine which features to extract and use for image recognition. Selection cannot be made easily, and from this point of view, it is difficult to apply conventional image recognition technology to the recognition of digital radiological images.Currently, recognition is limited to the area to be imaged and the body position to be imaged. Met.

本発明は上記問題点に鑑みなされたものであり、複雑な
計算を必要とせず、然も、抽出すべき特徴量の選択や辞
書マツチングなとの労力を不要にできるデジタル放射線
画像の画像認識装置を提供することを目的とする。
The present invention has been made in view of the above-mentioned problems, and is an image recognition device for digital radiation images that does not require complicated calculations and also eliminates the labor of selecting feature quantities to be extracted and dictionary matching. The purpose is to provide

〈課題を解決するための手段〉 そのため本発明では、第1図に示すように、デジタル放
射線画像の画素数と信号の量子化ステップ数との少なく
とも一方を縮減させる信号間引き手段と、前記デジタル
放射線画像の特徴か予め学習され、信号間引き手段の出
力を入力し、入力した画像が予め特定される複数の認識
対象のどれに該当するかを示す識別信号を出力するニュ
ーラルネットワークと、を含んでデジタル放射線画像の
画像認識装置を構成した。
<Means for Solving the Problems> Therefore, in the present invention, as shown in FIG. a neural network that is trained in advance on image features, inputs the output of a signal thinning means, and outputs an identification signal indicating which of a plurality of pre-identified recognition targets the input image corresponds to; An image recognition device for radiation images was constructed.

ここで、前記認識対象は、デジタル放射線画像における
被写体の撮影部位と撮影体位との少なくとも一方とする
ことができる。
Here, the recognition target may be at least one of the photographed region and the photographed body position of the subject in the digital radiation image.

また、信号間引き手段が、原画像を複数の小領域に分割
し、これら小領域それぞれでの画像信号値の平均値又は
代表値をサンプリングすることでデジタル放射線画像の
画素数と信号の量子化ステップ数との少なくとも一方を
縮減させるよう構成すると良い。
In addition, the signal thinning means divides the original image into a plurality of small regions, and samples the average value or representative value of the image signal values in each of these small regions, thereby determining the number of pixels of the digital radiation image and quantizing the signal. It is preferable to reduce at least one of the numbers.

更に、ニューラルネジ1〜ワークが、予め学習データ集
合の内容を変えながら複数回学習して得られた学習結果
を複数備えるようにして、これら複数の学習結果それぞ
れに基づき処理されて出力された複数の識別信号の中の
最も数の多いものを最終的に出力するよう構成すること
が好ましい。
Furthermore, neural screw 1 to work are provided with a plurality of learning results obtained by learning multiple times while changing the contents of the learning data set in advance, and a plurality of neural screws processed and output based on each of these plural learning results are provided. It is preferable that the configuration is such that the identification signal with the largest number among the identification signals is finally output.

ここで、上記のように複数の学習結果を備えるようにす
る場合には、未学習初期値を用いて最初のニューラルネ
ットワーク学習を行わせ、2回目以降の学習においては
前回の学習結果を初期値として学習を行わせることによ
って複数の学習結果を得るよう構成すると良い。
Here, if multiple learning results are provided as described above, the first neural network learning is performed using the unlearned initial values, and the previous learning results are used as the initial values for the second and subsequent learnings. It is preferable to configure the system so that a plurality of learning results can be obtained by performing learning as follows.

〈作用〉 かかる構成のデジタル放射線画像の画像認識装置による
と、デジタル放射線画像の原画像データが、まず、信号
間引き手段において画素数と信号の量子化ステップ数と
の少なくとも一方を縮減させる処理を施される。このよ
うにしてデータ量が縮減されたデジタル放射線画像は、
デジタル放射線画像の特徴か予め学習されているニュー
ラルネットワークに入力される。ニューラルネットワー
クは、予め行われている学習に沿って入力信号を処理し
、入力した画像が予め特定される複数の認識対象のどれ
に該当するかを示す識別信号を出力する。
<Function> According to the image recognition device for a digital radiation image having such a configuration, the original image data of the digital radiation image is first subjected to a process of reducing at least one of the number of pixels and the number of signal quantization steps in the signal thinning means. be done. Digital radiological images whose data amount has been reduced in this way are
The features of the digital radiation image are input into a pre-trained neural network. The neural network processes the input signal according to learning that has been performed in advance, and outputs an identification signal indicating which of a plurality of recognition targets specified in advance the input image corresponds to.

即ち、信号間引き手段で処理した信号を入力させたとき
に複数の認識対象に識別できるように、予めニューラル
ネットワークを学習させておくことにより、デジタル放
射線画像から特微量を抽出したり、特微量の辞書を作成
したりといった労力を必要とせず、ニューラルネジ1〜
ワークに信号間引き手段でデータ量を縮減した画像信号
を入力させればその画像が識別されることになる。
In other words, by training a neural network in advance so that it can identify multiple recognition targets when a signal processed by the signal thinning means is input, it is possible to extract a feature quantity from a digital radiation image or Neural Screw 1~ without the need for effort such as creating a dictionary.
If an image signal whose data amount has been reduced by the signal thinning means is input to the workpiece, the image can be identified.

ここで、前記認識対象として、デジタル放射線画像で必
要になるのは例えば被写体の撮影部位と撮影体位との少
なくとも一方であり、この場合ニューラルネットワーク
は、撮影部位が何処であるかを示す識別信号、又は、撮
影体位が正面や側面などのうちのどれであるを示す識別
信号を出力する。
Here, what is required in the digital radiation image as the recognition target is, for example, at least one of the imaged part and the imaged body position of the subject, and in this case, the neural network uses an identification signal indicating where the imaged part is, Alternatively, an identification signal indicating whether the photographing position is frontal or sideward is output.

また、信号間引き手段で、デジタル放射線画像の画素数
と信号の量子化ステップ数との少なくとも一方を縮減さ
せるには、原画像を複数に分割した小領域それぞれでの
画像信号値の平均値又は代表値をサンプリングさせるよ
うにすれば、複雑な計算式や多大な計算量を必要とする
ことなく、簡便にデータ量を縮減させてニューラルネッ
トワークに入力させることかできる。
In addition, in order to reduce at least one of the number of pixels of the digital radiation image and the number of signal quantization steps using the signal thinning means, it is necessary to By sampling the values, the amount of data can be easily reduced and input to the neural network without requiring complicated calculation formulas or a large amount of calculation.

一方、ニューラルネットワークにおいては予め学習デー
タ集合の内容を変えながら複数回学習されることになる
が、かかる学習によって得られた学習結果を複数備える
ようにして、それぞれの学習結果を用いて処理され出力
された識別信号の多数決を取るようにすれば、1つの学
習結果に基づくニューラルネットワークの1つの認識結
果を最終結果とする場合よりも、デジタル放射線画像の
認識率を向上させることができる。
On the other hand, in a neural network, learning is performed multiple times while changing the contents of the training data set in advance, but it is provided with multiple learning results obtained through such learning, and is processed and output using each learning result. By taking a majority vote of the identified identification signals, it is possible to improve the recognition rate of digital radiation images, compared to the case where one recognition result of a neural network based on one learning result is used as the final result.

また、上記のように複数の学習結果を備えるようにする
場合に、未学習初期値を用いて最初のニューラルネット
ワーク学習を行わせ、2回目以降の学習においては前回
の学習結果を初期値として学習を行わせて複数の学習結
果を得るようにすれば、それぞれ未学習値を初期として
学習を行わせる場合に比べ学習時間を短縮できる。
In addition, when providing multiple learning results as described above, the first neural network training is performed using unlearned initial values, and the second and subsequent learning uses the previous learning results as initial values. By performing this to obtain a plurality of learning results, the learning time can be shortened compared to the case where each learning is performed using an unlearned value as an initial value.

〈実施例〉 以下に本発明の詳細な説明する。<Example> The present invention will be explained in detail below.

第2図は本発明にかかるデジタル放射線画像の画像認識
装置の一実施例を示すものである。
FIG. 2 shows an embodiment of the image recognition apparatus for digital radiation images according to the present invention.

ここで、画像入力部1は、蓄積性蛍光体上に記憶(蓄積
)された放射線画像の潜像をレーザ光で走査して読み取
るよう構成されたデジタルX線撮影装置や、X線フィル
ムをデジタル信号化するイメージスキャナ、或いは、既
にデジタル放射線画像データが複数記録されているファ
イリングシステムなどである。
Here, the image input unit 1 includes a digital X-ray imaging device configured to scan and read a latent image of a radiation image stored (accumulated) on a stimulable phosphor, or a digital This may be an image scanner that converts it into a signal, or a filing system that already records a plurality of digital radiation image data.

画像入力部lから入力されるオリジナルのデジタル放射
線画像データf (x、  y)は、まず、信号間引き
部(信号間引き手段)2に入力される。
The original digital radiation image data f (x, y) input from the image input section 1 is first input to the signal thinning section (signal thinning means) 2.

この信号間引き部2は、オリジナルのデジタル画像デー
タf (x、  y)の画素数及び階調数(量子化ステ
ップ数)を間引いて、撮影体位判別に用いる画像データ
量を縮減させ、後述するニューラルネットワークに対し
て画像の大きな濃淡特徴か入力されるようにする。
This signal thinning unit 2 thins out the number of pixels and the number of gradations (the number of quantization steps) of the original digital image data f (x, y) to reduce the amount of image data used for determining the shooting position, and performs a neural Make sure that only the large grayscale features of the image are input to the network.

具体的には、オリジナルのデジタル画像データf (x
、  y)を、複数の小領域(n画素×n画素)に分割
し、各小領域に含まれる画素それぞれに対応する信号値
の平均値を算出したり、又は、各小領域に含まれる画素
に対応する信号値の中の1つを代表値として求めること
により、オリジナルのデジタル画像データf (x、 
 y)の画素数及び階調数を間引いた画像データf’(
x’、y’)を設定する。尚、2048 X 2464
画素、 1024階調のオリジナルのデジタル画像デー
タf (x、y)を、第3図に示すように、5×5画素
〜l0XIO画素、256階調程度にまで間引いても、
撮影部位や撮影体位がある程度限定されるものであれば
充分に識別可能であり、例えば脚部の正面・側面とか頭
部の正面・側面といった部位及び体位をそれぞれ2種類
程度に限定した比較的粗い判別であれば精度は充分に高
い。
Specifically, the original digital image data f (x
, y) into multiple small areas (n pixels x n pixels) and calculate the average value of the signal values corresponding to each pixel included in each small area, or By determining one of the signal values corresponding to as a representative value, the original digital image data f (x,
The image data f'(
x', y'). Furthermore, 2048 x 2464
Even if the original digital image data f (x, y) with pixels and 1024 gradations is thinned out to about 5 x 5 pixels to 10XIO pixels and 256 gradations as shown in Fig. 3,
If the body parts and body positions to be photographed are limited to a certain extent, they can be sufficiently identified. For discrimination, the accuracy is sufficiently high.

ここで、画素数の間引きを行わず、オリジナルの信号値
を、大きなステップ幅で量子化し直して階調数のみを縮
減させるようにしても良いが、後述するニューラルネッ
トワーク構造や学習を複雑化させることになるので、画
素数と階調数とを共に縮減させることが好ましい。
Here, it is possible to reduce only the number of gradations by requantizing the original signal value with a large step size without thinning out the number of pixels, but this will complicate the neural network structure and learning described later. Therefore, it is preferable to reduce both the number of pixels and the number of gradations.

信号間引き部2で画素数及び階調数か縮減された画像信
号f”(x’、y’)は、第3図に示すような構成のニ
ューラルネットワークにューロコンピュータ)3に入力
され、該ニューラルネットワーク3による演算(判別手
段3a)によって予め特定される複数の認識対象のとれ
に該当するかを示す識別信号が出力される。
The image signal f''(x',y') whose number of pixels and gradations have been reduced in the signal thinning unit 2 is input to the neural network (neurocomputer) 3 having the configuration as shown in FIG. An identification signal indicating whether the recognition object corresponds to one of the plurality of recognition targets specified in advance by the calculation by the neural network 3 (discrimination means 3a) is output.

前記複数の認識対象としては、例えば被写体を人物とし
た医療用の場合、胸部正面・胸部側面・頭部正面・頭部
側面などとする。
For example, in the case of medical use where the subject is a person, the plurality of recognition targets include the front of the chest, the side of the chest, the front of the head, and the side of the head.

判別手段3aから上記のような認識対象のどれに該当す
るかを示す識別信号か出力されると、この識別信号を受
ける画像処理部4ては、画像入力部1からのオリジナル
のデジタル画像データf(x、  y)に対し、読影に
適した可視像に再生されるように撮影部位及び撮影体位
の判別結果に基づいて階調変換や周波数強調2輪郭抽出
なとの種々の画像処理・解析を行う。
When the discrimination means 3a outputs an identification signal indicating which of the above-mentioned recognition targets corresponds, the image processing section 4 that receives this identification signal converts the original digital image data f from the image input section 1. For (x, y), various image processing and analyzes such as gradation conversion and frequency enhancement 2 contour extraction are performed based on the determination results of the imaged area and imaged body position so that it is reproduced as a visible image suitable for interpretation. I do.

前記画像処理部4て処理された画像データか入力される
画像出力部5ては、画像処理後の画像データ(デジタル
放射線画像信号)を、再びファイリングシステム内に記
録したり、CRT上に再生したり、プリンタによってフ
ィルム上に記録したりする。ここで、被写体(本実施例
では人体)の撮影部位及び撮影体位を判別した後の画像
データを、ファイリングシステムにファイリングする際
には、患者名・撮影年月日などの画像情報と共に、撮影
部位及び撮影体位を画像データに対応させて記録してお
けば、後の検索に便利であると共に、繰り返し撮影部位
・撮影体位の認識を行う必要かなくなる。
The image output section 5, which receives the image data processed by the image processing section 4, records the image data (digital radiation image signal) after image processing again in the filing system or reproduces it on a CRT. or recorded on film by a printer. Here, when filing the image data in the filing system after determining the imaged part and imaged position of the subject (in this example, a human body), the imaged area is If the image data and the imaged body position are recorded in correspondence with the image data, it will be convenient for later retrieval, and there will be no need to repeatedly recognize the imaged body part and imaged body position.

ところで、前記ニューラルネジ1〜ワーク3は、「日経
エレクトロニクス 第427号J 1987年8月10
8号の第115頁へ一第124頁などに紹介されている
ように、人間の脳を真似たネットワークで脳のニューロ
ン(神経細胞)に対応した複数のユニットか複雑に接続
し合ったもので、各ユニッI〜間の接続形態(結合荷重
)を適宜決定することで、パターン認識機能などを埋め
込む(学習する)ことかできるものである。
By the way, the neural screws 1 to 3 are described in "Nikkei Electronics No. 427 J August 10, 1987.
As introduced on pages 115 to 124 of issue 8, it is a network that imitates the human brain and is made up of multiple units that correspond to the brain's neurons (nerve cells) and are connected together in a complex manner. By appropriately determining the connection form (coupling load) between each unit I, it is possible to embed (learn) a pattern recognition function or the like.

本実施例におけるニューラルネットワーク3は、第3図
に示すように、入力層S、中間層A、出力層Rによって
構成され、入力層Sは、前記信号間引き部2て間引かれ
た画素数と同じ数のニューロンモデル(ユニット)Sl
、S2  ・・・・S6からなっており、各ニューロン
モデルS1.S2  ・・・・S6に対して対応する画
素の信号値かそれぞれ人力されるようになっている。尚
、前述のように、階調数をオリジナルの1024024
階調56階調(8ピッl−)程度にまで減縮させてから
ニューラルネッ1〜ワーク3に入力させるようにするが
、信号値の入力層Sに対する入力に際しては、前記0〜
255の256階調を0.0〜1.0に正規化して入力
させるようにする。
The neural network 3 in this embodiment is composed of an input layer S, an intermediate layer A, and an output layer R, as shown in FIG. Same number of neuron models (units) Sl
, S2...S6, and each neuron model S1. S2...The signal value of the pixel corresponding to S6 is manually entered. As mentioned above, the number of gradations is the original 1024024.
The gradation is reduced to approximately 56 gradations (8 pins) before being input to the neural networks 1 to 3. However, when inputting the signal value to the input layer S, the 0 to
The 256 gradations of 255 are normalized to 0.0 to 1.0 and input.

中間層AのニューロンモデルA、A2゜・・・・A、は
、入力層Sの各二ニーロンモデル(ユニット)S、、S
2 ・・・・S8の全てと結合可能である。該中間層A
のニューロンモデル数aは経験的に決定されるが、本発
明の場合、入力層Sのニューロンモデル数Sと出力層R
のニューロンモデル数rと総和の半数程度が好ましい。
The neuron models A, A2゜...A, of the intermediate layer A are the two neuron models (units) S, , S of the input layer S.
2: Can be combined with all of S8. The intermediate layer A
The number a of neuron models in is determined empirically, but in the case of the present invention, the number S of neuron models in the input layer S and the number S of neuron models in the output layer R
The number r of neuron models is preferably about half of the total.

また、中間層Aは本実施例のように、1層でも良いが、
2層。
Further, the intermediate layer A may be one layer as in this embodiment, but
2 layers.

3層・・・と複層構造にしても良い。It may also have a multi-layer structure with three layers...

出力層Rは、認識対象を、例えは胸部正面・胸部側面・
頭部正面・頭部側面の4種類とするときには、4つのニ
ューロンモデルR1〜R4て構成され、このニューロン
モデルR1〜R4は中間層への各ニューロンモデルA、
、A2 ・・・・Aa全てと結合可能である。
The output layer R recognizes the recognition target, for example, the front of the chest, the side of the chest,
When there are four types of head front and head side, it is composed of four neuron models R1 to R4, and these neuron models R1 to R4 are connected to each neuron model A,
, A2... Can be combined with all Aa.

出力層Rにおける識別信号は、例えば胸部正面であると
識別したときには、ニューロンモデルRの出力のみか1
となるようにしておき、とのニューロンモデルR7〜R
4の出力が1であるかによって画像認識(撮影部位・撮
影体位の認識)か行えるようにする。
For example, when the front chest is identified, the identification signal in the output layer R may be only the output of the neuron model R or 1.
The neuron model R7~R with
Depending on whether the output of 4 is 1 or not, image recognition (recognition of the body part and body position to be photographed) can be performed.

ところで、上記のように間引き後の各画素の信号値をニ
ューラルネットワーク3に入力させて、その画像を認識
させるには、予めデジタル放射線画像の特徴を学習させ
ておいて、例えば胸部正面の画像信号が入力されたとき
には二ニーロンモデルR1の出力のみか1となるとよう
に予め学習させておく必要がある。
By the way, in order to input the signal values of each pixel after thinning to the neural network 3 and recognize the image as described above, the characteristics of the digital radiation image are learned in advance, and for example, the image signal of the front chest is It is necessary to learn in advance so that when input, only the output of the two-neelon model R1 becomes 1.

かかるニューラルネットワーク3の学習は、予め撮影部
位・撮影体位が判っているデジタル放射線画像信号を信
号間引き部2で処理してニューラルネッ1〜ワーク3に
入力させたときに、正解である撮影部位・撮影体位に対
応する識別信号が出力されるように、学習データ集合(
学習用としてニユーラルネツトワーク3に入力させる間
引き画像信号)を変えながらニューラルネットワーク3
における各シナプスウェイト(結合荷重)の値を出力層
R側から順次学習させて認識率を除々に増大させるもの
であり、かかる学習(バックプロパゲーション則)によ
って被写体の撮影部位・撮影体位の違いによる入力デー
タの違いを学習させ、撮影部位・撮影体位を識別したい
デジタル放射線画像信号を信号間引き部2て間引いた結
果をニューラルネットワーク3に入力させることで、デ
ジタル放射線画像における撮影部位・撮影体位を予め定
めた複数の認識対象の何れかに識別させるようにするも
のである。
The learning of the neural network 3 is such that when a digital radiation image signal whose imaging region and imaging position are known in advance is processed by the signal thinning section 2 and input to the neural networks 1 to 3, the correct imaging region and imaging position are determined. A learning data set (
Neural network 3 while changing the thinned image signal input to neural network 3 for learning
The recognition rate is gradually increased by sequentially learning the value of each synaptic weight (connection weight) from the output layer R side, and by this learning (back propagation law), the recognition rate is By having the neural network 3 input the results of thinning out the digital radiographic image signals for which you want to identify the region to be imaged and the body position to be imaged by learning the differences in the input data, the region to be imaged and the body position to be imaged in the digital radiographic image can be determined in advance. This allows any one of a plurality of predetermined recognition targets to be identified.

ここで、上記ニューラルネットワーク3の特性及びパッ
クプロパゲーション則に基つく学習を更に説明すると、
第3図に示すようなニューラルネットワーク3を構成す
る各ユニットにニューロンモデル)Uiは、他のユニッ
トからの入力Qjの総和を一定の規則で変換し、Qiと
するが、他のユニットとの結合部にはそれぞれ可変の重
みWiJ(シナプスウェイl−)が付いている。この重
みWIJは、各ユニット間の結合の強さを表すためのも
ので、この値を変えると接続状態を変えなくても実質的
にネットワークの構造が変わることになる。
Here, to further explain the characteristics of the neural network 3 and the learning based on the pack propagation law,
(neuron model for each unit constituting the neural network 3 as shown in Fig. 3) Ui converts the sum of inputs Qj from other units according to a certain rule and sets it as Qi, but the connection with other units Each section has a variable weight WiJ (synaptic way l-). This weight WIJ is used to express the strength of the connection between each unit, and changing this value will substantially change the structure of the network without changing the connection state.

ニューラルネットワーク3の学習とは、この値を変える
ことであって、重みWiJは正2 セロ、負の値をとり
、ゼロは結合がないことを表す。
Learning of the neural network 3 means changing this value, and the weight WiJ takes a positive value of 2 and a negative value, and zero represents the absence of a connection.

あるユニットUiか他の複数のユニッ1=Uiから入力
を受けた場合、その入力の総和をNETで表すとすると
、ユニットUiの入力の総和は、NETi =ΣWiJ
−Qj どなる。
When input is received from a certain unit Ui or from multiple other units 1 = Ui, if the sum of the inputs is expressed as NET, then the sum of the inputs of the unit Ui is NETi = ΣWiJ
-Qj yells.

各ユニットUiは、この入力の総和NETを関数fに適
用し、次式に示すように出力Q1に変換する。
Each unit Ui applies this input summation NET to the function f and converts it into an output Q1 as shown in the following equation.

Qi=f  (NETi ) f (ΣWIJ−Qj) 上記関数fは各ユニットUi毎に違って良いが、一般に
は、第4図に示すようなしきい値開数又は第5図に示す
ようなsigmoid関数を用いる。
Qi=f (NETi) f (ΣWIJ-Qj) The above function f may be different for each unit Ui, but is generally a threshold numerical value as shown in FIG. 4 or a sigmoid function as shown in FIG. Use.

] 7 このsigmoid関数は、微分可能な疑似線形関数で
、 で表せる。値域はθ〜1て、入力値が大きくなるにつれ
1に、小さくなるにつれ0に近つく。入力か0のときは
0.5となる。しきい値θ(バイアス)を加えて、 とする場合もある。
] 7 This sigmoid function is a differentiable pseudo-linear function and can be expressed as follows. The value range is θ to 1, which approaches 1 as the input value becomes larger and approaches 0 as it becomes smaller. When the input is 0, it becomes 0.5. In some cases, a threshold value θ (bias) is added.

このようなニューラルネットワーク3において、入力層
Sに入力データを与えると、この信号は各ユニットで変
換され、中間層Aに伝わり、最後に出力層Rから出てく
るが、望ましい出力を得るためには各ユニット間の結合
の強弱すなわち重みを適切な値に設定する必要かある。
In such a neural network 3, when input data is given to the input layer S, this signal is converted in each unit, transmitted to the intermediate layer A, and finally comes out from the output layer R. In order to obtain the desired output, It is necessary to set the strength of the connection between each unit, that is, the weight, to an appropriate value.

この重みの設定は、ニューラルネットワーク3を次のよ
うに学習させることによって行う。
This weight setting is performed by making the neural network 3 learn as follows.

まず最初は、すべての重みをランダムに設定しておき、
入力層の各ユニットに学習用の入力デ−り(予め望まし
い出力の分かっているデータ)を与える。そして、この
とき出力層の各ユニットから出てきた出力値と望ましい
出力値とを比へ、その差(誤差)を減らすように各重み
の値を、出力層側から順次修正する。そしてこれを多数
の学習データを用いて誤差が収束するまで繰り返すもの
である(「入門ニューロコンピュータJ菊池豊彦著 1
990年1月20日 株式会社オーム社 発行等参照)
First, set all the weights randomly,
Input data for learning (data whose desired output is known in advance) is given to each unit in the input layer. Then, at this time, the value of each weight is sequentially corrected from the output layer side so as to reduce the difference (error) between the output value output from each unit of the output layer and the desired output value. This is then repeated using a large amount of learning data until the error converges ("Introductory Neurocomputer J, Toyohiko Kikuchi, 1
January 20, 990, published by Ohmsha Co., Ltd.)
.

このように予め学習されたニューラルネットワーク3に
対して、認識させたいデジタル放射線画像の間引きデー
タを入力させてやれば、どの撮影部位・撮影体位に近い
ものであるかを識別する演算が広範な画像で実時間で行
われ、然も、本実施例のようにニューラルネットワーク
3を用いたシステムにおいては、デジタル放射線画像か
ら特微量を抽出したり、特微量の辞書を作成したりとい
った労力を必要としないため、撮影部位及び撮影体位を
比較的限定しなくても識別可能なシステムを簡便に構築
できるものである。
If the neural network 3, which has been trained in this way, is input with thinned-out data of the digital radiation image that you want to recognize, a wide range of calculations can be performed to identify which part of the image is being imaged or which body position is being imaged. However, in a system using a neural network 3 as in this example, it requires labor to extract the characteristic quantities from the digital radiation image and to create a dictionary of the characteristic quantities. Therefore, it is possible to easily construct a system that can identify the body part and the body position to be photographed without being relatively limited.

即ち、ニューラルネットワーク3を用いたデジタル放射
線画像の認識においては、予めある程度認識すべき対象
の画像範囲を定め、かかる画像範囲で必要とされる識別
能力を設定すれば、あとはニューラルネットワーク3の
ユニット構成を決定し、サンプルとなる画像データをニ
ューラルネツ)・ワーク3に入力させて所望の答えが出
てくるように学習させることで、高精度にデジタル放射
線画像を認識させることができるものであり、前処理か
間引き処理たけて簡易であり、然も、かかる前処理によ
ってニューラルネットワーク3の構成も簡略化できるの
で、簡素化したシステムとなる。
That is, in recognizing digital radiation images using the neural network 3, once an image range of the target to be recognized is determined to some extent in advance and the discrimination ability required for this image range is set, the rest is done by the units of the neural network 3. By determining the configuration and inputting sample image data to Neural Networks Work 3 and having it learn to come up with the desired answer, it is possible to recognize digital radiation images with high accuracy. The preprocessing or thinning process is simple, and the configuration of the neural network 3 can be simplified by such preprocessing, resulting in a simplified system.

尚、認識対象を多くする場合には、それだけ画像の濃淡
情報を細かくニューラルネットワーク3に入力させる必
要があるので、信号間引き部2における間引き割合を少
なくする必要があり、これに伴ってニューラルネットワ
ーク3の構成ユニット数も増大させる必要かあり、学習
にも多くの時間を要することになるので、認識対象を最
低限必要な数に限定することか好ましい。
Note that when increasing the number of recognition targets, it is necessary to input the grayscale information of the image into the neural network 3 in more detail, so it is necessary to reduce the thinning ratio in the signal thinning section 2. Since it is necessary to increase the number of constituent units and a lot of time is required for learning, it is preferable to limit the number of recognition targets to the minimum required number.

ところで、ニューラルネットワーク3のシナプスウェイ
ト学習においては、1つの学習結果のみを用いてニュー
ラルネットワーク3における体位識別処理を行わせるこ
とが一般的であるが、シナプスウェイトの学習結果を複
数記憶させておき、それぞれの学習結果に基づきネット
ワークされたニューラルネットワーク3て処理して得た
(判別手段3aで演算して得た)複数の認識結果の多数
決で最終的な体位の識別を行わせるようにすれは、より
一層識別率を向上させることが可能となる。
By the way, in the synaptic weight learning of the neural network 3, it is common to have the neural network 3 perform body position identification processing using only one learning result, but it is possible to store a plurality of learning results of synaptic weights, In order to make the final body position identification based on a majority vote of a plurality of recognition results obtained by processing the neural network 3 based on each learning result (obtained by calculation by the discrimination means 3a), It becomes possible to further improve the identification rate.

即ち、第2図に示すように、ニューラルネットワーク3
を学習させるためのニューラルネッ斗学習手段3bによ
って学習された結果(各シナプスウェイト値)を記憶す
る学習結果記憶手段3cを備えるようにしておいて、信
号間引き部2て画素及び階調数を間引いたデジタル放射
線画像信号を入力して撮影部位・撮影体位を判別する判
別手段3aでは、前記学習結果記憶手段3cに記憶され
ている各学習結果に基づいてそれぞれに処理し、それぞ
れの学習結果から導かれる複数の認識結果の多数決を取
って最終的に画像処理部4に出力させるようにする。
That is, as shown in FIG.
A learning result storage means 3c is provided for storing the results (each synapse weight value) learned by the neural net learning means 3b for learning the signal, and the signal thinning section 2 thins out the number of pixels and gradations. The discriminating means 3a inputs digital radiographic image signals and discriminates the radiographed region and the radiographed body position. A majority vote is taken from a plurality of recognition results to be finally output to the image processing section 4.

ここで、例えば5種類の学習結果(シナプスウェイト)
か学習結果記憶手段3cに記憶されていたとすると、そ
れぞれの学習結果を用いたニューラルネットワーク3(
判別手段3a)の処理で、3種類が胸部正面であると識
別し、残りの2種類で頭部側面であると識別した場合に
は、最終的な識別結果として数の多い胸部正面を出力さ
せるものである。
Here, for example, 5 types of learning results (synaptic weights)
If the learning results are stored in the learning result storage means 3c, the neural network 3 (
In the processing of the discriminating means 3a), if the three types are identified as the front of the chest and the remaining two types are identified as the side of the head, the final identification result is output as the front of the chest, which is the most common. It is something.

また、通常、ニューラルネットワーク3のシナプスウェ
イトの学習においては、各シナプスウェイトの未学習初
期値として乱数を用いて、該乱数を学習によって変更さ
せていく場合が多いが、上記のように同じ処理に供する
学習結果を複数設定させる場合には、初期値を乱数とし
て学習させた結果を、次の学習の初期値として用いるよ
うにして、次々に前回の学習結果を初期値として更に学
習させるようにすれは、それぞれ乱数を初期値として学
習を開始させる場合に比べ複数の学習結果を得る場合に
学習時間を大幅に短縮できる。
In addition, normally, when learning the synaptic weights of the neural network 3, a random number is often used as the unlearned initial value of each synaptic weight, and the random number is changed by learning. When setting multiple learning results to be provided, use the learning results with the initial value as a random number as the initial value for the next learning, and then perform further learning one after another using the previous learning result as the initial value. Compared to the case where learning is started using random numbers as initial values, the learning time can be significantly shortened when obtaining multiple learning results.

更に、ニューラルネットワーク3の学習においては、予
め学習のベースとなる複数のデジタル放射線画像を信号
間引き部2で処理した結果を間引き画像記憶部6にその
撮影部位・撮影体位と共に記憶させておき、オペレータ
がコンソール操作(第2図の学習用データ選択手段7が
相当する。)によって前記間引き画像記憶部6の中から
任意の学習データを必要なだけ読み出し、この読み出さ
れた学習データに基づいてニューラルネット学習手段3
bかニューラルネットワーク3におけるシナプスウェイ
トの学習を行うようにしておけば、学習の妨げとなるよ
うなデータをす1除しつつ、オペレータの要求に合った
学習を容易に行わせることができる。
Furthermore, in the learning of the neural network 3, the results of processing a plurality of digital radiation images, which are the basis for learning, in the signal thinning unit 2 are stored in the thinned image storage unit 6 in advance, along with the imaging region and imaging position, and the operator reads out as much arbitrary learning data as necessary from the thinned-out image storage section 6 through a console operation (corresponding to the learning data selection means 7 in FIG. 2), and performs neural processing based on the read learning data. Online learning method 3
If the synaptic weights are learned in the neural network 3, it is possible to easily perform learning that meets the operator's requirements while eliminating data that would impede learning.

尚、上記のように間引き画像記憶部6に学習用のデータ
を記憶させるようにしても、間引き画像は前述のように
5×5画素〜l0XIO画素程度で充分であるから、複
数枚の画像を学習用として記憶させるようにしても、装
置の記憶負担は軽い。
Incidentally, even if the learning data is stored in the thinned-out image storage unit 6 as described above, the thinned-out image is sufficient to have about 5×5 pixels to 10XIO pixels as described above, so it is not necessary to store multiple images. Even if the information is stored for learning purposes, the memory load on the device is light.

また、本実施例では、ニューラルネットワーク3によっ
て撮影部位と撮影体位との両方を認識させるようにした
が、部位・体位の一方が固定される場合には、ニューラ
ルネットワーク3によって他方の識別のみか行われるよ
うにすれは良い。
Furthermore, in this embodiment, the neural network 3 recognizes both the body part and the body position to be photographed. However, when either body part or body position is fixed, the neural network 3 only identifies the other. As you can see, it's fine.

〈発明の効果〉 以上説明したように、本発明にかかるデジタル放射線画
像の画像認識装置によると、信号の間弓き処理を行った
デジタル放射線画像をニューラルネットワークに入力さ
せて認識させるようにしたので、予め抽出する特徴量を
選択したり、また、特徴量の辞書をマツチングさせる必
要かなく、簡素な画像認識システムを簡便に構築できる
一方、実際の画像認識においては、複雑な計算を必要と
せず広範な画像を実時間でかつ高い識別率で認識させる
ことができ、かかる認識によって得た撮影部位や撮影体
位の情報に基づいてその後の読影に最適な画像処理を施
すことができる。
<Effects of the Invention> As explained above, according to the image recognition device for digital radiation images according to the present invention, the digital radiation images that have been subjected to signal distortion processing are input to a neural network for recognition. , it is possible to easily build a simple image recognition system without having to select the features to be extracted in advance or to match a dictionary of features, while in actual image recognition, complex calculations are not required. A wide range of images can be recognized in real time with a high identification rate, and image processing optimal for subsequent image interpretation can be performed based on information about the imaging site and imaging position obtained through such recognition.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成を示すブロック図、第2図は本発
明の一実施例を示すシステムブロック図、第3図は第2
図示のニューラルネットワークの(1り成を示す概略図
、第4図及び第5図はそれぞれニューラルネットワーク
の各ユニットの変化特性例を示す線図である。 1・・・画像入力部  2・・・信号間引き部3・・・
ニューラルネットワーク  3a・・・判別手段3b・
・・ニューラルネット学習手段  3C・・・学習結果
記憶手段  4・・画像処理部  5・・・画像出力部
  6・・・間引き画像記憶部  7・・・学習用デー
タ選択手段
Fig. 1 is a block diagram showing the configuration of the present invention, Fig. 2 is a system block diagram showing an embodiment of the invention, and Fig. 3 is a block diagram showing the configuration of the present invention.
4 and 5 are diagrams each showing an example of change characteristics of each unit of the neural network. 1... Image input unit 2... Signal thinning section 3...
Neural network 3a...Discrimination means 3b.
...Neural network learning means 3C...Learning result storage means 4...Image processing unit 5...Image output unit 6...Thinned image storage unit 7...Learning data selection means

Claims (4)

【特許請求の範囲】[Claims] (1)デジタル放射線画像の画素数と信号の量子化ステ
ップ数との少なくとも一方を縮減させる信号間引き手段
と、 前記デジタル放射線画像の特徴が予め学習され、前記信
号間引き手段の出力を入力し、入力した画像が予め特定
される複数の認識対象のどれに該当するかを示す識別信
号を出力するニューラルネットワークと、 を含んで構成したことを特徴とするデジタル放射線画像
の画像認識装置。
(1) Signal thinning means for reducing at least one of the number of pixels and the number of signal quantization steps of a digital radiographic image; the characteristics of the digital radiographic image are learned in advance; the output of the signal thinning means is input; What is claimed is: 1. An image recognition device for a digital radiation image, comprising: a neural network that outputs an identification signal indicating which of a plurality of pre-specified recognition targets the image corresponds to;
(2)前記認識対象が、デジタル放射線画像における被
写体の撮影部位と撮影体位との少なくとも一方であるこ
とを特徴とする請求項1記載のデジタル放射線画像の画
像認識装置。
(2) The image recognition apparatus for digital radiographic images according to claim 1, wherein the recognition target is at least one of a photographed region and a photographed body position of a subject in a digital radiographic image.
(3)前記信号間引き手段が、原画像を複数の小領域に
分割し、該小領域それぞれでの画像信号値の平均値又は
代表値をサンプリングすることでデジタル放射線画像の
画素数と信号の量子化ステップ数との少なくとも一方を
縮減させるよう構成されたことを特徴とする請求項1又
は2のいずれかに記載のデジタル放射線画像の画像認識
装置。
(3) The signal thinning means divides the original image into a plurality of small regions, and samples the average value or representative value of the image signal values in each of the small regions, thereby increasing the number of pixels of the digital radiation image and the signal quantum. 3. The image recognition apparatus for digital radiographic images according to claim 1, wherein the apparatus is configured to reduce at least one of the number of conversion steps.
(4)前記ニューラルネットワークが、予め学習データ
集合の内容を変えながら複数回学習して得られた学習結
果を複数備え、該複数の学習結果それぞれに基づき処理
されて出力された複数の識別信号の中の最も数の多いも
のを最終的に出力するよう構成されたことを特徴とする
請求項1、2又は3のいずれかに記載のデジタル放射線
画像の画像認識装置。(5)未学習初期値を用いて最初
のニューラルネットワーク学習を行わせ、2回目以降の
学習においては前回の学習結果を初期値として学習を行
わせることによって複数の学習結果を得るよう構成した
ことを特徴とする請求項4記載のデジタル放射線画像の
画像認識装置。
(4) The neural network has a plurality of learning results obtained by learning multiple times while changing the contents of the learning data set in advance, and a plurality of identification signals processed and output based on each of the plurality of learning results. 4. The image recognition apparatus for digital radiation images according to claim 1, wherein the apparatus is configured to finally output the largest number of images. (5) The configuration is configured so that the first neural network learning is performed using unlearned initial values, and in the second and subsequent learnings, multiple learning results are obtained by performing learning using the previous learning results as initial values. The image recognition device for digital radiation images according to claim 4, characterized in that:
JP2168539A 1990-06-28 1990-06-28 Digital radiation image recognition system Expired - Lifetime JP2973016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2168539A JP2973016B2 (en) 1990-06-28 1990-06-28 Digital radiation image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2168539A JP2973016B2 (en) 1990-06-28 1990-06-28 Digital radiation image recognition system

Publications (2)

Publication Number Publication Date
JPH0458943A true JPH0458943A (en) 1992-02-25
JP2973016B2 JP2973016B2 (en) 1999-11-08

Family

ID=15869893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2168539A Expired - Lifetime JP2973016B2 (en) 1990-06-28 1990-06-28 Digital radiation image recognition system

Country Status (1)

Country Link
JP (1) JP2973016B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0478972A (en) * 1990-07-23 1992-03-12 Nippon Telegr & Teleph Corp <Ntt> Gradation picture identifying device
JPH0486820A (en) * 1990-07-31 1992-03-19 Fuji Photo Film Co Ltd Method for determining radiation image reading condition and/or image processing condition
JP2009039446A (en) * 2007-08-10 2009-02-26 Fujifilm Corp Image processing apparatus, image processing method, and image processing program
WO2016136607A1 (en) * 2015-02-24 2016-09-01 株式会社日立製作所 Image processing method and image processing device
JP2020036773A (en) * 2018-09-05 2020-03-12 コニカミノルタ株式会社 Image processing apparatus, image processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0478972A (en) * 1990-07-23 1992-03-12 Nippon Telegr & Teleph Corp <Ntt> Gradation picture identifying device
JPH0486820A (en) * 1990-07-31 1992-03-19 Fuji Photo Film Co Ltd Method for determining radiation image reading condition and/or image processing condition
JP2009039446A (en) * 2007-08-10 2009-02-26 Fujifilm Corp Image processing apparatus, image processing method, and image processing program
WO2016136607A1 (en) * 2015-02-24 2016-09-01 株式会社日立製作所 Image processing method and image processing device
JP2016157219A (en) * 2015-02-24 2016-09-01 株式会社日立製作所 Image processing method, and image processor
CN107251091A (en) * 2015-02-24 2017-10-13 株式会社日立制作所 Image processing method, image processing apparatus
JP2020036773A (en) * 2018-09-05 2020-03-12 コニカミノルタ株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2973016B2 (en) 1999-11-08

Similar Documents

Publication Publication Date Title
CN115442515B (en) Image processing method and apparatus
US20210365717A1 (en) Method and apparatus for segmenting a medical image, and storage medium
CN110378381B (en) Object detection method, device and computer storage medium
CN111402146B (en) Image processing method and image processing apparatus
JPH0737087A (en) Picture processor
JP2002358523A (en) Device and method for recognizing and processing pattern, and image input device
CN112818764B (en) Low-resolution image facial expression recognition method based on feature reconstruction model
CN111914997A (en) Method for training neural network, image processing method and device
CN111047543A (en) Image enhancement method, device and storage medium
CN112766040B (en) Method, device, apparatus and readable storage medium for detecting residual bait
CN112528782A (en) Underwater fish target detection method and device
CN111967361A (en) Emotion detection method based on baby expression recognition and crying
CN115131503A (en) Health monitoring method and system for iris three-dimensional recognition
JPH0458943A (en) Image recognizing device for digital radiation image
CN113538266A (en) WGAN-based fuzzy aerial image processing method
CN112818774A (en) Living body detection method and device
JPH09179977A (en) Automatic processor for intensity level of medical image
CN115346091A (en) Method and device for generating Mura defect image data set
CN115376213A (en) Training of living body detection network and living body detection method, device, equipment and medium
CN114373205A (en) Face detection and recognition method based on convolution width network
CN113256556A (en) Image selection method and device
CN113850796A (en) Lung disease identification method and device based on CT data, medium and electronic equipment
JP2929031B2 (en) Digital radiographic image position determination device
JPH08138025A (en) Method for determining picture discrimination parameter and picture recognition method
JPH11196296A (en) Image processor, method for it, nonlinear filter and recording medium

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11