JPH09179977A - Automatic processor for intensity level of medical image - Google Patents

Automatic processor for intensity level of medical image

Info

Publication number
JPH09179977A
JPH09179977A JP35019495A JP35019495A JPH09179977A JP H09179977 A JPH09179977 A JP H09179977A JP 35019495 A JP35019495 A JP 35019495A JP 35019495 A JP35019495 A JP 35019495A JP H09179977 A JPH09179977 A JP H09179977A
Authority
JP
Japan
Prior art keywords
image
gradation
pixel
medical image
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35019495A
Other languages
Japanese (ja)
Inventor
Koji Kawasaki
浩嗣 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP35019495A priority Critical patent/JPH09179977A/en
Publication of JPH09179977A publication Critical patent/JPH09179977A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To set adequate intensity level conversion characteristics without being affected by a difference in image kind. SOLUTION: The automatic processor for the intensity level of medical image is equipped with plural arrays of parameter calculation parts CL1,..., CLN which calculate parameters for intensity level settings for setting intensity level conversion characteristics on the basis of the density value state of input pixels of the medical image, and each parameter calculation part learns a sample image of a corresponding image kind and sends out the parameters for intensity level setting of the medical image, inputted according to the decision result of the image kind decision part 5, to an intensity level conversion part 7. According to the intensity level conversion characteristics set properly by the intensity level conversion part 7, intensity level conversion for the medical image is performed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、核磁気共鳴断層
撮影装置(MRI装置)やX線CT装置、エミッション
CT装置(核医学装置)などを始めとする画像診断機器
で得られた医用画像の入力画素の濃度値が階調変換特性
に従って出力画素の濃度値へ自動的に変換される医用画
像の階調自動処理装置(以下、適宜「階調自動処理装
置」と略記)に関し、特に、画像種の如何にかかわらず
入力画素の濃度値を適切に階調変換してコントラストの
良好な医用画像表示を実現するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a medical image obtained by an image diagnostic apparatus such as a nuclear magnetic resonance tomography apparatus (MRI apparatus), an X-ray CT apparatus, an emission CT apparatus (nuclear medicine apparatus). The present invention relates to a gradation automatic processing device for medical images in which the density value of an input pixel is automatically converted into a density value of an output pixel according to a gradation conversion characteristic (hereinafter, appropriately abbreviated as “gradation automatic processing device”), The present invention relates to a technique for appropriately converting the density value of an input pixel to achieve a medical image display with good contrast regardless of the kind.

【0002】[0002]

【従来の技術】病院等で現在使われている画像診断機器
のひとつであるMRI装置には、階調処理装置が組み込
まれており、この装置により、患者の患部を撮影した医
用画像の入力画素の濃度値を階調変換特性に従って出力
画素の濃度値へ変換してから医用画像としてモニタ等に
表示する構成になっている。このような階調変換処理を
自動的に行なう装置として、例えば特開平5−6197
3号公報に記載の装置がある。この従来の階調自動処理
装置は、ニューラルネットを使った学習機能を装置自体
に持たせておき、手本となる医用画像(手本画像)をニ
ューラルネットに予め学習させた後、そのニューラルネ
ットを使って、実際に階調変換を施す対象である医用画
像(以下、適宜「対象画像」と言う)の入力画素の濃度
値状況を調べた結果に基づき階調変換特性を設定し、そ
の階調変換特性に従って処理画像の入力画素の濃度値を
出力画素の濃度値へ自動的に変換してゆく。
2. Description of the Related Art An MRI apparatus, which is one of the image diagnostic equipments currently used in hospitals and the like, has a built-in gradation processing apparatus. With this apparatus, an input pixel of a medical image of an affected area of a patient is captured. The density value of is converted into the density value of the output pixel according to the gradation conversion characteristic, and then displayed as a medical image on a monitor or the like. An apparatus for automatically performing such gradation conversion processing is disclosed in, for example, Japanese Patent Laid-Open No. 5-6197.
There is an apparatus described in Japanese Patent No. 3 publication. In this conventional gradation automatic processing apparatus, the apparatus itself has a learning function using a neural network, and a neural network is made to learn a medical image (example image) as a model in advance. , The gradation conversion characteristics are set based on the result of examining the density value status of the input pixel of the medical image (hereinafter referred to as “target image” as appropriate) which is the target to be gradation-converted. The density value of the input pixel of the processed image is automatically converted into the density value of the output pixel according to the tone conversion characteristic.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
階調自動処理装置では、手本画像をニューラルネットに
予め学習させておいても、医用画像の画像種の違いに原
因して階調変換特性が適切には設定されないという問題
がある。
However, in the conventional gradation automatic processing apparatus, even if the model image is preliminarily learned by the neural network, the gradation conversion characteristic is caused by the difference in the image type of the medical image. Is not set properly.

【0004】MRI装置を例にとってみると、いわゆる
アンギオ法、IR(インバージョンリカバリー)法、S
E(スピンエコー)法、FE(フィールドエコー)法な
どの画像種がある。このように様々な画像種がある場
合、学習画像数の少ない画像種については学習不足のた
めに適切な階調変換特性が設定されない。例えば、50
枚の手本画像の学習を行った画像種については適切な階
調変換特性を設定することが設定出来ても、5枚の手本
画像の学習しか行っていない画像種に対しては、適切な
階調変換特性を設定することは期待しがたい。
Taking an MRI apparatus as an example, the so-called angio method, IR (inversion recovery) method, S
There are image types such as E (spin echo) method and FE (field echo) method. When there are various image types as described above, an appropriate gradation conversion characteristic is not set for an image type having a small number of learning images due to insufficient learning. For example, 50
Even if it is possible to set an appropriate gradation conversion characteristic for the image type that has learned the five model images, it is appropriate for the image type that has only learned the five model images. It is hard to expect to set different gradation conversion characteristics.

【0005】それだけでなく、各画像種それぞれについ
て十分な数の手本画像を学習した場合でも、異なる画像
種間での相互干渉により適切な階調変換特性の設定が妨
げられる。ニューラルネットを使った学習の場合、特定
の手本画像だけでなく全手本画像が学習結果に反映され
るからである。二つの異なる画像種それぞれについて5
0枚の手本画像の学習を行った場合、端的に言えば、両
画像種の中間的な画像種に対しては適切な階調変換特性
に出来るが、もともとの手本画像の画像種に対しては適
切な階調変換特性には出来なくなる。
Not only that, even when a sufficient number of model images are learned for each image type, mutual setting between different image types prevents the setting of appropriate gradation conversion characteristics. This is because, in the case of learning using a neural network, not only a specific model image but all model images are reflected in the learning result. 5 for each of the two different image types
When learning 0 model images, to put it simply, it is possible to have an appropriate gradation conversion characteristic for intermediate image types of both image types, On the other hand, an appropriate gradation conversion characteristic cannot be obtained.

【0006】この発明は、上記の事情に鑑み、画像種の
違いに左右されることなく、適切な階調変換特性を設定
できる医用画像の階調自動処理装置を提供することを課
題とする。
In view of the above circumstances, it is an object of the present invention to provide a medical image gradation automatic processing apparatus capable of setting an appropriate gradation conversion characteristic without being affected by a difference in image type.

【0007】[0007]

【課題を解決するための手段】この発明は、上述の課題
を達成するため、次のような構成をとる。すなわち、こ
の発明に係る医用画像の階調自動処理装置では、画像診
断機器で得られた医用画像の入力画素の濃度値が階調変
換特性に従って出力画素の濃度値へ自動的に変換される
よう構成されている装置において、前記医用画像の種類
を判別する画像種判別手段と、前記画像種判別手段の判
別結果に従って入力される医用画像の入力画素の濃度値
状況に基づき前記階調変換特性を設定するための階調設
定用パラメータを算定する複数列のパラメータ算定手段
と、前記階調設定用パラメータに基づいて前記階調変換
特性の設定を行う階調変換設定手段とを備えるととも
に、前記パラメータ算定手段おのおのが、入力画素の濃
度ヒストグラムを作成するヒストグラム作成手段と、前
記濃度ヒストグラムを入力して前記階調設定用パラメー
タを算定するニューラルネットと、前記ニューラルネッ
ト内における重みを、対応画像種の手本画像についてニ
ューラルネットが実際に算定した階調設定用試算パラメ
ータと前記手本画像について別途適切と定められた階調
設定用教師パラメータとのずれに基づく学習をニューラ
ルネットに行わせることにより決定する学習手段とを有
するというものである。
In order to achieve the above-mentioned object, the present invention has the following configuration. That is, in the medical image gradation automatic processing apparatus according to the present invention, the density value of the input pixel of the medical image obtained by the image diagnostic apparatus is automatically converted into the density value of the output pixel according to the gradation conversion characteristic. In a configured device, the image type determination unit that determines the type of the medical image, and the gradation conversion characteristic based on the density value status of the input pixels of the medical image that is input according to the determination result of the image type determination unit. A plurality of columns of parameter calculating means for calculating a gradation setting parameter for setting, and a gradation conversion setting means for setting the gradation conversion characteristic based on the gradation setting parameter are provided, and the parameter Each of the calculating means has a histogram creating means for creating a density histogram of the input pixel and an input of the density histogram to calculate the gradation setting parameter. And the weights in the neural network for the gradation setting trial calculation parameters actually calculated by the neural network for the model image of the corresponding image type and the gradation setting separately determined as appropriate for the model image. The learning means determines the learning based on the deviation from the teacher parameter by causing the neural network to perform learning.

【0008】[0008]

【作用】この発明の医用画像の階調自動処理装置におけ
る階調変換特性設定の際の作用について説明する。実際
に医用画像の階調変換を実施する前に、階調変換特性を
設定するための階調設定用パラメータを算定するパラメ
ータ算定手段に予め学習をさせなければならない。画像
種ごとに設けられている各パラメータ算定手段それぞれ
に対応画像種の手本画像を十分に学習させるのである。
The operation for setting the gradation conversion characteristic in the automatic medical image gradation processing apparatus of the present invention will be described. Before actually carrying out the gradation conversion of the medical image, the parameter calculating means for calculating the gradation setting parameter for setting the gradation conversion characteristic must be learned in advance. Each parameter calculation means provided for each image type is made to sufficiently learn the model image of the corresponding image type.

【0009】学習の際、特定のパラメータ算定手段で
は、ヒストグラム作成手段が先ず対応画像種に属する手
本画像の入力画素の濃度ヒストグラムを作成するととも
に作成された濃度ヒストグラムに基づいてニューラルネ
ットが手本画像についての階調設定用試算パラメータを
算定する。一方、手本画像については、専門家によって
別途適切と定められた階調設定用教師パラメータが用意
されており、パラメータ算定手段に設けられている学習
手段が、手本画像についての階調設定用試算パラメータ
と階調設定用教師パラメータとのずれに基づく学習をニ
ューラルネットに行わせることによりニューラルネット
内における重みを変更する。同一画像種の手本画像多数
について上記の学習が繰り返し行われ、ニューラルネッ
ト内の重みが対応画像種に適した値に決定されるとひと
つのパラメータ算定手段の学習が終了する。続いて、他
のパラメータ算定手段でも他とは異なる対応画像種の手
本画像の学習がそれぞれ同様に行われて、全ニューラル
ネット内の重みが全て決定すると学習は完全に終わり、
実際に医用画像に対する階調変換が実行できる。
At the time of learning, in the specific parameter calculation means, the histogram creation means first creates a density histogram of the input pixels of the model image belonging to the corresponding image type, and the neural network is modeled on the basis of the density histogram created. Calculate the trial calculation parameters for gradation setting for the image. On the other hand, with respect to the model image, there is prepared a teacher parameter for gradation setting that is separately determined by an expert as appropriate, and the learning means provided in the parameter calculation means is used for the gradation setting for the model image. The weight in the neural network is changed by causing the neural network to perform learning based on the difference between the trial calculation parameter and the gradation setting teacher parameter. The above learning is repeated for a large number of model images of the same image type, and when the weight in the neural network is determined to a value suitable for the corresponding image type, the learning of one parameter calculation means ends. Subsequently, learning of the model image of the corresponding image type different from the other is similarly performed by other parameter calculating means, and when the weights in all the neural networks are all determined, the learning is completed,
It is possible to actually perform gradation conversion on a medical image.

【0010】階調変換を実行する場合、画像種判別手段
が先ず対象画像の画像種を判別し、対象画像が属する画
像種についてのパラメータ算定手段へ対象画像を送り込
む。パラメータ算定手段は、ヒストグラム作成手段が対
象画像の入力画素の濃度ヒストグラムを作成してニュー
ラルネットへ送出するとともに、ニューラルネットが学
習により決定した重みと濃度ヒストグラムとに基づき荷
重和を求めて対象画像についての階調設定用パラメータ
を算定し階調変換設定手段へ出力する。一方、階調変換
設定手段の方は算定された階調設定用パラメータに基づ
いて対象画像についての階調変換特性の設定を行う。こ
のようにして設定された階調変換特性に従って対象画像
の入力画素の濃度値が出力画素の濃度値へ自動的に変換
されてゆくことになる。
When performing gradation conversion, the image type discriminating means first discriminates the image type of the target image and sends the target image to the parameter calculating means for the image type to which the target image belongs. In the parameter calculation means, the histogram creation means creates a density histogram of the input pixels of the target image and sends it to the neural network, and the weighted sum is calculated based on the weight and the density histogram determined by learning by the neural network and the target image is calculated. The gradation setting parameter is calculated and output to the gradation conversion setting means. On the other hand, the gradation conversion setting means sets the gradation conversion characteristic for the target image based on the calculated gradation setting parameter. The density value of the input pixel of the target image is automatically converted into the density value of the output pixel according to the gradation conversion characteristic set in this way.

【0011】[0011]

【発明の実施の形態】続いて、図面を参照しながら、こ
の発明の一実施例を説明する。図1は、MRI装置と一
体化された実施例に係る階調自動処理装置の概略構成を
示すブロック図である。MRI装置1は被検体より放出
される核磁気共鳴信号を受信して断層撮像を行う装置で
あり、計測された像は画像再構成部2に3次元のかたち
でまず保持されており、スライス部位が指定されると対
応する医用画像を画像再構成部2より階調自動処理装置
へ送り出し、階調自動処理装置によって医用画像に適正
な階調変換を施してからモニタ3に表示したり、あるい
は、フィルムに焼き付けたりする構成となっている。
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a gradation automatic processing apparatus according to an embodiment integrated with an MRI apparatus. The MRI apparatus 1 is an apparatus that receives a nuclear magnetic resonance signal emitted from a subject and performs tomographic imaging. The measured image is first held in the image reconstruction unit 2 in a three-dimensional manner, Is designated, the corresponding medical image is sent from the image reconstructing unit 2 to the gradation automatic processing device, and the gradation automatic processing device performs appropriate gradation conversion on the medical image before displaying it on the monitor 3. It is designed to be printed on a film.

【0012】画像再構成部2から送出されるディジタル
信号形態の医用画像は、多値画像メモリ4に記憶される
と同時に、画像種判別部5に送られて画像種が判別され
る。画像種判別部5での判別結果に基づいてスイッチS
A〜SCに接点閉成制御信号を送る。医用画像が画像種
Vnと判別されるとスイッチSAの接点SAn,スイッ
チSBの接点SBn,スイッチSCの接点SCn(但し
n=1,2,・・・Nのうちの一つ)が閉じられる。図
1には医用画像が画像種V1である場合が示されてい
る。スイッチSAの後段には、N列のパラメータ算定部
CL1,CL2,・・,CLNが設けられており、ここ
では画像種判別部5の判別結果に従って入力された医用
画像の入力画素の濃度値状況から階調変換特性を設定す
るための階調設定用パラメータが算定されることにな
る。
The medical image in the form of a digital signal sent from the image reconstructing section 2 is stored in the multi-valued image memory 4 and at the same time sent to the image type discriminating section 5 to discriminate the image type. Based on the discrimination result of the image type discrimination unit 5, the switch S
Send a contact closing control signal to A to SC. When the medical image is determined to be the image type Vn, the contact SAn of the switch SA, the contact SBn of the switch SB, and the contact SCn of the switch SC (where n = 1, 2, ... N) are closed. FIG. 1 shows a case where the medical image is the image type V1. .., CLN of N columns are provided in the subsequent stage of the switch SA. Here, the density value status of the input pixel of the medical image input according to the discrimination result of the image type discrimination unit 5 is provided. Therefore, the gradation setting parameter for setting the gradation conversion characteristic is calculated.

【0013】スイッチSBの前段には教師入力部6が設
けられていて、見本画像による学習の際、パラメータ算
定部CL1,CL2,・・,CLNの中の手本画像が入
力されるパラメータ算定部へは、教師入力部6からもス
イッチSBを介して手本画像の階調設定用教師パラメー
ターが送り込まれる。この階調設定用教師パラメーター
は、医師やオペレータなどの専門家が手本画像を予め観
察して別途に適切と定めたパラメータである。各パラメ
ータ算定部CL1,CL2,・・,CLNの構成は詳し
くは後述するが実質的に同じ構成とみなせるものであ
る。
A teacher input unit 6 is provided in front of the switch SB, and a parameter calculation unit to which a model image in the parameter calculation units CL1, CL2, ..., CLN is input at the time of learning by a sample image. A teacher parameter for setting the gradation of the model image is also sent from the teacher input unit 6 via the switch SB. This gradation setting teacher parameter is a parameter that an expert such as a doctor or operator observes the model image in advance and separately determines as appropriate. The configuration of each of the parameter calculation units CL1, CL2, ..., CLN will be described later in detail, but can be regarded as substantially the same.

【0014】パラメータ算定部CL1,CL2,・・,
CLNの後段にはスイッチSCを介して階調変換部7が
接続されていて、この階調変換部7では、各パラメータ
算定部により送られてきた階調設定用パラメーターに従
って階調変換特性が設定される。階調変換部7で階調変
換特性が設定されると、医用画像の入力画素の濃度値が
階調変換部7で出力画素の濃度値に逐次変換されて出力
画像メモリ8に格納される一方、出力画素の濃度値がD
A変換器9でアナログ化されてからモニタ3に送出され
て医用画像が表示されることになる。以下、各部の構成
をより具体的に説明する。
Parameter calculation units CL1, CL2, ...
The gradation conversion unit 7 is connected to the latter stage of CLN via a switch SC, and the gradation conversion unit 7 sets gradation conversion characteristics in accordance with the gradation setting parameters sent from the respective parameter calculation units. To be done. When the gradation conversion characteristic is set by the gradation conversion unit 7, the density value of the input pixel of the medical image is sequentially converted by the gradation conversion unit 7 into the density value of the output pixel and stored in the output image memory 8. , The density value of the output pixel is D
The analog image is converted by the A converter 9 and then sent to the monitor 3 to display a medical image. Hereinafter, the configuration of each unit will be described more specifically.

【0015】多値画像メモリ4は医用画像の入力画素の
濃度値を記憶するものであり、記憶される濃度値は、例
えば、−4000〜+8000の広い範囲にある。ま
た、画像種判別部5は、被検体の氏名・撮影年月日など
の情報と共に医用画像のデータに付随している画像種の
識別データを読み取り、画像種を判別する。MRI装置
の場合、アンギオ法やIR法、SE法、FE法などの画
像種がある。
The multi-valued image memory 4 stores the density value of the input pixel of the medical image, and the stored density value is in a wide range of, for example, -4000 to +8000. Further, the image type determination unit 5 reads the image type identification data attached to the medical image data together with the information such as the name of the subject, the date of imaging, and the like, and determines the image type. In the case of the MRI apparatus, there are image types such as angio method, IR method, SE method, and FE method.

【0016】次に、パラメータ算定部の説明に入る前
に、この発明における階調変換特性および階調設定用パ
ラメータについて説明しておく。多値画像メモリ4に格
納される医用画像の入力画素の濃度値は上記のように−
4000〜+8000の広い範囲である一方、出力画素
の濃度値は例えば0〜255のより狭い範囲である。し
たがって、医用画像中の関心部位の入力画素の濃度値を
出力画素の濃度値に合わせるべく階調変換が行われる。
図2のグラフ中の折れ線が階調変換特性を示しており、
この折れ線はウィンドウレベルLとウィンドウ幅Wとで
規定される。
Before entering the description of the parameter calculation section, the gradation conversion characteristics and gradation setting parameters in the present invention will be described. The density value of the input pixel of the medical image stored in the multi-valued image memory 4 is as described above.
The output pixel has a wide range of 4000 to +8000, while the output pixel has a narrower range of 0 to 255, for example. Therefore, gradation conversion is performed so that the density value of the input pixel of the region of interest in the medical image matches the density value of the output pixel.
The broken line in the graph of FIG. 2 indicates the gradation conversion characteristic,
This polygonal line is defined by the window level L and the window width W.

【0017】この例ではウィンドウレベルLのところの
入力画素の濃度値は、出力画素の中間の濃度値(明る
さ)に対応する。一方、ウィンドウ幅Wの上限以上の入
力画素の濃度値は全て出力画素の上限の濃度値である2
55となり、ウィンドウ幅Wの下限以下の入力画素の濃
度値は全て出力画素の下限の濃度値(黒レベル)である
0になる。ウィンドウレベルLとウィンドウ幅Wが適切
(最適)に設定されたなら、関心部位の入力画素の濃度
値の範囲がうまく出力画素の濃度値の範囲に照応し医用
画像のコントラストはすこぶる良好なものとなる。した
がって、実行段階ではパラメータ算定部が階調設定用パ
ラメータとして、最適なウィンドウレベルLと最適なウ
ィンドウ幅Wを算定して階調変換部7に送出することに
なる。
In this example, the density value of the input pixel at the window level L corresponds to the intermediate density value (brightness) of the output pixel. On the other hand, all the density values of the input pixels that are equal to or larger than the upper limit of the window width W are the upper density values of the output pixels.
55, the density values of the input pixels below the lower limit of the window width W are all 0, which is the lower limit density value (black level) of the output pixels. If the window level L and the window width W are set appropriately (optimum), the range of the density value of the input pixel of the region of interest is well matched to the range of the density value of the output pixel, and the contrast of the medical image is very good. Become. Therefore, in the execution stage, the parameter calculation unit calculates the optimum window level L and the optimum window width W as the gradation setting parameters and sends them to the gradation conversion unit 7.

【0018】続いて、パラメータ算定部CL1の構成を
説明する。パラメータ算定部CL1は画像種V1用であ
り、画素抽出部11が多値画像メモリ4から送られてき
た医用画像の入力画素の中から関心部位に属する画素を
抽出する。画素抽出部11は最終的に下記のふたつの抽
出条件Aおよび抽出条件Bの両方を満たす画素を観察し
たい部位(関心部位)に関連した画素(関心画素)とし
て抽出することになる。なお、図3は画素抽出部11の
具体的構成を示すブロック図である。
Next, the structure of the parameter calculation unit CL1 will be described. The parameter calculation unit CL1 is for the image type V1, and the pixel extraction unit 11 extracts pixels belonging to the region of interest from the input pixels of the medical image sent from the multivalued image memory 4. The pixel extracting unit 11 finally extracts a pixel satisfying both of the following two extraction conditions A and B as a pixel (interested pixel) related to a site (interested region) to be observed. Note that FIG. 3 is a block diagram showing a specific configuration of the pixel extraction unit 11.

【0019】抽出条件A:図4に示すように、撮像され
た被検体内の輪郭部位Gに属する画素であること。診断
の際に医師が観察したい部位(関心部位)は、画像中の
変化のない一様な平坦部ではなく病変や組織の輪郭部位
Gであるから、輪郭部位Gに位置する画素を関心画素と
するのである。
Extraction condition A: As shown in FIG. 4, the pixel belongs to the contour region G in the imaged subject. The region (region of interest) that the doctor wants to observe at the time of diagnosis is not the uniform flat part in the image, but the contour region G of the lesion or tissue, and thus the pixel located in the contour region G is the pixel of interest. To do.

【0020】抽出条件B:図4に示すように、画像の中
央部Cの画素の濃度値に近い濃度値を有する画素である
こと。中央部Cの取り方としては、画像の縦・横それぞ
れの1/4の長さを1辺とし、画像の中心をその中心と
する正方形が例示されるが、これに限らず、円形など他
のものであってもよい。撮像はふつう関心部位が画像の
真ん中に来るように行われるので、画像の中央部Cの画
素の濃度値に近い濃度値の画素を抽出する。これで中央
の濃度値からかけ離れた濃度値をもつ画像周辺の不適画
素は除かれることになる。
Extraction condition B: As shown in FIG. 4, the pixel has a density value close to that of the pixel in the central portion C of the image. An example of how to take the central portion C is a square in which the length of the image is 1/4 each of the vertical and horizontal sides, and the center of the image is the center. It may be one. Since the imaging is usually performed so that the region of interest is located in the center of the image, a pixel having a density value close to the density value of the pixel in the central portion C of the image is extracted. With this, inappropriate pixels around the image having a density value far from the central density value are removed.

【0021】抽出条件Aを満たす画像の抽出は、以下の
通りである。図3に示したCPU16が、多値画像メモ
リ4に記憶されている医用画像の各入力画素ごとの微分
処理を行って、微分値メモリ12に各画素ごとの微分値
を記憶する。輪郭部位Gでは濃度変化が大きいため、微
分値Dは、輪郭部位Gの両側の濃度変化の少ないところ
よりも高い。そのため、微分値Dが適当な一定値(スレ
ッショルドレベル)よりも大きい画素を取り出すと、こ
れが輪郭部位Gに属する画素となる。抽出メモリ13は
多値画像メモリ4と同じマトリックス構成のメモリであ
り、抽出条件Aを満たす各画素に対応する番地に「1」
が記憶され、他の番地には「0」が記憶される。
The extraction of the image satisfying the extraction condition A is as follows. The CPU 16 shown in FIG. 3 performs the differential processing for each input pixel of the medical image stored in the multi-valued image memory 4, and stores the differential value for each pixel in the differential value memory 12. Since the density change is large in the contour part G, the differential value D is higher than the density change on both sides of the contour part G where the density change is small. Therefore, when a pixel whose differential value D is larger than an appropriate constant value (threshold level) is taken out, it becomes a pixel belonging to the contour part G. The extraction memory 13 is a memory having the same matrix configuration as the multi-valued image memory 4, and “1” is assigned to the address corresponding to each pixel satisfying the extraction condition A.
Is stored, and “0” is stored in other addresses.

【0022】抽出条件Bを満たす画像の抽出は、以下の
通りである。多値画像メモリ4に記憶されている医用画
像の中央部Cに位置する画素と同じ程度の濃度値の画素
を抽出することになる。中央部Cの中に位置する全画素
の濃度値の平均値Q1と標準偏差Q2を求めて抽出の基
準となる濃度範囲CAを下記式により決定する。 (Q1−K1・Q2)≦CA≦(Q1+K2・Q2) K1,K2は5〜10程度の定数であり、通常は7程度
である。濃度範囲CAの濃度値の画素が抽出される。抽
出メモリ14は多値画像メモリ4と同じマトリックス構
成のメモリであり、抽出条件Bを満たす各画素に対応す
る番地に「1」が記憶され、他の番地には「0」が記憶
される。
The extraction of the image satisfying the extraction condition B is as follows. Pixels having the same density value as the pixels located in the central portion C of the medical image stored in the multi-valued image memory 4 are extracted. The average value Q1 and the standard deviation Q2 of the density values of all the pixels located in the central portion C are obtained to determine the density range CA that serves as the extraction reference by the following formula. (Q1-K1 · Q2) ≦ CA ≦ (Q1 + K2 · Q2) K1 and K2 are constants of about 5 to 10, and usually about 7. Pixels having density values in the density range CA are extracted. The extraction memory 14 is a memory having the same matrix configuration as the multi-valued image memory 4, in which “1” is stored in the address corresponding to each pixel satisfying the extraction condition B, and “0” is stored in the other addresses.

【0023】抽出条件A,Bの両方を満たす画像は、抽
出メモリ13,14の双方に「1」と記憶されている画
素である。抽出メモリ13,14の対応する番地同士の
記憶内容のAND演算を行い、演算結果が「1」となる
画素を関心画素として決定するとともに、各関心画素の
濃度値を関心画素メモリ15に記憶する。上記の抽出処
理や演算処理は主としてCPU16が実行することにな
る。関心画素の抽出は関心部位の観察しやすい医用画像
表示を実現する上で効果的である。なお、関心画素の抽
出条件は上記の態様に限られるものではなく、例えば、
抽出条件A,Bの一方だけを抽出条件とする態様などが
ある。
An image satisfying both extraction conditions A and B is a pixel for which "1" is stored in both extraction memories 13 and 14. An AND operation of the stored contents of the corresponding addresses of the extraction memories 13 and 14 is performed, the pixel having the operation result of “1” is determined as the pixel of interest, and the density value of each pixel of interest is stored in the pixel of interest memory 15. . The above-mentioned extraction processing and arithmetic processing are mainly executed by the CPU 16. Extraction of the pixel of interest is effective in realizing a medical image display in which the region of interest can be easily observed. In addition, the extraction condition of the pixel of interest is not limited to the above-mentioned aspect, and for example,
There is a mode in which only one of the extraction conditions A and B is used as the extraction condition.

【0024】ヒストグラム作成部17は、関心画素メモ
リ15に関心画素として抽出された入力画素の濃度値デ
ータから図5に示す濃度ヒストグラムを作成する。この
濃度ヒストグラムは、入力画素の濃度値範囲を例えば3
0区分(30階級化)して濃度値の低い方の区分が原点
側となるように順に並べて横軸とする一方、各区分内の
濃度値をもつ画素の数を縦軸としたものである。そし
て、濃度ヒストグラムを次のニューラルネット18が処
理しやすいかたちとするために、図6に示すように、濃
度ヒストグラムに対して、縦軸における最大画素数Ya
が1となるような規格化処理を施して、規格濃度ヒスト
グラムを得る。
The histogram creating section 17 creates the density histogram shown in FIG. 5 from the density value data of the input pixels extracted as the pixel of interest in the pixel of interest memory 15. In this density histogram, the density value range of the input pixel is, for example, 3
The number of pixels having a density value in each section is taken as the vertical axis, while the 0 axis (30 levels) is arranged in order so that the one having the lower density value is on the origin side. . Then, in order to make the density histogram into a form that can be easily processed by the next neural network 18, as shown in FIG.
Is performed to obtain a standard density histogram.

【0025】次のニューラルネット18は規格濃度ヒス
トグラムに基づいて階調設定用パラメーターを算定す
る。つまり、ニューラルネット18は規格ウィンドウレ
ベルと規格ウィンドウ幅を算定する。ニューラルネット
18は図7の概念的モデルに示すように、複数個のニュ
ーロン(神経細胞と同じような荷重和機能をもつ素子)
NUを層状に備え、各ニューロンNUをシナプス結合と
呼ばれる結合手でネットワーク結合して構成される。こ
こでは入力層18a、中間層18b、出力層18cの3
層モデルとする。入力層18aは、図6に示した規格濃
度ヒストグラムの階級数と同じ個数(30個)のニュー
ロンNUを備え、中間層18bは20個のニューロンN
Uを備え、出力層18cは2個のニューロンNUを備え
る。出力層18cのニューロン数は規格ウィンドウレベ
ルと規格ウィンドウ幅という出力項目の数の『2』にあ
わせてある。ニューラルネット18はハードウエアで構
成することもソフトウエアで実現することもできる。
The following neural network 18 calculates the gradation setting parameter based on the standard density histogram. That is, the neural network 18 calculates the standard window level and standard window width. As shown in the conceptual model of FIG. 7, the neural network 18 is composed of a plurality of neurons (elements having a weighted sum function similar to nerve cells).
The NUs are arranged in layers and each neuron NU is network-connected by a hand called a synapse connection. Here, the input layer 18a, the intermediate layer 18b, and the output layer 18c
It is a layered model. The input layer 18a has the same number (30) of neurons NU as the class number of the standard density histogram shown in FIG. 6, and the intermediate layer 18b has 20 neurons N.
U, the output layer 18c comprises two neurons NU. The number of neurons in the output layer 18c is adjusted to "2" which is the number of output items of standard window level and standard window width. The neural network 18 can be configured by hardware or realized by software.

【0026】そして、ニューラルネット18を正しく働
かせるにはシナプス結合の重み(荷重係数)を予め決定
しておく必要がある。学習部19はニューラルネット1
8内における重みの決定を、画像種V1に属する多数の
手本画像についてニューラルネット18が算定した階調
設定用試算パラメータと手本画像について別途適切と定
められた階調設定用教師パラメータとのずれに基づく学
習をニューラルネットに行わせて実現するものである。
教師入力部6からは、階調設定用教師パラメータとし
て、教師ウィンドウレベルWLTと教師ウィンドウ幅W
WTのふたつが送られてくる。規格化処理部20は、教
師ウィンドウレベルWLTと教師ウィンドウ幅WWTを
ニューラルネット18での学習に適した0〜1の範囲に
なるように下記の規格化処理を行う。
In order for the neural network 18 to work properly, it is necessary to determine the weight (weighting factor) of the synaptic connection in advance. The learning unit 19 is the neural network 1
The determination of the weight in 8 is performed by the gradation setting trial calculation parameter calculated by the neural network 18 for a large number of model images belonging to the image type V1 and the gradation setting teacher parameter separately determined as appropriate for the model image. This is realized by causing a neural network to perform learning based on deviation.
From the teacher input unit 6, the teacher window level WLT and the teacher window width W are set as the teacher parameters for gradation setting.
Two WTs are sent. The normalization processing unit 20 performs the following normalization processing so that the teacher window level WLT and the teacher window width WWT are in the range of 0 to 1 suitable for learning in the neural network 18.

【0027】規格教師ウィンドウレベルWLt=(教師
ウィンドウレベルWLT−手本画像の最小濃度値)/
〔(手本画像の最大濃度値−手本画像の最小濃度値)×
K3〕 規格教師ウィンドウ幅WWt=(教師ウィンドウレベル
WWt)/〔(手本画像の最大濃度値−手本画像の最小
濃度値)×K4〕 ただし、定数K3,K4>1、最小濃度値,最大濃度値
は画素抽出部11により抽出された画素の濃度値の最小
値、最大値である。
Standard teacher window level WLt = (teacher window level WLT-minimum density value of model image) /
[(Maximum density value of model image-minimum density value of model image) x
K3] Standard teacher window width WWt = (teacher window level WWt) / [(maximum density value of model image−minimum density value of model image) × K4] where constant K3, K4> 1, minimum density value, maximum The density values are the minimum and maximum density values of the pixels extracted by the pixel extraction unit 11.

【0028】ニューラルネット18が算定して出力する
階調設定用試算パラメータは、試算ウィンドウレベルW
Lmおよび試算ウィンドウ幅WWmである。試算ウィン
ドウレベルWLmが規格教師ウィンドウレベルWLtに
より近いほど、かつ、試算ウィンドウ幅WWmが規格教
師ウィンドウ幅WWtにより近いほどニューラルネット
18における重みが適切である(ニューラルネットの内
部状態が適切である)ことになる。つまり、規格教師ウ
ィンドウレベルWLtおよび規格教師ウィンドウ幅WW
tを目標値として学習部19がニューラルネット18に
学習をさせるのである。
The trial calculation parameter for gradation setting calculated and output by the neural network 18 is the trial calculation window level W.
Lm and trial calculation window width WWm. The closer the trial calculation window level WLm is to the standard teacher window level WLt and the closer the trial calculation window width WWm is to the standard teacher window width WWt, the more appropriate the weight in the neural network 18 is (the internal state of the neural network is appropriate). become. That is, the standard teacher window level WLt and the standard teacher window width WW
The learning unit 19 causes the neural network 18 to learn with t as a target value.

【0029】逆規格化処理部21は、学習を終えたニュ
ーラルネット18が出力する規格最適ウィンドウレベル
wlおよび規格最適ウィンドウ幅wwを入力して下記式
の変換を行い最適ウィンドウレベルWLおよび最適ウィ
ンドウ幅WWに変える。つまり、ニューラルネット18
から出てきたものはニューラルネットに適したかたちで
あり、これを階調変換部7に適したかたちに修正するべ
く逆規格化処理を行うのである。
The denormalization processing unit 21 inputs the standard optimum window level wl and the standard optimum window width ww outputted by the neural network 18 which has finished learning, and performs conversion of the following equations to optimize the optimum window level WL and the optimum window width. Change to WW. That is, the neural network 18
What has come out from the above is a form suitable for the neural network, and the denormalization process is performed so as to correct it in a form suitable for the gradation converting unit 7.

【0030】最適ウィンドウレベルWL=画素の最小濃
度値+規格最適ウィンドウレベルwl×〔(画素の最大
濃度値−画素の最小濃度値)×K3〕 最適ウィンドウ幅WW=規格最適ウィンドウ幅ww×
〔(画素の最大濃度値−画素の最小濃度値)×K4〕 ただし、定数K3,K4は同一パラメータ算定部内では
前記の階調設定用教師パラメータに対する規格化処理用
の式中のK3,K4と一致している必要がある。また、
最小濃度値、最大濃度値は、画素抽出部11により抽出
された画素の濃度値の最小値、最大値である。
Optimum window level WL = minimum density value of pixel + standard optimum window level wl × [(maximum density value of pixel−minimum density value of pixel) × K3] optimum window width WW = standard optimum window width ww ×
[(Maximum density value of pixel−minimum density value of pixel) × K4] However, the constants K3 and K4 are the same as K3 and K4 in the formula for the normalization process for the above-mentioned gradation setting teacher parameter in the same parameter calculation unit. Must match. Also,
The minimum density value and the maximum density value are the minimum and maximum density values of the pixels extracted by the pixel extraction unit 11.

【0031】他のパラメータ算定部CL2〜CLNにつ
いても同様の構成である。ただ、画素抽出部での抽出条
件やヒストグラム作成部での濃度値の区分数、あるい
は、ニューラルネットでのニューロン数などは対応画像
種などによって適当に変更してもよく、全パラメータ算
定部CL1〜CLNが完全に同一構成である必要はない
のである。
The other parameter calculation units CL2 to CLN have the same configuration. However, the extraction condition in the pixel extraction unit, the number of density value divisions in the histogram creation unit, the number of neurons in the neural network, or the like may be appropriately changed according to the corresponding image type, etc., and all parameter calculation units CL1 to CL1. The CLNs do not have to have the exact same configuration.

【0032】階調変換部7は、最適ウィンドウレベルW
Lおよび最適ウィンドウ幅WWに従って階調変換特性を
ルック・アップ・テーブル方式で設定する。対象画像の
入力画素の濃度値が入力アドレスに対応し、各アドレス
の記憶セルに出力画素の濃度値が格納される。勿論、階
調変換特性は数式として設定されてソフトウエア的に変
換処理が行われるようでもよい。対象画像の各入力画素
の濃度値がそれぞれ階調変換されて出力画像メモリ8に
次々と格納されてゆく。
The gradation conversion unit 7 determines the optimum window level W
The gradation conversion characteristic is set by a look-up table method according to L and the optimum window width WW. The density value of the input pixel of the target image corresponds to the input address, and the density value of the output pixel is stored in the memory cell at each address. Of course, the gradation conversion characteristic may be set as a mathematical expression and the conversion processing may be performed by software. The density value of each input pixel of the target image is gradation-converted and stored in the output image memory 8 one after another.

【0033】続いて、上記実施例の階調自動処理装置に
おける学習動作および階調変換動作を説明する。まず、
学習動作を学習の流れを示す図8のフローチャートを参
照しながら説明する。 〔ステップS1〕 画像種V1の手本画像をMRI装置
1から多値画像メモリ4へ送出する。
Next, the learning operation and gradation conversion operation in the gradation automatic processing apparatus of the above embodiment will be described. First,
The learning operation will be described with reference to the flowchart of FIG. 8 showing the flow of learning. [Step S1] The model image of the image type V1 is sent from the MRI apparatus 1 to the multi-valued image memory 4.

【0034】〔ステップS2〕 画像種判別部5が画像
種V1を判別してスイッチSAの接点SA1およびスイ
ッチSBの接点SB1を閉じる。
[Step S2] The image type determination unit 5 determines the image type V1 and closes the contact SA1 of the switch SA and the contact SB1 of the switch SB.

【0035】〔ステップS3〕 手本画像がパラメータ
算定部CL1の画素抽出部11に入力される一方、入力
した手本画像の教師ウィンドウレベルWLTおよび教師
ウィンドウ幅WWTが教師入力部6からパラメータ算定
部CL1の規格化処理部20に送り込まれる。
[Step S3] While the model image is input to the pixel extraction unit 11 of the parameter calculation unit CL1, the teacher window level WLT and the teacher window width WWT of the input model image are input from the teacher input unit 6 to the parameter calculation unit. It is sent to the standardization processing unit 20 of CL1.

【0036】〔ステップS4〕 画素抽出部11が手本
画像の画素の中から抽出条件Aおよび抽出条件Bの両方
を満たす関心画素を抽出する。
[Step S4] The pixel extraction unit 11 extracts a pixel of interest that satisfies both the extraction condition A and the extraction condition B from the pixels of the model image.

【0037】〔ステップS5〕 規格化処理部20は、
抽出された画素の最小濃度値と最大濃度値を用いて、教
師ウィンドウレベルWLTおよび教師ウィンドウ幅WW
Tを規格教師ウィンドウレベルWLtと規格教師ウィン
ドウ幅WWtにそれぞれ変換して学習部19に送出す
る。
[Step S5] The normalization processing unit 20
Using the minimum and maximum density values of the extracted pixels, the teacher window level WLT and the teacher window width WW
The T is converted into the standard teacher window level WLt and the standard teacher window width WWt, and sent to the learning unit 19.

【0038】〔ステップS6〕 ヒストグラム作成部1
7は抽出された関心画素についての濃度ヒストグラムを
作成するとともにその規格化処理により作成した規格濃
度ヒストグラムをニューラルネット18に送出する。
[Step S6] Histogram creation unit 1
Reference numeral 7 creates a density histogram for the extracted pixel of interest and sends the standard density histogram created by the standardization processing to the neural network 18.

【0039】〔ステップS7〕 学習前のニューラルネ
ット18では、重みがもちろん適切な値ではないが、規
格濃度ヒストグラムが入力されるとニューロンが荷重和
機能を発揮して、試算ウィンドウレベルWLmおよび試
算ウィンドウ幅WWmを算定し、学習部19に送出す
る。
[Step S7] In the pre-learning neural net 18, the weight is not an appropriate value, but when the standard density histogram is input, the neuron exerts the weighted sum function, and the trial calculation window level WLm and the trial calculation window are displayed. The width WWm is calculated and sent to the learning unit 19.

【0040】〔ステップS8〕 学習部19は、規格教
師ウィンドウレベルWLtと試算ウィンドウレベルWL
mの差(ずれ)であるΔWLと、規格教師ウィンドウレ
ベルWLtと試算ウィンドウ幅WWmの差(ずれ)であ
るΔWWとを算出し、これらをパラメータ誤差としてニ
ューラルネット18へ送り込む。
[Step S8] The learning section 19 determines the standard teacher window level WLt and the trial calculation window level WL.
A difference (deviation) of m and a difference (deviation) of the standard teacher window level WLt and the trial calculation window width WWm are calculated and sent to the neural network 18 as parameter errors.

【0041】〔ステップS9〕 ニューラルネット18
では、パラメータ誤差ΔWL,ΔWWに基づき周知のバ
ックプロパゲーション法の学習を実行する。バックプロ
パゲーション法の場合、先のパラメータ試算過程と逆行
する向きに学習信号を求める。つまり、パラメータ誤差
ΔWL,ΔWWから出力層18cのニューロンでの学習
信号を求めるとともに、この結果から出力層18bのニ
ューロンの誤差とそれに応じた学習信号を求めたあと、
この結果から出力層18aのニューロンの誤差とそれに
応じた学習信号をも求め、最終的にこれらの学習信号に
基づき誤差が少なくなるようにニューラルネット18内
の重みを変更する。なお、このバックプロパゲーション
法の学習に関しては、特開平5−61973号公報など
にも記載されている。
[Step S9] The neural network 18
Then, learning of the known back propagation method is executed based on the parameter errors ΔWL and ΔWW. In the case of the back propagation method, the learning signal is obtained in the direction opposite to the above-described parameter trial calculation process. That is, the learning signal in the neuron of the output layer 18c is obtained from the parameter errors ΔWL and ΔWW, and the error of the neuron in the output layer 18b and the learning signal corresponding thereto are obtained from this result,
From this result, the error of the neuron in the output layer 18a and the learning signal corresponding to it are also obtained, and finally the weight in the neural network 18 is changed so that the error is reduced based on these learning signals. The learning of the back propagation method is also described in Japanese Patent Laid-Open No. 61973/1993.

【0042】〔ステップS10〕 ニューラルネット1
8内の重みの変更がなされると今回入力したひとつの手
本画像の学習は終わりであり、さらに学習すべき手本画
像が残っていればステップS1に戻る。準備した一連の
手本画像の学習がひとまわり済み手本画像が残っていな
ければステップS10に進む。
[Step S10] Neural Network 1
When the weight in 8 is changed, the learning of the one model image input this time is finished, and if there are more model images to be learned, the process returns to step S1. If a series of prepared model images have been learned once and no model image remains, the process proceeds to step S10.

【0043】〔ステップS11〕 画像種V1の全手本
画像を順にステップS1〜S10に従って学習するのを
一回の学習サイクルとして、実行した学習サイクルの数
が、予定のサイクル数に達していれば、ステップS13
に進む。予定のサイクル数に達していなければ、ステッ
プS12に進む。
[Step S11] If all the sample images of the image type V1 are sequentially learned in accordance with steps S1 to S10 as one learning cycle, and the number of executed learning cycles reaches the predetermined number of cycles. , Step S13
Proceed to. If the scheduled number of cycles has not been reached, the process proceeds to step S12.

【0044】〔ステップS12〕 画像種V1の手本画
像の順序を入れ変えてステップS1に戻る。
[Step S12] The order of the model images of the image type V1 is changed, and the process returns to step S1.

【0045】〔ステップS13〕 未学習の画像種があ
れば、ステップS14に進む。未学習の画像種がなく、
全画像種についての学習が終了していれば、〔ステップ
END〕に行く。
[Step S13] If there is an unlearned image type, the process proceeds to step S14. There are no unlearned image types,
If the learning for all image types has been completed, go to [Step END].

【0046】〔ステップS14〕 手本画像の画像種を
変更してステップS1に戻る。
[Step S14] The image type of the model image is changed, and the process returns to step S1.

【0047】〔ステップEND〕 パラメータ算定部で
の全学習が完了(END)であり、実際の医用画像に対
する階調変換を実行する準備が出来たことになる。な
お、上記の学習過程では、ひとつの画像種については、
例えば100枚の手本画像が用意され、100枚の手本
画像を連続して学習するという1学習サイクルが、手本
画像の入力順序を変更しながら1000〜10000回
ほど繰り返される。
[Step END] All learning in the parameter calculation section is completed (END), and preparation for executing gradation conversion for an actual medical image is ready. In the learning process above, for one image type,
For example, one learning cycle of preparing 100 model images and continuously learning 100 model images is repeated 1000 to 10,000 times while changing the input order of the model images.

【0048】次に学習段階を終えた階調自動処理装置に
よる階調変換動作を、階調変換の流れを示す図9のフロ
ーチャートを参照しながら説明する。 〔ステップT1〕 実際に階調変換を施す対象である医
用画像をMRI装置1から多値画像メモリ4へ送出す
る。
Next, the gradation conversion operation by the gradation automatic processing apparatus which has completed the learning stage will be described with reference to the flow chart of FIG. 9 showing the flow of gradation conversion. [Step T1] The medical image to be subjected to gradation conversion is sent from the MRI apparatus 1 to the multi-valued image memory 4.

【0049】〔ステップT2〕 画像種判別部5が例え
ば画像種V1と判別すると、画像種判別部5から制御信
号が出されてスイッチSAの接点SA1およびスイッチ
SCの接点SC1が閉じられる。
[Step T2] When the image type determination unit 5 determines that the image type is V1, for example, a control signal is output from the image type determination unit 5 and the contact SA1 of the switch SA and the contact SC1 of the switch SC are closed.

【0050】〔ステップT3〕 医用画像がパラメータ
算定部CL1の画素抽出部11に入力される。
[Step T3] The medical image is input to the pixel extraction unit 11 of the parameter calculation unit CL1.

【0051】〔ステップT4〕 画素抽出部11が医用
画像の画素の中から抽出条件Aおよび抽出条件Bの両方
を満たす関心画素を抽出する。
[Step T4] The pixel extracting unit 11 extracts a pixel of interest satisfying both the extraction condition A and the extraction condition B from the pixels of the medical image.

【0052】〔ステップT5〕 ヒストグラム作成部1
7は抽出された関心画素についての濃度ヒストグラムを
作成するとともにその規格化処理により作成した規格濃
度ヒストグラムをニューラルネット18へ送出する。
[Step T5] Histogram Creation Unit 1
Reference numeral 7 creates a density histogram for the extracted pixel of interest and sends the standard density histogram created by the standardization process to the neural network 18.

【0053】〔ステップT6〕 学習後のニューラルネ
ット18では、重みがもちろん適切な値であり、規格濃
度ヒストグラムが入力されるとニューロンNUが荷重和
機能を発揮して、規格最適ウィンドウレベルwlおよび
規格最適ウィンドウ幅wwを逆規格化処理部21へ送出
する。
[Step T6] In the learned neural net 18, the weight is of course an appropriate value, and when the standard density histogram is input, the neuron NU exerts the weighted sum function, and the standard optimum window level wl and standard The optimum window width ww is sent to the denormalization processing unit 21.

【0054】〔ステップT7〕 逆規格化処理部21は
規格最適ウィンドウレベルwlおよび規格最適ウィンド
ウ幅wwを逆規格化処理して最適ウィンドウレベルWL
および最適ウィンドウ幅WWに変換してから、スイッチ
SCを介して階調変換部7へ送出する。
[Step T7] The denormalization processing unit 21 denormalizes the standard optimum window level wl and the standard optimum window width ww to generate the optimum window level WL.
And the optimum window width WW, and then sends it to the gradation converting unit 7 via the switch SC.

【0055】〔ステップT8〕 階調変換部7では受信
した最適ウィンドウレベルWLおよび最適ウィンドウ幅
WWに従って最適な階調変換特性が設定される。
[Step T8] The gradation conversion unit 7 sets optimum gradation conversion characteristics in accordance with the received optimum window level WL and optimum window width WW.

【0056】〔ステップT9〕 医用画像の入力画素の
濃度値が設定された階調変換特性に従って出力画素の濃
度値に変換されて出力画像メモリ8に格納される。
[Step T9] The density value of the input pixel of the medical image is converted into the density value of the output pixel according to the set gradation conversion characteristic and stored in the output image memory 8.

【0057】〔ステップT10〕 出力画像メモリ8の
出力画素の濃度値はDA変換部9で逐次アナログ化され
て送出されてモニタ3の画面にコントラストのよい医用
画像が映し出される。
[Step T10] The density value of the output pixel of the output image memory 8 is sequentially converted into an analog signal by the DA converter 9 and is sent out to display a medical image with good contrast on the screen of the monitor 3.

【0058】この発明は、上記実施例に限られるもので
はなく、例えば、以下のように変形実施できる。 (1)上記実施例では、階調自動処理装置とMRI装置
とが一体化された構成であったが、階調自動処理装置と
MRI装置とが全く別体の構成となっていて、階調変換
対象の医用画像を磁気ディスクなどで供給する構成のも
のが他の実施例として挙げられる。
The present invention is not limited to the above embodiment, but can be modified as follows, for example. (1) In the above embodiment, the automatic gradation processing device and the MRI device are integrated, but the automatic gradation processing device and the MRI device are completely separate structures, and Another example is a configuration in which a medical image to be converted is supplied by a magnetic disk or the like.

【0059】(2)上記実施例では、医用機器がMRI
装置であったが、医用機器がX線CT装置など種類の違
う機器であってもよいことは言うまでもない。
(2) In the above embodiment, the medical device is the MRI.
Although it was a device, it goes without saying that the medical device may be a device of a different type such as an X-ray CT device.

【0060】[0060]

【発明の効果】この発明の医用画像の階調自動処理装置
によれば、手本画像の学習機能を備えたパラメータ算定
手段が画像種ごとに設けられているため、異なる画像種
間での相互干渉を生じることなく各画像種の手本画像を
十分に学習し画像種の違いに左右されずに適正な階調変
換特性の設定を実行してコントラストのよい十分な画像
表示を実現することができる。
According to the automatic medical image gradation processing apparatus of the present invention, since the parameter calculating means having the learning function for the model image is provided for each image type, mutual processing between different image types is possible. It is possible to sufficiently learn the model image of each image type without causing interference, set appropriate gradation conversion characteristics without being influenced by the difference of the image type, and realize sufficient image display with good contrast. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例の階調自動処理装置の概略構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an automatic gradation processing apparatus of an embodiment.

【図2】医用画像に適用される階調変換特性を説明する
グラフである。
FIG. 2 is a graph illustrating a gradation conversion characteristic applied to a medical image.

【図3】実施例装置の画素抽出部の構成を示すブロック
図である。
FIG. 3 is a block diagram showing a configuration of a pixel extraction unit of the device of the embodiment.

【図4】医用画像例を模擬的に示す平面図である。FIG. 4 is a plan view schematically showing an example of a medical image.

【図5】濃度ヒストグラムを示すグラフである。FIG. 5 is a graph showing a density histogram.

【図6】規格濃度ヒストグラムを示すグラフである。FIG. 6 is a graph showing a standard density histogram.

【図7】実施例装置でのニューラルネットの構成を示す
模式図である。
FIG. 7 is a schematic diagram showing a configuration of a neural network in the apparatus of the embodiment.

【図8】実施例装置での学習動作の流れを示すフローチ
ャートである。
FIG. 8 is a flowchart showing a flow of a learning operation in the apparatus of the embodiment.

【図9】実施例装置での階調変換動作の流れを示すフロ
ーチャートである。
FIG. 9 is a flowchart showing a flow of a gradation conversion operation in the apparatus of the embodiment.

【符号の説明】[Explanation of symbols]

1…医用機器としてのMRI装置 5…画像種判別部 7…階調変換部 11…画素抽出部 17…ヒストグラム作成部 18…ニューラルネット 19…学習部 CL1…パラメータ算定部 CL2…パラメータ算定部 CLN…パラメータ算定部 DESCRIPTION OF SYMBOLS 1 ... MRI apparatus as medical equipment 5 ... Image type discrimination part 7 ... Gradation conversion part 11 ... Pixel extraction part 17 ... Histogram creation part 18 ... Neural network 19 ... Learning part CL1 ... Parameter calculation part CL2 ... Parameter calculation part CLN ... Parameter calculator

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/405 H04N 1/40 B ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location H04N 1/405 H04N 1/40 B

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像診断機器で得られた医用画像の入力
画素の濃度値が階調変換特性に従って出力画素の濃度値
へ自動的に変換されるよう構成されている医用画像の階
調自動処理装置において、前記医用画像の種類を判別す
る画像種判別手段と、前記画像種判別手段の判別結果に
従って入力される医用画像の入力画素の濃度値状況に基
づき前記階調変換特性を設定するための階調設定用パラ
メータを算定する複数列のパラメータ算定手段と、前記
階調設定用パラメータに基づいて前記階調変換特性の設
定を行う階調変換設定手段とを備えるとともに、前記パ
ラメータ算定手段おのおのが、入力画素の濃度ヒストグ
ラムを作成するヒストグラム作成手段と、前記濃度ヒス
トグラムを入力して前記階調設定用パラメータを算定す
るニューラルネットと、前記ニューラルネット内におけ
る重みを、対応画像種の手本画像についてニューラルネ
ットが実際に算定した階調設定用試算パラメータと前記
手本画像について別途適切と定められた階調設定用教師
パラメータとのずれに基づく学習をニューラルネットに
行わせることにより決定する学習手段とを有することを
特徴とする医用画像の階調自動処理装置。
1. An automatic gradation processing of a medical image, wherein the density value of an input pixel of a medical image obtained by an image diagnostic device is automatically converted into a density value of an output pixel according to a gradation conversion characteristic. In the apparatus, an image type determining unit that determines the type of the medical image, and to set the gradation conversion characteristic based on the density value status of the input pixels of the medical image that is input according to the determination result of the image type determining unit. A plurality of columns of parameter calculating means for calculating the gradation setting parameters and a gradation conversion setting means for setting the gradation conversion characteristics based on the gradation setting parameters are provided, and each of the parameter calculating means A histogram creating means for creating a density histogram of input pixels, and a neural network for inputting the density histogram to calculate the gradation setting parameter And a weight in the neural network, a gradation setting trial calculation parameter actually calculated by the neural network for the model image of the corresponding image type, and a gradation setting teacher parameter separately determined appropriately for the model image. And a learning unit that determines the learning based on a deviation of the neural network by a neural network.
JP35019495A 1995-12-21 1995-12-21 Automatic processor for intensity level of medical image Pending JPH09179977A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35019495A JPH09179977A (en) 1995-12-21 1995-12-21 Automatic processor for intensity level of medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35019495A JPH09179977A (en) 1995-12-21 1995-12-21 Automatic processor for intensity level of medical image

Publications (1)

Publication Number Publication Date
JPH09179977A true JPH09179977A (en) 1997-07-11

Family

ID=18408859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35019495A Pending JPH09179977A (en) 1995-12-21 1995-12-21 Automatic processor for intensity level of medical image

Country Status (1)

Country Link
JP (1) JPH09179977A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076209A1 (en) * 2004-02-03 2005-08-18 Shima Seiki Manufacturing, Ltd. Image creation device, image creation method, and image creation program
JP2006311922A (en) * 2005-05-09 2006-11-16 Hitachi Medical Corp X-ray equipment
US7259894B2 (en) 1997-06-09 2007-08-21 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
JP2008173486A (en) * 1998-08-26 2008-07-31 Fujifilm Corp Radiation image detecting system
JP2016193295A (en) * 2016-08-22 2016-11-17 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2017183066A1 (en) * 2016-04-18 2017-10-26 株式会社日立製作所 Window evaluation method and analysis device
US9940706B2 (en) 2012-08-03 2018-04-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for extracting a lesion having a ground glass opactiy
KR102034648B1 (en) * 2018-05-16 2019-10-22 재단법인 아산사회복지재단 Medical Image Management System, Method and Computer Readable Recording Medium
WO2020075719A1 (en) * 2018-10-10 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and program
US11935241B2 (en) 2018-10-10 2024-03-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable medium for improving image quality

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8553285B2 (en) 1997-06-09 2013-10-08 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US8867099B2 (en) 1997-06-09 2014-10-21 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US7259894B2 (en) 1997-06-09 2007-08-21 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US7508548B2 (en) 1997-06-09 2009-03-24 Seiko Epson Corporation Image processing method and image processing apparatus
US8681380B2 (en) 1997-06-09 2014-03-25 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US7755801B2 (en) 1997-06-09 2010-07-13 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US7940426B2 (en) 1997-06-09 2011-05-10 Seiko Epson Corporation Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
JP2008173486A (en) * 1998-08-26 2008-07-31 Fujifilm Corp Radiation image detecting system
JP4709237B2 (en) * 1998-08-26 2011-06-22 富士フイルム株式会社 Radiation image detection device
US7650018B2 (en) 2004-02-03 2010-01-19 Shima Seiki Manufacturing, Ltd. Image creation device, image creation method, and image creation program
WO2005076209A1 (en) * 2004-02-03 2005-08-18 Shima Seiki Manufacturing, Ltd. Image creation device, image creation method, and image creation program
JP2006311922A (en) * 2005-05-09 2006-11-16 Hitachi Medical Corp X-ray equipment
US9940706B2 (en) 2012-08-03 2018-04-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for extracting a lesion having a ground glass opactiy
WO2017183066A1 (en) * 2016-04-18 2017-10-26 株式会社日立製作所 Window evaluation method and analysis device
JPWO2017183066A1 (en) * 2016-04-18 2019-02-14 株式会社日立製作所 Window evaluation method and analyzer
JP2016193295A (en) * 2016-08-22 2016-11-17 キヤノン株式会社 Image processing apparatus, image processing method, and program
KR102034648B1 (en) * 2018-05-16 2019-10-22 재단법인 아산사회복지재단 Medical Image Management System, Method and Computer Readable Recording Medium
WO2019221586A1 (en) * 2018-05-16 2019-11-21 재단법인 아산사회복지재단 Medical image management system, method, and computer-readable recording medium
WO2020075719A1 (en) * 2018-10-10 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and program
US11935241B2 (en) 2018-10-10 2024-03-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable medium for improving image quality

Similar Documents

Publication Publication Date Title
JP4303598B2 (en) Pixel coding method, image processing method, and image processing method for qualitative recognition of an object reproduced by one or more pixels
CN107330949A (en) A kind of artifact correction method and system
JP2007503629A (en) Neural network for processing a data array having existing phase information such as an image and method of using the network
CN109785243A (en) Network, which is generated, based on confrontation is not registrated the denoising method of low-dose CT, computer
CN107909622A (en) Model generating method, the scanning planing method of medical imaging and medical image system
CN112804943A (en) Method for creating learning completion model, luminance adjustment method, and image processing apparatus
CN112950737B (en) Fundus fluorescence contrast image generation method based on deep learning
JPH09179977A (en) Automatic processor for intensity level of medical image
Venu et al. Comparison of Traditional Method with watershed threshold segmentation Technique
CN115330615A (en) Method, apparatus, device, medium, and program product for training artifact removal model
Chang et al. Medical image segmentation using a contextual-constraint-based Hopfield neural cube
CN106127783A (en) A kind of medical imaging identification system based on degree of depth study
CN112700390A (en) Cataract OCT image repairing method and system based on machine learning
CN109949288A (en) Tumor type determines system, method and storage medium
CN111524109A (en) Head medical image scoring method and device, electronic equipment and storage medium
WO2019172181A1 (en) Diagnosis support device, program, learned model, and learning device
Miao et al. Classification of Diabetic Retinopathy Based on Multiscale Hybrid Attention Mechanism and Residual Algorithm
JPH1131214A (en) Picture processor
JP2616520B2 (en) Medical image display device
CN113222985B (en) Image processing method, image processing device, computer equipment and medium
Boone et al. Image processing and hierarchical temporal memories for automated retina analysis
US20210279884A1 (en) Method of computing a boundary
JP3953569B2 (en) Image processing device
Mathias et al. Categorization of Diabetic Retinopathy and Identification of Characteristics to Assist Effective Diagnosis
JPH0994243A (en) Device to automatically set tone for medical-use image