JP2616520B2 - Medical image display device - Google Patents

Medical image display device

Info

Publication number
JP2616520B2
JP2616520B2 JP3246672A JP24667291A JP2616520B2 JP 2616520 B2 JP2616520 B2 JP 2616520B2 JP 3246672 A JP3246672 A JP 3246672A JP 24667291 A JP24667291 A JP 24667291A JP 2616520 B2 JP2616520 B2 JP 2616520B2
Authority
JP
Japan
Prior art keywords
image
neuron
learning
value
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3246672A
Other languages
Japanese (ja)
Other versions
JPH0561973A (en
Inventor
健史 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP3246672A priority Critical patent/JP2616520B2/en
Publication of JPH0561973A publication Critical patent/JPH0561973A/en
Application granted granted Critical
Publication of JP2616520B2 publication Critical patent/JP2616520B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、X線CT装置や核磁
気共鳴断層撮像装置(以下、MRI装置という)などの
画像診断機器を用いて撮像された被検体の画像を表示す
る医療用画像表示装置に係り、特には、表示される画像
のコントラストを調整するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a medical image for displaying an image of a subject taken by using an image diagnostic apparatus such as an X-ray CT apparatus or a nuclear magnetic resonance tomography apparatus (hereinafter referred to as an MRI apparatus). The present invention relates to a display device, and more particularly to a technique for adjusting the contrast of a displayed image.

【0002】[0002]

【従来の技術】CRTディスプレイなどのモニタに表示
された画像のコントラスト調整は、画像の濃度ヒストグ
ラムにおけるウィンドレベル(以下、WLと略す)とウ
ィンドウ・ウィドゥス(以下、WWと略す)との設定に
より行われている。実際には、モニタが設置された画像
表示装置にWLとWWとを調整するためのトラックボー
ルが設けられており、画像の読影を行う医者や技師など
がトラックボールを操作してモニタに表示されている画
像のコントラスト調整を行っている。この場合におい
て、濃度ヒストグラムが表示されることはなく、トラッ
クボールの操作によるWLとWWとの設定は装置の内部
で処理されて表示画像に反映されるようになっている。
以下に図面を参照しながらWWとWLとについて説明す
る。
2. Description of the Related Art Contrast adjustment of an image displayed on a monitor such as a CRT display is performed by setting a window level (hereinafter abbreviated as WL) and a window width (hereinafter abbreviated as WW) in an image density histogram. Have been done. Actually, a trackball for adjusting WL and WW is provided on an image display device on which a monitor is installed, and a doctor or a technician who interprets an image operates the trackball and displays the image on the monitor. The contrast of the displayed image is adjusted. In this case, the density histogram is not displayed, and the setting of WL and WW by the operation of the trackball is processed inside the apparatus and reflected on the display image.
Hereinafter, WW and WL will be described with reference to the drawings.

【0003】図10は画像診断機器で撮像された被検体の
画像の濃度ヒストグラムを例示している。周知のとお
り、濃度ヒストグラムは画像の各画素の濃度値を取り出
し、その濃度値をカウントして作成される。このような
濃度ヒストグラムで表される画像を表示する装置として
CRTディスプレイを例に挙げる。CRTディスプレイ
の表示階調値は一般に 256階調であるから、濃度ヒスト
グラムの横軸である濃度値の幅は最小値から最大値にか
けて 256分割される。上記のWWはこの濃度値の幅を任
意に設定するパラメータで、WLはWWの中心値のこと
を示している。
FIG. 10 exemplifies a density histogram of an image of a subject captured by an image diagnostic apparatus. As is well known, a density histogram is created by extracting the density value of each pixel of an image and counting the density value. A CRT display will be described as an example of a device that displays an image represented by such a density histogram. Since the display gradation value of a CRT display is generally 256 gradations, the width of the density value on the horizontal axis of the density histogram is divided into 256 from the minimum value to the maximum value. The above WW is a parameter for arbitrarily setting the range of the density value, and WL indicates a central value of the WW.

【0004】コントラスト調整は、読影したい部位(例
えば、病巣部位)と、その周囲の部位との明暗差を明確
にする方向で行われる。いま、図10に示した濃度ヒスト
グラムのAの領域の明暗差を明確にしたいとする。上述
のように、濃度ヒストグラムの濃度値は全体で 256分割
されているが、この領域Aの部分の濃度値を 256分割す
れば領域A内の濃度差は顕著になり明暗差は明確にな
る。すなわち、WWをその領域Aに設定し、WLをその
中心値に設定すればよい。従来では、このWW,WLの
設定を、前述のトラックボールを任意に操作して表示画
像のコントラスト変化を見ながら設定していた。
[0004] The contrast adjustment is performed in a direction to clarify the difference in brightness between a part to be interpreted (for example, a lesion part) and a surrounding part. Now, suppose that it is desired to clarify the difference in brightness between the area A and the density histogram shown in FIG. As described above, the density value of the density histogram is divided into 256 as a whole. However, if the density value of the area A is divided into 256, the density difference in the area A becomes remarkable and the light-dark difference becomes clear. That is, WW may be set to the area A, and WL may be set to the center value. Conventionally, the WW and WL are set while arbitrarily operating the above-described trackball and observing the change in the contrast of the displayed image.

【0005】この方法では、表示画像の1枚1枚に対
し、トラックボールの操作によるコントラスト調整が必
要となる。特に、MRI装置を使って撮像された画像
は、撮像方法や撮像時のパラメータ(パルスシーケンス
等)や撮像部位によって濃度値が大きく異なるため、表
示画像の1枚1枚に対するコントラスト調整は不可欠で
ある。しかし、検査のスループットの向上や患者の負担
軽減から検査時間の短縮化を図りたいという要望は増加
する傾向にあり、ある程度のコントラスト調整ができれ
ばそれでよいという場合も多い。そこで、コントラスト
の自動設定を行うための手法が開発されている。
In this method, it is necessary to adjust the contrast of each displayed image by operating a trackball. In particular, since an image captured using an MRI apparatus has a significantly different density value depending on an imaging method, an imaging parameter (such as a pulse sequence) and an imaging site, it is essential to adjust contrast of each displayed image. . However, there is an increasing demand for shortening the examination time in order to improve the examination throughput and reduce the burden on the patient. In many cases, it is sufficient if the contrast can be adjusted to some extent. Therefore, a technique for automatically setting the contrast has been developed.

【0006】MRI装置で撮像された画像のコントラス
ト自動設定では、まず、撮像方法や撮像パラメータ,撮
像部位に応じて、平均的に適切であると判断されるW
W,WLの値を得るための濃度変換を行う関数式(以
下、評価式という)を求める。そして、撮像された画像
の濃度ヒストグラムを作成し、これを前記求めた評価式
に与えてWW,WLを得る。医者や術者は、その評価式
を撮像方法や撮像パラメータ,撮像部位に応じて選択す
ればよく、これである程度の適切なコントラスト調整が
自動的に行われる。もちろん、細かにコントラストの調
整を行いたい場合に対しては上述したような手動による
微調整が行われるが、そうでない場合では、わずらわし
い手動によるコントラスト調整を省くことができ、しば
しば用いられている自動設定手法である。
In the automatic contrast setting of an image picked up by the MRI apparatus, first, it is determined that the image is appropriate on average according to the imaging method, the imaging parameters, and the imaging site.
A function expression (hereinafter referred to as an evaluation expression) for performing density conversion for obtaining values of W and WL is obtained. Then, a density histogram of the picked-up image is created, and given to the obtained evaluation expression, WW and WL are obtained. The doctor or the operator only needs to select the evaluation formula according to the imaging method, the imaging parameters, and the imaging region, and a certain degree of appropriate contrast adjustment is automatically performed. Of course, when fine contrast adjustment is desired, manual fine adjustment as described above is performed. However, otherwise, troublesome manual contrast adjustment can be omitted, and frequently used automatic contrast adjustment is performed. This is a setting method.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、MRI
装置における撮像方法や撮像パラメータは、実に多種多
様であり、これらの全てに対して評価式を導くのは大変
な作業である。これに加え、撮像方法や撮像パラメータ
は撮像時間の短縮化という目的に向かって日々刻々と新
たなものが開発されており、新たな撮像方法や撮像パラ
メータで撮像された画像に対して即座に対応することが
できないという欠点がある。MRI装置だけに限ること
ではなく、X線CT装置に対しても同様で被検体に曝射
するX線強度やスキャン位置の種類に応じてそれぞれの
評価式を導くのは大変な作業となっている。
SUMMARY OF THE INVENTION However, MRI
The imaging method and the imaging parameters in the apparatus are quite various, and deriving an evaluation formula for all of them is a serious task. In addition, new imaging methods and imaging parameters are being developed every day with the aim of shortening the imaging time, and it is possible to immediately respond to images captured with new imaging methods and imaging parameters. There is a drawback that you can not. Not only for MRI equipment, but also for X-ray CT equipment, it is a difficult task to derive each evaluation formula according to the type of X-ray intensity and scan position exposed to the subject. I have.

【0008】この発明は、このような事情に鑑みてなさ
れたものであって、上記の欠点を解消したコントラスト
の自動設定を行うことができる医療用画像表示装置を提
供することを目的としている。
The present invention has been made in view of such circumstances, and has as its object to provide a medical image display device capable of automatically setting contrast while solving the above-mentioned disadvantages.

【0009】[0009]

【課題を解決するための手段】この発明は、上記目的を
達成するために次のような構成をとる。すなわち、この
発明は、画像診断機器で撮像された画像のコントラスト
調整のパラメータであるウィンドウ・ウィドゥスとウィ
ンドウ・レベルとを、表示画像に対して設定する医療用
画像表示装置であって、前記画像診断機器で撮像された
画像の濃度ヒストグラムを作成する手段と、前記作成さ
れた濃度ヒストグラムのデータを荷重和計算して前記ウ
ィンドウ・ウィドゥスとウィンドウ・レベルとを出力す
るニューラルネットワークと、前記ニューラルネットワ
ークの荷重を多種多様の画像の濃度ヒストグラムに基い
て学習し決定する学習手段とを備えたことを特徴とす
る。
The present invention has the following configuration to achieve the above object. That is, the present invention is a medical image display apparatus for setting a window width and a window level, which are parameters for contrast adjustment of an image captured by an image diagnostic apparatus, for a display image, Means for creating a density histogram of an image captured by a device, a neural network for calculating a weighted sum of the created density histogram data and outputting the window width and the window level, and a weight of the neural network. And learning means for learning and determining based on the density histograms of various images.

【0010】[0010]

【作用】この発明によれば、学習手段が多種多様の画像
の濃度ヒストグラムに基づいてニューラルネットワーク
の荷重を学習して決定する。ニューラルネットワークは
学習の結果決定された荷重を用いて、画像の濃度ヒスト
グラムデータを荷重和計算し、ウィンドウ・ウィドゥス
とウィンドウ・レベルとを出力する。ここで、出力され
るウィンドウ・ウィドゥスとウィンドウ・レベルは、多
種多様の画像の濃度ヒストグラムを学習した結果の荷重
を用いて計算された値であるため、異なる濃度ヒストグ
ラムで表されるそれぞれの画像に対応した適切な値とな
る。
According to the present invention, the learning means learns and determines the weight of the neural network based on the density histograms of various images. The neural network uses the weight determined as a result of the learning to calculate the weighted sum of the density histogram data of the image, and outputs the window width and the window level. Here, the output window widths and window levels are values calculated using the weights obtained as a result of learning the density histograms of various types of images. It will be a corresponding appropriate value.

【0011】[0011]

【実施例】以下、この発明の一実施例を図面に基づいて
説明する。図1は本実施例における医療用画像表示装置
の概略構成を示したブロック図である。X線CT装置や
MRI装置などの画像診断機器1で撮像された被検体の
画像の濃度ヒストグラムを求めるヒストグラム作成手段
2と、作成された濃度ヒストグラムのデータを荷重和計
算してWW,WLの値を求めるニューラルコンピュータ
3(以下では、これをニューラルネットワーク3と称す
る)と、乱数発生器4と、ニューラルネットワーク3の
荷重を学習により決定する学習手段5と、ニューラルネ
ットワーク3で求められたWW,WLの値を用いて画像
のコントラスト調整を行うコントラスト設定部6と、画
像を表示するCRTディスプレイ7とが備えられてい
る。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration of the medical image display device according to the present embodiment. Histogram creation means 2 for obtaining a density histogram of an image of a subject imaged by an image diagnostic apparatus 1 such as an X-ray CT apparatus or an MRI apparatus, and a weighted sum calculation of the created density histogram data to obtain values of WW and WL (Hereinafter referred to as a neural network 3), a random number generator 4, learning means 5 for determining the weight of the neural network 3 by learning, and WW, WL calculated by the neural network 3. And a CRT display 7 for displaying an image.

【0012】ニューラルネットワーク3は、図2の概念
的なモデルに示すように、複数個のニューロンN(神経
細胞と同じような荷重和処理を行う電子部品)を層状に
備え、各ニューロンNをシナプス結合Cと呼ばれる結合
手でネットワーク結合して構成される。この例では、入
力層A,中間層B,出力層Cの3層モデルとし、入力層
Aには30個のニューロンNA1〜NAnを備え、中間層
Bには20個のニューロンNB1〜NBmを備え、出力層
Cには2個のニューロンNC1,NC2を備えて構成し
ている。この層数およびニューロンの数は特定されず、
任意の数を設定すればよい。出力層Cのニューロンの数
を2個としているのは、これらのニューロンNC1,N
C2の出力値がWW,WLに相当するからである。な
お、このニューラルネットワーク3はハードウエアで構
成してもよいし、ソフトウエアで実現してもよい。
As shown in the conceptual model of FIG. 2, the neural network 3 includes a plurality of neurons N (electronic components for performing the same load sum processing as the nerve cells) in a layered form, and It is configured by network connection with a bond called a bond C. In this example, a three-layer model of an input layer A, an intermediate layer B, and an output layer C is used. The input layer A includes 30 neurons NA1 to NAn, and the intermediate layer B includes 20 neurons NB1 to NBm. The output layer C is provided with two neurons NC1 and NC2. The number of layers and the number of neurons are not specified,
Any number may be set. The reason why the number of neurons in the output layer C is two is that these neurons NC1 and N
This is because the output value of C2 corresponds to WW and WL. Note that the neural network 3 may be configured by hardware or may be realized by software.

【0013】本実施例における医療画像表示装置の動作
は大まかに2つの流れに分けられる。まずは、(A)学
習手段5を用いてニューラルネットワーク3のシナプス
結合Cの重みを決定し、次には、(B)その学習された
シナプス結合Cの重みをニューラルネットワーク3に設
定して実際の画像のコントラスト調整を行う。(A)の
ニューラルネットワークの学習について以下に説明す
る。
The operation of the medical image display device according to the present embodiment is roughly divided into two flows. First, (A) the weight of the synaptic connection C of the neural network 3 is determined by using the learning means 5, and (B) the weight of the learned synaptic connection C is set in the neural network 3 to set the actual weight. Adjust the contrast of the image. The neural network learning of (A) will be described below.

【0014】〔A−1〕学習に用いる画像をヒストグラ
ム作成手段1に入力する。この学習用画像としては、で
きる限り多種類のものを多数にわたって入力するのが望
ましい。例えば、医療診断機器としてMRI装置を用い
るならば、撮像方法や撮像パラメータを夫々変えて撮像
した各種の画像である。ヒストグラム作成手段1は、入
力した画像から所定の数(例えば、4096点) の画素値を
取り出して、同じ値の画素数をカウントし、例えば、図
10に示したような濃度ヒストグラムを得る。ここで、所
定の数だけの画素値を取り出すのは、画像のサイズにか
かわらず、濃度ヒストグラムの作成のためのサンプリン
グ数を一定にするためである。
[A-1] An image used for learning is input to the histogram creating means 1. It is desirable to input as many learning images as possible as many as possible. For example, if an MRI apparatus is used as a medical diagnostic device, various images obtained by changing an imaging method and imaging parameters are used. The histogram creating means 1 extracts a predetermined number (for example, 4096 points) of pixel values from the input image and counts the number of pixels having the same value.
A density histogram as shown in FIG. 10 is obtained. Here, the reason why a predetermined number of pixel values are extracted is to make the number of samplings for creating the density histogram constant regardless of the size of the image.

【0015】そして、通常 256分割されている濃度ヒス
トグラムの濃度値の最小値から最大値までの幅を30分割
する。これはニューラルネットワーク3の入力層Aのニ
ューロンNAnの個数に対応させるためで、濃度ヒスト
グラムの隣接する濃度値の平均を数回とって、濃度値を
30分割する。
Then, the range from the minimum value to the maximum value of the density value of the density histogram normally divided into 256 is divided into 30. This is to make the density value correspond to the number of neurons NAn in the input layer A of the neural network 3.
Divide into 30.

【0016】次に、ヒストグラム作成手段1は、作成し
た濃度ヒストグラムをニューラルネットワーク3で学習
しやすいように規格化する。学習の目的は、あらゆるパ
ターンの濃度ヒストグラムに対しても一律に最適なW
W,WLとを設定することができるニューラルネットワ
ークを作ることにある。あらゆるパターンの濃度ヒスト
グラムを学習させることから、濃度ヒストグラムの濃度
値の最大値や最小値、カウント数の最大値や最小値を規
定してパターンのみの学習をさせる。濃度ヒストグラム
の規格化はそのための処理である。例えば、次のように
する。
Next, the histogram creating means 1 normalizes the created density histogram so that it can be easily learned by the neural network 3. The purpose of learning is to uniformly optimize the W
It is to create a neural network that can set W and WL. Since the density histograms of all the patterns are learned, only the patterns are learned by defining the maximum and minimum values of the density values of the density histogram and the maximum and minimum values of the count number. The normalization of the density histogram is a process for that. For example,

【0017】図3(a) に示したような、濃度ヒストグラ
ムの縦軸の最大カウント数Y1が「1」となるように各
カウント数を変換する。同様に、30分割された横軸の最
大濃度値X2を「1」に規定し、最小濃度値X1を
「0」に規定する。こうして規格化されたのが同図(b)
に示すような濃度ヒストグラムである。図4(a) に示し
た濃度ヒストグラムに対して上記のような規格化を行う
と、同図(b) に示したようになる。
Each count is converted such that the maximum count Y1 on the vertical axis of the density histogram becomes "1" as shown in FIG. 3 (a). Similarly, the maximum density value X2 on the horizontal axis divided into 30 is defined as “1”, and the minimum density value X1 is defined as “0”. Figure (b) is the result of standardization.
Is a density histogram as shown in FIG. When the above-described normalization is performed on the density histogram shown in FIG. 4A, the result becomes as shown in FIG.

【0018】〔A−2〕学習手段5によるニューラルネ
ットワーク3の学習処理 以下、図5および図6のフローチャートを参照しながら
説明する。これらのフローチャートには1回の学習処理
の流れを示している。
[A-2] Learning process of the neural network 3 by the learning means 5 will be described below with reference to the flowcharts of FIGS. These flowcharts show the flow of one learning process.

【0019】まず、図5のステップS1で、図1に示し
た乱数発生器4からニューラルネットワーク3に向けて
乱数を発生させ、その乱数値を各ニューロンNを結合し
ているシナプス結合Cの重みとする。ここで設定した重
みを初期値として、以下の学習処理を実行し最終的な重
みを決定していく。なお、説明の簡単化のため図7に示
すように、各層ともにi番目のニューロンに注目する。
ただし、A層のニューロンNAiのiは1〜nまで変化
し、B層のニューロンNBiのiは1〜mまで変化し、
C層のニューロンNCiのiは1,2と変化する。
First, in step S1 of FIG. 5, a random number is generated from the random number generator 4 shown in FIG. 1 to the neural network 3, and the random number value is weighted by the synapse connection C connecting each neuron N. And With the weight set here as an initial value, the following learning process is executed to determine the final weight. Note that, for simplicity of description, as shown in FIG. 7, each layer focuses on the i-th neuron.
Here, i of the neuron NAi in the A layer changes from 1 to n, i of the neuron NBi in the B layer changes from 1 to m,
The i of the neuron NCi in the C layer changes from 1 to 2.

【0020】乱数発生器4で設定された入力層Aのニュ
ーロンNAiと中間層BのニューロンNBiとを結合す
るシナプス結合の重みをWiiで表し、中間層Bのニュ
ーロンNBiと出力層CのニューロンNCiとを結合す
るシナプス結合の重みをWjiで表す。
The weight of the synapse connection that connects the neuron NAi of the input layer A and the neuron NBi of the intermediate layer B set by the random number generator 4 is represented by Wii, and the neuron NBi of the intermediate layer B and the neuron NCi of the output layer C are represented by Wii. Is represented by Wji.

【0021】図1のヒストグラム生成手段2で規格化さ
れた、ある画像の濃度ヒストグラムを各ヒストグラムデ
ータ(濃度値×カウント数)を入力層AのニューロンN
Aiに入力する。このヒストグラムデータの値をXAi
とし、これをニューロンNAiのニューロン値とする
(ステップS2)。
The density histogram of a certain image standardized by the histogram generation means 2 of FIG. 1 is converted into each histogram data (density value × count) by the neuron N of the input layer A.
Input to Ai. XAi
This is set as the neuron value of the neuron NAi (step S2).

【0022】ステップS3で、中間層Bの各ニューロン
NBiのニューロン値XBiを次の計算式(1),(2) で算
出する。 XBi’=Σ(XAi×Wii)・・・・(1) この(1) 式の右辺のΣはiを1〜nまで変化させたとき
の総和を求めるもので、入力層AのニューロンNAiと
シナプス結合の重みWiとの荷重和をまず算出する。 XBi=f(XBi')=1/(1+Exp(XBi’)) ・・・・(2) 次に、この(2) 式を用いて、(1) 式で算出された荷重和
をシグモイド関数f(X) に代入してニューロンNBiの
ニューロン値XBiを算出する。シグモイド関数はf
(X)=1/(1+Exp(X))で表される。
In step S3, a neuron value XBi of each neuron NBi of the intermediate layer B is calculated by the following equations (1) and (2). XBi ′ = Σ (XAi × Wii) (1) In the expression (1), 式 on the right-hand side finds the sum when i is changed from 1 to n. First, a weighted sum with the weight Wi of the synaptic connection is calculated. XBi = f (XBi ') = 1 / (1 + Exp (XBi')) (2) Next, using the equation (2), the load sum calculated by the equation (1) is calculated by the sigmoid function f. (X) to calculate the neuron value XBi of the neuron NBi. The sigmoid function is f
(X) = 1 / (1 + Exp (X)).

【0023】ステップS4では、ステップS3と同様に
して、出力層Cの各ニューロンNCiのニューロン値X
Ciを算出する。すなわち、(1),(2) 式と同様な(3),
(4) 式を用いてニューロン値NCiを算出する。 XCi’=Σ(XBi×Wji)・・・・(3) XCi=f(XCi')=1/(1+Exp(XCi’)) ・・・・(4)
At step S4, similarly to step S3, the neuron value X of each neuron NCi of the output layer C is obtained.
Calculate Ci. That is, (3), which is similar to Eqs. (1) and (2),
(4) The neuron value NCi is calculated using the equation. XCi ′ = Σ (XBi × Wji) (3) XCi = f (XCi ′) = 1 / (1 + Exp (XCi ′)) (4)

【0024】算出されたこれらの各ニューロン値、XA
i,XBi,XCiを図示しないメモリにストアする
(ステップS5)。
Each of these calculated neuron values, XA
i, XBi, and XCi are stored in a memory (not shown) (step S5).

【0025】ニューラルネットワーク3では、以上のよ
うにして、入力層Aから伝搬され出力層Cに現れたニュ
ーロン値NCi(i=1,2)をそれぞれWW,WLと
するが、いま、伝搬されるときのシナプス結合の重みW
ii,Wjiは乱数で設定した値であるため、ここで出
力されたニューロン値NCiが最適なWW,WLを与え
るものではない。以下の処理では専門家の判断によるW
W,WLに基づく学習を行ってシナプス結合の重みを決
定する。この学習方法は一般的に用いられているバック
プロバケーション法(逆伝搬法)による。
In the neural network 3, as described above, the neuron values NCi (i = 1, 2) propagated from the input layer A and appearing on the output layer C are set to WW and WL, respectively. Weight of synaptic connection W
Since ii and Wji are values set by random numbers, the neuron value NCi output here does not give optimum WW and WL. In the following processing, W
Learning based on W and WL is performed to determine the weight of the synaptic connection. This learning method is based on a generally used back vacation method (back propagation method).

【0026】ステップS6では、ステップS2で入力し
た濃度ヒストグラムで表される画像を幾人かの専門家
(医者や術者など)にコントラスト調整してもらい、そ
のときの各人が設定したWW,WLの平均値ww,wl
を求める。そして、これを出力層CのニューロンNCi
に入力する。
In step S6, the image represented by the density histogram input in step S2 is contrast-adjusted by some specialists (doctors, surgeons, etc.), and the WW, Average value ww, wl of WL
Ask for. Then, this is output to the neuron NCi of the output layer C.
To enter.

【0027】ステップS7で、出力層CのニューロンN
Ciの値XCiとww,wlとの差を算出して、ニュー
ロンNCiの誤差Eciを求めて学習信号DCiを算出す
る。Eci=NCi−ww(wl)。出力層Cのニューロ
ンNCiの場合は、ここで算出された誤差Eciがそのま
ま学習信号DCiになる(DCi=Eci)
In step S7, the neuron N of the output layer C
The difference between the Ci value XCi and ww, wl is calculated, and the error Eci of the neuron NCi is obtained to calculate the learning signal DCi. Eci = NCi-ww (wl). In the case of the neuron NCi of the output layer C, the error Eci calculated here becomes the learning signal DCi as it is (DCi = Eci).

【0028】ステップS8で、中間層Bの各ニューロン
NBiが負うべき誤差Ebiを求めて学習信号DBiを算
出する。誤差Ebiは次の(5) 式を用いて算出する。 Ebi=Σ(Wji×DCi)・・・・(5) この(5) 式は、図8に示すように、中間層Bのニューロ
ンNBiと、出力層CのニューロンNCi(i=1,
2)とをつなぐシナプス結合の重みWj1,Wj2と、
出力層CのニューロンNCiの学習信号DCiとの荷重
和を求める式である。これがニューロンNBiの負うべ
き誤差Ebiになる。
In step S8, an error Ebi to be borne by each neuron NBi of the intermediate layer B is obtained to calculate a learning signal DBi. The error Ebi is calculated using the following equation (5). Ebi = Σ (Wji × DCi) (5) As shown in FIG. 8, the expression (5) represents the neuron NBi of the intermediate layer B and the neuron NCi of the output layer C (i = 1,
2) and weights Wj1 and Wj2 of the synaptic connection connecting
This is an equation for calculating the weighted sum with the learning signal DCi of the neuron NCi of the output layer C. This is the error Ebi to be borne by the neuron NBi.

【0029】次に、以下の(6) 式を用いてニューロンN
Biの学習信号DBiを算出する。 DBi=Ebi×f'(XBi') ・・・・(6) この(6) 式のf'(XBi') は、前記のシグモイド関数の微
分式f'(X') に、前記ステップS3で求めたニューロン
NBiの荷重和XBi’=Σ(XAi×Wii)を代入
し、これにステップS8で求めた誤差Ebiを乗算する式
である。これで中間層Bの各ニューロンNBiの学習信
号DBiが算出される。
Next, the neuron N is calculated using the following equation (6).
A learning signal DBi for Bi is calculated. DBi = Ebi × f ′ (XBi ′) (6) f ′ (XBi ′) in the expression (6) is obtained by adding the differential expression f ′ (X ′) of the sigmoid function in the step S3. The equation is obtained by substituting the obtained weight sum XBi '= Σ (XAi × Wii) of the neuron NBi and multiplying the obtained result by the error Ebi obtained in step S8. Thus, the learning signal DBi of each neuron NBi of the intermediate layer B is calculated.

【0030】ステップS9では、同様にして入力層Aの
各ニューロンNAiが負うべき誤差Eaiを求めて学習信
号DAiを算出する。すなわち、(5),(6) 式と同様な次
の(7),(8) 式を用いる。 Eai=Σ(Wji×DBi)・・・・(7) DAi=Eai×f'(XAi)・・・・(8)
In step S9, similarly, the learning signal DAi is calculated by obtaining the error Eai to be borne by each neuron NAi of the input layer A. That is, the following equations (7) and (8) similar to the equations (5) and (6) are used. Eai = Σ (Wji × DBi) (7) DAi = Eai × f ′ (XAi) (8)

【0031】図9を参照する。入力層AのニューロンN
Aiが負うべき誤差Eaiは、ニューロンNAiと中間層
BのニューロンNBi(i=1〜m)とをつなぐシナプ
ス都合の重みWii(2文字目のi=1〜m)と、ステ
ップS8で算出したニューロンNBiの学習信号DBi
(i=1〜m)との荷重和で得られる。そして、学習信
号DAiは得られた誤差Eaiに、シグモイド関数の微分
f'(XAi)、ただし、XAi は、ニューロンXAiに入力さ
れたヒストグラムデータ(濃度値×カウント数)の値を
乗算して得られる。
Referring to FIG. Neuron N in input layer A
The error Eai to be borne by Ai was calculated in step S8, with the synaptic convenience weight Wii (i = 1 to m of the second character) connecting the neuron NAi and the neuron NBi (i = 1 to m) of the intermediate layer B. Learning signal DBi of neuron NBi
(I = 1 to m). The learning signal DAi is obtained by multiplying the obtained error Eai by the derivative f ′ (XAi) of the sigmoid function, where XAi is obtained by multiplying the value of the histogram data (density value × count number) input to the neuron XAi. Can be

【0032】ステップS10では、上記算出した学習信号
とニューロン値とを用いてシナプス結合Cの重みWi
i,Wjiを変更する。重みの変更には次の(9),(10)式
を用いる。 ΔWii(n+1)=α(DBi×XAi)+β(ΔWii(n))・・・・(9) この(9) 式において、符号nは変更回数を示し、αは任
意に設定される学習定数,βは任意に設定される安定化
定数を示す。ΔWii(n+1)は今回変更する重みの値を
示し、ΔWii(n) は前回変更された重みの値を示して
いる。いま、1回目の学習であるから前回変更した重み
の値はなく、ΔWii(n) は零である。すなわち、入力
層AのニューロンNAiと中間層BのニューロンNBi
とをつなぐ重みWiiは、α(DBi×XAi)で算出
される値に変更される。
In step S10, the weight Wi of the synaptic connection C is calculated using the calculated learning signal and the neuron value.
i, Wji are changed. The following equations (9) and (10) are used to change the weight. ΔWii (n + 1) = α (DBi × XAi) + β (ΔWii (n)) (9) In the expression (9), the symbol n indicates the number of changes, α is a learning constant set arbitrarily, β indicates an arbitrarily set stabilization constant. ΔWii (n + 1) indicates the value of the weight changed this time, and ΔWii (n) indicates the value of the weight changed last time. Now, since it is the first learning, there is no weight value changed last time, and ΔWii (n) is zero. That is, the neuron NAi of the input layer A and the neuron NBi of the intermediate layer B
Is changed to a value calculated by α (DBi × XAi).

【0033】 ΔWji(n+1)=α(DCi×XBi)+β(ΔWji(n))・・・・(10) この(10)式も同様で、中間層BのニューロンNBiと出
力層CのニューロンNCiとをつなぐシナプス結合の重
みWjiは、α(DCi×XBi)で算出される値に変
更される。
.DELTA.Wji (n + 1) =. Alpha. (DCi.times.XBi) +. Beta. (. DELTA.Wji (n)) (10) This equation (10) is also the same, and the neuron NBi of the intermediate layer B and the neuron NCi of the output layer C Is changed to a value calculated by α (DCi × XBi).

【0034】以上のようにして、各層のニューロン同士
を結合するシナプス結合の重みを1回変更することで1
回の学習が終了する。2回目の学習では、上記の処理に
よって得られた重みの値が(9),(10)式のΔWii(n),Δ
Wji(n) に代入されて計算される。これを多数回繰り
返す過程で、誤差Eai, Ebi, Eciの値を監視し、誤差
の値が少なくなるように、(9),(10)式のα,βを設定す
る。
As described above, by changing the weight of the synapse connection which connects the neurons of each layer once, 1
The learning of the time ends. In the second learning, the value of the weight obtained by the above-described processing is ΔWii (n), ΔWii (n) in Equations (9) and (10).
It is calculated by substituting into Wji (n). In the process of repeating this many times, the values of the errors Eai, Ebi, and Eci are monitored, and α and β of the equations (9) and (10) are set so that the values of the errors are reduced.

【0035】前述したように、この学習の目的は、あら
ゆるパターンの濃度ヒストグラムに対しても一律に最適
なWW,WLを設定することにある。したがって、複数
枚の異なった濃度ヒストグラムで表される画像を用意
し、これらの画像を多数回にわたって学習させ、最終的
なシナプス結合の重みWii,Wjiを決定する。この
とき、異なる画像の入力順序を夫々変えて学習させるの
が望ましい。例えば、10枚の画像を次々に入力してそれ
ぞれ1回の学習を終えると、2回目の学習の際には10枚
の画像の並びを変えて入力する。これは、ニューラルネ
ットワーク3が画像の並びを学習し、それに合わせてシ
ナプス結合の重みを決定してしまうからである。
As described above, the purpose of this learning is to uniformly and optimally set WW and WL for density histograms of all patterns. Therefore, a plurality of images represented by different density histograms are prepared, and these images are trained many times to determine final synaptic connection weights Wii and Wji. At this time, it is desirable to perform learning by changing the input order of different images. For example, when ten images are input one after another and learning is completed once, the input of the ten images is changed in the second learning. This is because the neural network 3 learns the arrangement of the images and determines the weight of the synapse connection in accordance with the learning.

【0036】実際に、学習されたニューラルネットワー
ク3を用いて画像のコントラスト調整を行う場合には、
濃度値が異なる画像がランダムに入力される場合も想定
しなけらればならない。そのためにも、画像の並びを変
えて学習させるのが好ましい。本発明者は、この学習に
ついて、異なる撮像方法, 異なる撮像パラメータで撮像
されたMRI画像を 206枚用意し、それぞれの画像の並
びを変えながら3万回の学習を行った。その結果、設定
されたシナプス結合の重みWii,Wjiを用いること
で、濃度値が異なる画像をランダムに入力しても、それ
ぞれが平均的に適切なコントラストが得られた。
When the contrast of an image is actually adjusted by using the learned neural network 3,
It must be assumed that images having different density values are input at random. For this purpose, it is preferable to perform learning by changing the arrangement of images. For this learning, the present inventor prepared 206 MRI images imaged using different imaging methods and different imaging parameters, and performed 30,000 times learning while changing the arrangement of each image. As a result, by using the set synaptic connection weights Wii and Wji, even if images having different density values were randomly input, appropriate averages were obtained for each of them.

【0037】さて、学習処理が終り、ニューラルネット
ワーク3のシナプス結合の重みWii,Wjiが決定さ
れると、そのニューラルネットワーク3を用いて実際の
画像のコントラスト調整を行う(前述の符号(B)で記
述した処理)。〔B−1〕まず、表示画像のデータを図
1に示したヒストグラム作成手段2に入力して規格化さ
れた濃度ヒストグラムを作成し、これをニューラルネッ
トワーク3に入力する。
When the learning process is completed and the weights Wii and Wji of the synapse connection of the neural network 3 are determined, the contrast of the actual image is adjusted using the neural network 3 (see the above-mentioned code (B)). Described process). [B-1] First, the data of the display image is input to the histogram creating means 2 shown in FIG. 1 to create a standardized density histogram, which is input to the neural network 3.

【0038】〔B−2〕ニューラルネットワーク3は、
図5に示したフローチャートのステップS2からステッ
プS4までの処理を実行し、出力層CのニューロンNC
1,2の値、XC1,XC2を求める。このニューロン
値XC1,XC2がWW,WLの値となる。図5に示し
たフローチャートのステップS6で、専門家によるw
w,wlの値を出力層CのニューロンNC1,NC2に
入力したが、このとき、ニューロンNC1にwwを入力
して学習すれば、ニューロンNC1の値XC1が求める
WWになり、ニューロンNC2の値XC2が求めるWL
の値になる。
[B-2] The neural network 3
The processing from step S2 to step S4 in the flowchart shown in FIG.
The values of 1, 2 and XC1 and XC2 are obtained. These neuron values XC1 and XC2 become the values of WW and WL. In step S6 of the flowchart shown in FIG.
The values of w and wl are input to the neurons NC1 and NC2 of the output layer C. At this time, if ww is input to the neuron NC1 for learning, the value XC1 of the neuron NC1 becomes the WW to be obtained, and the value XC2 of the neuron NC2 is obtained. Sought WL
Value.

【0039】しかし、ここで求められたWW,WLは規
格された濃度ヒストグラムに対するWW,WLである。
実際にCRTディスプレイ6に表示される画像はこのよ
うな濃度ヒストグラムの規格化が行われていないので、
前記求めたWW,WLをそれに対応できるように変換す
る。次の(11),(12) 式を用いて行う。 WW’=WW(X2−X1)・・・・(11) WL’=WL(X2−X1)+X1・・・・(12)
However, the WW and WL obtained here are WW and WL for the standard density histogram.
Since the density histogram of the image actually displayed on the CRT display 6 has not been standardized,
The obtained WW and WL are converted so as to correspond to them. This is performed using the following equations (11) and (12). WW '= WW (X2-X1) (11) WL' = WL (X2-X1) + X1 (12)

【0040】上式の符号X1,X2は図3の(a) に示し
た濃度値の最小値と、最大値のことである。ヒストグラ
ム作成手段1では、規格化するために濃度ヒストグラム
の最小値と最大値の幅「X2−X1」を「1−0=1」
に設定したので、これを元に戻すため、得られたWWに
(X2−X1)を乗算する。その値WW’が実際の画像
に対するウィンドウ・ウィドゥスとなる。WLに対して
も同様に(X2−X1)を乗算し、さらにX1を加算す
る。これは図3(b)に示すようにX1を「0」に規定し
ており、これを補正するためにX1を加算する。得られ
た値WL’が実際の画像に対するウィンドウ・レベルで
ある。
Symbols X1 and X2 in the above equation indicate the minimum value and the maximum value of the density value shown in FIG. The histogram creating means 1 sets the width “X2−X1” of the minimum value and the maximum value of the density histogram to “1-0 = 1” for normalization.
, The obtained WW is multiplied by (X2−X1) in order to restore this. The value WW 'becomes the window width for the actual image. Similarly, WL is multiplied by (X2−X1), and X1 is further added. This defines X1 to be "0" as shown in FIG. 3B, and adds X1 to correct this. The obtained value WL 'is the window level for the actual image.

【0041】先程、本発明者はMRI画像を 206枚用意
し、それぞれの画像の並びを変えながら3万回の学習を
行った旨記載したが、さらに、このニューラルネットワ
ーク3を用いて実際の画像のWW’,WL’とを求めた
ときの処理時間を参考までに以下に記載しておく。画素
数 128×128 のサイズの画像では約0.29秒, 256×256
のサイズの画像も同じく0.29秒, 512×512 のサイズの
画像では約0.43秒である。このような短い時間で、平均
的に適切なWW’とWL’が得られた。
The inventor described that the present inventors prepared 206 MRI images and performed 30,000 learnings while changing the arrangement of each image. The processing time when WW ′ and WL ′ are obtained is described below for reference. Approximately 0.29 seconds, 256 × 256 for an image with 128 × 128 pixels
The size of the image is also 0.29 seconds, and the size of the image of 512 × 512 is about 0.43 seconds. In such a short time, appropriate WW 'and WL' were obtained on average.

【0042】得られたWW’,WL’は、図1に示した
コントラスト設定部6に送られる。コントラスト設定部
6は入力画像に対してそのWW’,WL’を設定してC
RTディスプレイ7に出力表示する。
The obtained WW 'and WL' are sent to the contrast setting section 6 shown in FIG. The contrast setting unit 6 sets WW ′ and WL ′ for the input image and
The output is displayed on the RT display 7.

【0043】表示された画像を医者や術者が見て、さら
にコントラスト調整が必要と判断されれば、従来例に記
載したように手動による微調整が行われるが、微調整の
必要が特になければ、全くの手動操作なしのコントラス
ト自動設定となる。また、微調整するにしても、平均的
に適切なコントラスト調整が予め行われた状態なので、
その操作は容易になる。
When the doctor or the surgeon looks at the displayed image and determines that further contrast adjustment is necessary, manual fine adjustment is performed as described in the conventional example, but there is no particular need for fine adjustment. In this case, the contrast is automatically set without any manual operation. In addition, even if fine adjustment is made, since appropriate contrast adjustment is performed in advance on average,
Its operation becomes easy.

【0044】[0044]

【発明の効果】以上の説明から明らかなように、この発
明の医療用画像表示装置は、多種多様の画像の濃度ヒス
トグラムに基づく学習によってニューラルネットワーク
の荷重を決定し、決定した荷重を用いて画像の濃度ヒス
トグラムデータを荷重和計算して、コントラスト設定の
パラメータであるウィンドウ・ウィドゥスとウィンドウ
・レベルとを得るようにした。したがって、異なる濃度
ヒストグラムで表される画像に対してもそれぞれに適切
なウィンドウ・ウィドゥスとウィンドウ・レベルが得ら
れる。従来のように、画像の種類に応じた評価式を導く
必要もなく、また、多種多様の画像の濃度ヒストグラム
に基づく学習を行っているので、新たな種類の画像にも
即座に対応して適切なコントラストを自動設定すること
ができる。
As is apparent from the above description, the medical image display apparatus of the present invention determines the weight of the neural network by learning based on the density histogram of various kinds of images, and uses the determined weights to generate the image. The weighted sum calculation is performed on the density histogram data of (1) to obtain the window width and the window level, which are the parameters of the contrast setting. Therefore, appropriate window widgets and window levels can be obtained for images represented by different density histograms. Unlike conventional models, there is no need to derive an evaluation formula according to the type of image, and learning is performed based on the density histogram of various types of images. Can be set automatically.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例に係る医療用画像表示装置
の概略的な構成を示したブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a medical image display device according to one embodiment of the present invention.

【図2】ニューラルネットワークの構成を概念的にモデ
ル化した図である。
FIG. 2 is a diagram conceptually modeling the configuration of a neural network.

【図3】濃度ヒストグラムの規格化処理を説明する図で
ある。
FIG. 3 is a diagram illustrating a density histogram normalization process.

【図4】同じく濃度ヒストグラムの規格化処理を説明す
る図である。
FIG. 4 is a diagram illustrating a normalization process of a density histogram.

【図5】1回の学習処理の流れを示したフローチャート
である。
FIG. 5 is a flowchart showing the flow of one learning process.

【図6】図5に続くフローチャートである。FIG. 6 is a flowchart following FIG. 5;

【図7】ニューラルネットワークの構成の一部を概念的
にモデル化した図である。
FIG. 7 is a diagram conceptually modeling a part of the configuration of a neural network.

【図8】バックプロバケーション法による学習の様子を
示したニューラルネットワークのモデル図である。
FIG. 8 is a model diagram of a neural network showing a state of learning by the back vacation method.

【図9】同じく、バックプロバケーション法による学習
の様子を示したニューラルネットワークのモデル図であ
る。
FIG. 9 is also a model diagram of a neural network showing a state of learning by the back vacation method.

【図10】従来技術において、画像のコントラスト調整
のパラメータであるウィンドウ・ウィドゥスとウィンド
ウ・レベルとを説明する濃度ヒストグラムである。
FIG. 10 is a density histogram for explaining a window width and a window level which are parameters for adjusting the contrast of an image in the related art.

【符号の説明】[Explanation of symbols]

1・・・画像診断機器 2・・・ヒストグラム作成手段 3・・・ニューラルネットワーク 5・・・学習手段 DESCRIPTION OF SYMBOLS 1 ... Image diagnostic equipment 2 ... Histogram creation means 3 ... Neural network 5 ... Learning means

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像診断機器で撮像された画像のコント
ラスト調整のパラメータであるウィンドウ・ウィドゥス
とウィンドウ・レベルとを、表示画像に対して設定する
医療用画像表示装置であって、 前記画像診断機器で撮像された画像の濃度ヒストグラム
を作成する手段と、前記作成された濃度ヒストグラムの
データを荷重和計算して前記ウィンドウ・ウィドゥスと
ウィンドウ・レベルとを出力するニューラルネットワー
クと、前記ニューラルネットワークの荷重を多種多様の
画像の濃度ヒストグラムに基いて学習し決定する学習手
段とを備えたことを特徴とする医療用画像表示装置。
1. A medical image display device for setting a window width and a window level, which are parameters for contrast adjustment of an image captured by an image diagnostic device, for a display image, wherein the image diagnostic device Means for creating a density histogram of the image captured in the above, a weighted sum of the data of the generated density histogram, a neural network that outputs the window width and the window level, and a weight of the neural network. A medical image display device comprising: learning means for learning and determining based on density histograms of various images.
JP3246672A 1991-08-30 1991-08-30 Medical image display device Expired - Lifetime JP2616520B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3246672A JP2616520B2 (en) 1991-08-30 1991-08-30 Medical image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3246672A JP2616520B2 (en) 1991-08-30 1991-08-30 Medical image display device

Publications (2)

Publication Number Publication Date
JPH0561973A JPH0561973A (en) 1993-03-12
JP2616520B2 true JP2616520B2 (en) 1997-06-04

Family

ID=17151902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3246672A Expired - Lifetime JP2616520B2 (en) 1991-08-30 1991-08-30 Medical image display device

Country Status (1)

Country Link
JP (1) JP2616520B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6351558B1 (en) 1996-11-13 2002-02-26 Seiko Epson Corporation Image processing system, image processing method, and medium having an image processing control program recorded thereon
DE102005010076A1 (en) * 2005-03-04 2006-09-07 Siemens Ag Image processing method for a digital medical examination image and associated examination device
JP2009050615A (en) * 2007-08-29 2009-03-12 Ge Medical Systems Global Technology Co Llc Magnetic resonance imaging apparatus and magnetic resonance image displaying method
RU2431196C1 (en) * 2010-03-31 2011-10-10 Закрытое Акционерное Общество "Импульс" Method of determining brightness level in area of interest on digital medical x-ray picture
JP7126864B2 (en) * 2018-05-25 2022-08-29 キヤノンメディカルシステムズ株式会社 Medical signal processing device and learning program
WO2020070834A1 (en) * 2018-10-03 2020-04-09 株式会社島津製作所 Learned-model producing method, brightness adjusting method, and image processing device
KR102254971B1 (en) * 2019-07-24 2021-05-21 가톨릭대학교 산학협력단 Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence
JP7446736B2 (en) 2019-08-09 2024-03-11 キヤノンメディカルシステムズ株式会社 Medical data processing equipment and medical image diagnostic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2937389B2 (en) * 1990-03-16 1999-08-23 株式会社東芝 Image display method
JPH0464180A (en) * 1990-07-04 1992-02-28 Toshiba Corp Digital image display device

Also Published As

Publication number Publication date
JPH0561973A (en) 1993-03-12

Similar Documents

Publication Publication Date Title
US8270695B2 (en) Diagnostic image processing with automatic self image quality validation
US10043088B2 (en) Image quality score using a deep generative machine-learning model
US8873826B2 (en) Method for brightness level calculation of the digital x-ray image for medical applications
DE60212917T2 (en) Device for calculating an index of local blood flows
CN112804943B (en) Learning completion model creation method, brightness adjustment method, and image processing apparatus
CN107330949A (en) A kind of artifact correction method and system
JPH04332548A (en) Neural network using method for aiding differential diagnosis
US7676076B2 (en) Neural network based method for displaying an examination image with normalized grayscale values
JP2616520B2 (en) Medical image display device
JP2022506395A (en) Artificial Intelligence (AI) -based Standard Capture Value (SUV) correction and variation assessment for positron emission tomography (PET)
CN113673710A (en) Computer-implemented method and system for training an evaluation algorithm
CN110270015B (en) sCT generation method based on multi-sequence MRI
EP3719750A1 (en) Medical imaging artifact correction
AU2021100684A4 (en) DEPCADDX - A MATLAB App for Caries Detection and Diagnosis from Dental X-rays
JPH09179977A (en) Automatic processor for intensity level of medical image
US20210330274A1 (en) Computer-implemented method, computer program, systems and x-ray facility for correction of x-ray image data with regard to noise effects
CN111524109A (en) Head medical image scoring method and device, electronic equipment and storage medium
EP3799065A1 (en) Method for operating a medical imaging apparatus, medical imaging apparatus, computer program and electronically readable storage medium
US11816815B2 (en) Computer-implemented methods and systems for provision of a correction algorithm for an x-ray image and for correction of an x-ray image, x-ray facility, computer program, and electronically readable data medium
JPH0896125A (en) Medical image display device
US11803970B2 (en) Image judgment device, image judgment method, and storage medium
US20210142889A1 (en) Computer-implemented method for providing an output data set
US5386829A (en) Method for adjusting an image according to a priori probabilities
Aboobacker et al. Improving presentation consistency of radiographic images using deep learning
EP4212090A1 (en) Providing key elements of the examination region in an x-ray image