JPH0824227A - Medical image diagnosing apparatus - Google Patents

Medical image diagnosing apparatus

Info

Publication number
JPH0824227A
JPH0824227A JP6187899A JP18789994A JPH0824227A JP H0824227 A JPH0824227 A JP H0824227A JP 6187899 A JP6187899 A JP 6187899A JP 18789994 A JP18789994 A JP 18789994A JP H0824227 A JPH0824227 A JP H0824227A
Authority
JP
Japan
Prior art keywords
diagnostic
information
neural network
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6187899A
Other languages
Japanese (ja)
Other versions
JP3641495B2 (en
Inventor
Isao Horiba
場 勇 夫 堀
Kenji Suzuki
木 賢 治 鈴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP18789994A priority Critical patent/JP3641495B2/en
Publication of JPH0824227A publication Critical patent/JPH0824227A/en
Application granted granted Critical
Publication of JP3641495B2 publication Critical patent/JP3641495B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/506Clinical applications involving diagnosis of nerves

Abstract

PURPOSE:To display accurate diagnostic data in a state well matched with the diagnostic result of a doctor when the diagnostic data is confirmed with respect to a medical image obtained by measuring the diagnostic region in an examinee. CONSTITUTION:This medical image diagnosing apparatus is equipped with an original image supply part 1 outputting image data obtained by measuring the diagnostic region in an examinee, a characteristic quantity extraction part 2 inputting the image data from the original image supply part 1 and extracting the characteristic quantity correlated with the diagnostic data of an objective region, a neural network 3 connecting an artificial nerve element so as to form a layered structure of an input layer, an intermediate layer and an output layer to constitute a network and inputting the characteristic quantity from the characteristic quantity extraction part 2 to confirm the diagnostic data and a display part 4 inputting the result confirmed by the neural network 3 to be outputted to display the same. By this constitution, when diagnostic data is confirmed with respect to a medical image obtained by measuring a diagnostic region, accurate diagnostic data well matched with the diagnostic result of a doctor can be provided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、X線又は超音波或いは
電磁波などの情報キャリアを被検体内に透入し、この情
報キャリアの変化を計測して診断部位の医用画像を得る
例えばX線撮影装置又はX線CT装置或いは超音波診断
装置、核医学イメージング装置、磁気共鳴イメージング
装置などの医用画像診断装置に関し、特に上記得られた
医用画像について診断情報を認識する際に医師の診断結
果と整合性が良くかつ正確な診断情報を提示することが
できる医用画像診断装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an X-ray or an ultrasonic wave or an electromagnetic wave for transmitting an information carrier into a subject and measuring a change in the information carrier to obtain a medical image of a diagnosis site, for example, an X-ray. The present invention relates to a medical image diagnostic apparatus such as an imaging apparatus, an X-ray CT apparatus or an ultrasonic diagnostic apparatus, a nuclear medicine imaging apparatus, or a magnetic resonance imaging apparatus, and in particular, a diagnosis result of a doctor when recognizing diagnostic information about the obtained medical image. The present invention relates to a medical image diagnostic apparatus capable of presenting accurate and accurate diagnostic information.

【0002】[0002]

【従来の技術】従来の医用画像診断装置においては、得
られた医用画像について診断情報を認識したり、或いは
この診断情報を得る元となる目的部位の認識を行う場合
に、何ら予測形状などの大局情報が無い状態から局所的
な情報のみでいきなり診断情報の認識或いは目的部位の
認識を行っていた。そして、このような医用画像診断装
置によって、診断部位について得られた医用画像につい
てある特定の診断情報、例えば血管の狭窄率を認識する
には、目的部位に表示された血管像を認識し、この認識
された血管の辺縁間の距離を求めて血管径とし、正常な
血管部と異常な狭窄部とのそれぞれの血管の辺縁間距離
の比により狭窄率を求めて提示していた。
2. Description of the Related Art In a conventional medical image diagnostic apparatus, when recognizing diagnostic information about an obtained medical image or recognizing a target region from which this diagnostic information is obtained, no predicted shape is calculated. From the state in which there is no general information, only the local information is used to suddenly recognize the diagnostic information or the target portion. Then, by such a medical image diagnostic apparatus, in order to recognize certain specific diagnostic information about the medical image obtained for the diagnosis site, for example, the stenosis rate of the blood vessel, the blood vessel image displayed at the target site is recognized, and The distance between the recognized edges of the blood vessels was calculated as the blood vessel diameter, and the stenosis rate was calculated and presented by the ratio of the distances between the edges of the normal blood vessel and the abnormal stenosis.

【0003】[0003]

【発明が解決しようとする課題】しかし、このような従
来の医用画像診断装置においては、上述のように、得ら
れた医用画像中の例えば血管の幾何学的な辺縁間距離の
単純な比により血管の狭窄率が求められたいたので、長
年の経験と多くの医学知識に支えられた医師の評価、判
断に基づいた狭窄率とは異なるものであった。従って、
医師の診断結果と整合性が良いとは言えず、必ずしも正
確な診断情報とは言えないものであった。また、計測さ
れた診断情報は画像表示部に一方的に提示されており、
この提示された診断情報が不正確であった場合には、操
作者が手作業によってそれを直す必要があり、莫大な手
間がかかるものであった。また、手作業なしに正確な診
断情報を提示するようにするためには、プログラムを変
更したり更にはシステム自身を変更しなくてはならず、
莫大な手間とコストがかかるものであった。
However, in such a conventional medical image diagnostic apparatus, as described above, a simple ratio of the geometrical inter-edge distances of, for example, blood vessels in the obtained medical image is used. Since the stenosis rate of blood vessels was calculated by the method, it was different from the stenosis rate based on the evaluation and judgment of a doctor who was supported by many years of experience and many medical knowledge. Therefore,
It could not be said that it was in good agreement with the doctor's diagnosis result, and it was not always accurate diagnosis information. In addition, the measured diagnostic information is unilaterally presented on the image display unit,
If the presented diagnostic information is inaccurate, the operator has to manually correct it, which is an enormous amount of work. Also, in order to provide accurate diagnostic information without manual work, the program or even the system itself must be changed,
It was an enormous amount of work and cost.

【0004】そこで、本発明は、このような問題点に対
処し、被検体内の診断部位を計測して得られた医用画像
について診断情報を認識する際に医師の診断結果と整合
性が良くかつ正確な診断情報を提示することができる医
用画像診断装置を提供することを目的とする。
Therefore, the present invention addresses such a problem and has good consistency with the diagnosis result of the doctor when recognizing the diagnostic information about the medical image obtained by measuring the diagnostic region in the subject. It is an object of the present invention to provide a medical image diagnostic apparatus capable of presenting accurate diagnostic information.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明による医用画像診断装置は、被検体内の診断
部位について計測した画像データを出力する原画像供給
部と、この原画像供給部からの画像データを入力し目的
部位の診断情報と相関のある特徴量を抽出する特徴量抽
出手段と、人工的神経素子を入力層及び中間層並びに出
力層の層構造をなすように結合してネットワークを構成
し上記特徴量抽出手段からの特徴量を入力して診断情報
を認識するニューラルネットワークと、このニューラル
ネットワークで認識され出力された結果を入力して表示
する表示部とを備えて成るものである。
In order to achieve the above-mentioned object, a medical image diagnostic apparatus according to the present invention includes an original image supply unit for outputting image data measured for a diagnostic site in a subject, and an original image supply unit. A feature amount extraction means for inputting image data from the part to extract a feature amount correlated with the diagnostic information of the target site, and an artificial neural element are combined so as to form a layered structure of an input layer, an intermediate layer and an output layer. A neural network for recognizing diagnostic information by inputting the characteristic amount from the characteristic amount extracting means, and a display unit for inputting and displaying the result recognized and output by the neural network. It is a thing.

【0006】また、上記特徴量抽出手段は、目的部位の
形状情報を抽出する形状情報抽出部を有し、ニューラル
ネットワークへの入力情報を圧縮して診断情報を高速に
認識可能としてもよい。
Further, the feature quantity extraction means may have a shape information extraction unit for extracting shape information of a target portion, and may be capable of recognizing diagnostic information at high speed by compressing input information to the neural network.

【0007】さらに、上記特徴量抽出手段は、目的部位
の形状情報を抽出する形状情報抽出部と、この形状情報
抽出部で抽出した形状情報の正規化を行う正規化部とを
有し、被検体の個体差に左右されずに診断情報を認識可
能としてもよい。
Further, the feature amount extraction means has a shape information extraction unit for extracting the shape information of the target region and a normalization unit for normalizing the shape information extracted by the shape information extraction unit. The diagnostic information may be recognizable without being affected by the individual difference of the sample.

【0008】さらにまた、上記特徴量抽出手段は、目的
部位の形状情報を抽出する形状情報抽出部と、この形状
情報抽出部で抽出した形状情報の正規化を行う正規化部
と、この正規化部で正規化した情報について診断の注目
箇所より離れるに従って演算する数を多くして平均化す
る平均化部とを有するものとしてもよい。
Furthermore, the feature amount extraction means includes a shape information extraction unit for extracting the shape information of the target region, a normalization unit for normalizing the shape information extracted by the shape information extraction unit, and the normalization unit. It is also possible to have an averaging unit that averages the information that is normalized by the unit by increasing the number of calculations as it moves away from the diagnostic target point.

【0009】また、上記ニューラルネットワークは、層
構造をなすように結合されたネットワークの最終段の出
力層の入出力関数としてリニア関数を用い、診断情報を
アナログ値で認識可能としてもよい。
Further, the neural network may use a linear function as an input / output function of an output layer at the final stage of the networks connected so as to form a layered structure, so that the diagnostic information can be recognized as an analog value.

【0010】さらに、上記ニューラルネットワークは、
層構造をなすように結合されたネットワークの最終段の
出力層の入出力関数としてリニア関数以外の関数を用い
ると共にその準線形領域を診断情報の範囲と限定し、診
断情報をアナログ値で認識可能としてもよい。
Further, the neural network is
A function other than a linear function is used as the input / output function of the output layer at the final stage of the network that is connected to form a layered structure, and its quasi-linear region is limited to the range of diagnostic information so that the diagnostic information can be recognized as an analog value. May be

【0011】さらにまた、上記ニューラルネットワーク
には、該ニューラルネットワークに学習動作をさせるた
めの教師信号を入力する入力装置を接続すると更に効果
的である。
Furthermore, it is more effective to connect an input device for inputting a teacher signal for causing the neural network to perform a learning operation to the neural network.

【0012】[0012]

【作用】このように構成された医用画像診断装置は、原
画像供給部から被検体内の診断部位について計測した画
像データを出力し、特徴量抽出手段により上記原画像供
給部から出力された画像データを入力し目的部位の診断
情報と相関のある特徴量を抽出し、人工的神経素子を入
力層及び中間層並びに出力層の層構造をなすように結合
してネットワークを構成すると共に出力層の入出力関数
はリニア関数を用いたニューラルネットワークで上記特
徴量抽出手段から出力された特徴量を入力して診断情報
を認識し、表示部により上記ニューラルネットワークで
認識され出力された結果を入力して表示するように動作
する。これにより、被検体内の診断部位を計測して得ら
れた医用画像について診断情報を認識する際に、上記ニ
ューラルネットワークの学習機能により医師の診断結果
と整合性が良くかつ正確な診断情報を提示することがで
きる。
In the medical image diagnostic apparatus configured as described above, the image data measured for the diagnosis region in the subject is output from the original image supply unit, and the image output from the original image supply unit by the feature amount extraction means. Data is input, feature quantities that correlate with the diagnostic information of the target site are extracted, and artificial neural elements are connected to form the layer structure of the input layer, intermediate layer, and output layer to form a network and the output layer The input / output function is a neural network using a linear function, the feature amount output from the feature amount extracting means is input to recognize diagnostic information, and the display unit inputs the result recognized and output from the neural network. Works to display. As a result, when recognizing the diagnostic information about the medical image obtained by measuring the diagnostic site in the subject, the learning function of the neural network presents accurate and accurate diagnostic information to the doctor's diagnostic result. can do.

【0013】[0013]

【実施例】以下、本発明の実施例を添付図面に基づいて
詳細に説明する。図1は本発明による医用画像診断装置
の実施例を示すブロック図である。この医用画像診断装
置は、X線又は超音波などの情報キャリアを被検体内に
透入しこの情報キャリアの変化を計測して診断部位の医
用画像を得ると共に、この得られた画像について診断情
報を認識する際に医師の診断結果と整合性が良くかつ正
確な診断情報を提示するもので、図に示すように、原画
像供給部1と、特徴量抽出部2と、ニューラルネットワ
ーク3と、表示部4とを備えて成る。
Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing an embodiment of a medical image diagnostic apparatus according to the present invention. This medical image diagnostic apparatus penetrates an information carrier such as X-rays or ultrasonic waves into a subject, measures changes in the information carrier to obtain a medical image of a diagnosis site, and diagnostic information about the obtained image. It presents accurate and accurate diagnostic information that is consistent with the doctor's diagnosis result when recognizing, and as shown in the figure, an original image supply unit 1, a feature amount extraction unit 2, a neural network 3, And a display unit 4.

【0014】上記原画像供給部1は、被検体内の診断部
位について計測した画像データを出力するもので、例え
ば超音波診断装置又はX線CT装置あるいは磁気共鳴イ
メージング装置、核医学イメージング装置などにおいて
被検体を計測又は撮影する計測部、あるいは被検体につ
いて計測した画像データを記憶しておき必要に応じて読
み出す記憶部などである。
The original image supply unit 1 outputs image data measured for a diagnosis site in a subject. For example, in an ultrasonic diagnostic apparatus, an X-ray CT apparatus, a magnetic resonance imaging apparatus, a nuclear medicine imaging apparatus or the like. The measuring unit is a measuring unit that measures or images the subject, or a storage unit that stores image data measured for the subject and reads the image data when necessary.

【0015】特徴量抽出部2は、上記原画像供給部1か
ら出力された画像データを入力し目的部位の診断情報と
相関のある特徴量を抽出する手段となるもので、形態情
報抽出手段やテクスチャー抽出手段又はそれらの組み合
わせから成る手段を含んでいる。この特徴量抽出部2の
内部構成は、例えば図2に示すように、形状情報抽出部
5と、正規化部6と、平均化部7とから成る。上記形状
情報抽出部5は、目的の診断情報と相関のある特徴量と
して目的部位の一次元又は二次元的な形状情報を抽出す
るもので、後述のニューラルネットワーク3への入力情
報を圧縮して診断情報を高速に認識可能とするようにな
っている。また、正規化部6は、上記形状情報抽出部5
で抽出した形状情報の正規化を行うもので、上記抽出さ
れた形状情報の平均的な情報又は代表的な情報、或いは
外部から与えられた情報によって正規化が行われ、被検
体の個体差に左右されずに診断情報を認識可能とするよ
うになっている。さらに、平均化部7は、上記正規化部
6で正規化した情報について診断の注目箇所より離れる
に従って演算する数を多くして平均化するもので、出力
情報を圧縮して後述のニューラルネットワーク3への入
力情報数を減らすようになっている。
The feature quantity extraction unit 2 serves as a means for inputting the image data output from the original image supply unit 1 and extracting a feature quantity correlated with the diagnostic information of the target site. It includes a means for extracting textures or a combination thereof. The internal configuration of the feature amount extraction unit 2 includes a shape information extraction unit 5, a normalization unit 6, and an averaging unit 7, as shown in FIG. 2, for example. The shape information extraction unit 5 extracts one-dimensional or two-dimensional shape information of a target part as a feature amount that correlates with target diagnostic information, and compresses input information to the neural network 3 described later. The diagnostic information can be recognized at high speed. Further, the normalization unit 6 includes the shape information extraction unit 5 described above.
In the normalization of the shape information extracted in, the normalization is performed by the average information or representative information of the extracted shape information, or the information given from the outside, and the individual difference of the subject is detected. The diagnostic information can be recognized without being affected by it. Furthermore, the averaging unit 7 averages the information normalized by the normalizing unit 6 by increasing the number of calculations as the distance from the point of interest of the diagnosis increases. The number of input information to is reduced.

【0016】この特徴量抽出部2について図3を参照し
て更に詳しく説明する。例えば目的の診断情報が血管の
狭窄率である場合について説明すると、血管の狭窄率
は、狭窄部を多方向から見た最も狭窄している部分の血
管径とその付近の正常部の血管径との比で定義される
か、或いは狭窄部分の血管断面積と正常部の血管断面積
との比で定義される。この場合、上述の図2に示す形状
情報抽出部5は、診断情報と相関のある特徴量として血
管径及び血管断面積を抽出することとなる。そして、図
3は上記特徴量抽出部2における特徴量の抽出例を説明
するための図である。図3(a)は血管8を撮影した表
示画像を示し、同図(b)は上記血管8の表示画像につ
いて計測した濃度プロファイルを示している。この濃度
プロファイルは、図3(a)の血管8を略垂直に横切る
直線9に沿う濃度変化を示しており、上記濃度プロファ
イルにより図3(b)に示すように血管径D及び血管断
面積Sが算出される。
The feature quantity extraction unit 2 will be described in more detail with reference to FIG. For example, when the target diagnostic information is the stenosis rate of blood vessels, the stenosis rate of blood vessels is the vascular diameter of the most stenotic part of the stenosis seen from multiple directions and the vascular diameter of the normal part in the vicinity. Or the ratio of the blood vessel cross-sectional area of the stenosis portion to the blood vessel cross-sectional area of the normal portion. In this case, the shape information extraction unit 5 shown in FIG. 2 described above extracts the blood vessel diameter and the blood vessel cross-sectional area as the feature amount that is correlated with the diagnostic information. Then, FIG. 3 is a diagram for explaining an example of extraction of the feature quantity in the feature quantity extraction unit 2. 3A shows a display image obtained by photographing the blood vessel 8, and FIG. 3B shows a density profile measured for the display image of the blood vessel 8. This concentration profile shows a change in concentration along a straight line 9 that crosses the blood vessel 8 in FIG. 3 (a) substantially vertically, and the blood vessel diameter D and the blood vessel cross-sectional area S are shown in FIG. 3 (b) by the concentration profile. Is calculated.

【0017】すなわち、例えばマウスまたはトラックボ
ールあるいはペンなどの入力装置で血管8の輪郭を手動
入力したり、或いはトラッキング手法により血管8の輪
郭を自動追跡したりして、図3(a)に示す血管追跡線
10を得て、この血管追跡線10を略垂直に横切る直線
9を算出する。次に、血管8の辺縁位置が上記直線9上
の濃度プロファイル(図3(b)参照)において濃度微分
値の極値を持つことを利用してその血管8の辺縁位置を
検出したり、或いはマウスなどの入力装置で血管8の辺
縁を手動入力して辺縁位置を検出し、図3(b)に示す
ように、両端の辺縁位置間の距離を血管径Dとして抽出
し、その間の濃度積分値を血管断面積Sとして抽出する
ようになっている。
That is, for example, the contour of the blood vessel 8 is manually input with an input device such as a mouse, a trackball, or a pen, or the contour of the blood vessel 8 is automatically traced by a tracking method, as shown in FIG. A blood vessel tracking line 10 is obtained, and a straight line 9 that crosses the blood vessel tracking line 10 substantially vertically is calculated. Next, the edge position of the blood vessel 8 can be detected by utilizing the fact that the edge position of the blood vessel 8 has the extreme value of the density differential value in the density profile on the straight line 9 (see FIG. 3B). Alternatively, the edge position of the blood vessel 8 is manually input with an input device such as a mouse to detect the edge position, and the distance between the edge positions at both ends is extracted as the blood vessel diameter D as shown in FIG. 3B. , The concentration integrated value between them is extracted as the blood vessel cross-sectional area S.

【0018】また、図2に示す正規化部6は、狭窄部に
おける注目血管位置11の周辺領域12の血管径D及び
血管断面積Sを平均した血管情報により、上記注目血管
位置11の血管径D及び血管断面積Sを正規化するよう
になっている。さらに、平均化部7は、図3(a)の例
では、注目血管位置11では平均する情報数がN3=1
であり平均しないで用い、その両隣の位置ではN2
2,N4=2であり、更にその両隣の位置ではN1=3,
5=3となり、上記注目血管位置11を離れるに従い
平均する情報数を多くして行き、平均化の度合いを強め
て行くようになっている。
Further, the normalization unit 6 shown in FIG. 2 uses the blood vessel information obtained by averaging the blood vessel diameter D and the blood vessel cross-sectional area S of the peripheral region 12 of the blood vessel position 11 of interest in the stenosis to obtain the blood vessel diameter of the blood vessel position 11 of interest. D and the blood vessel cross-sectional area S are normalized. Further, in the example of FIG. 3A, the averaging unit 7 calculates that the number of pieces of information to be averaged at the target blood vessel position 11 is N 3 = 1.
Is used without averaging, and N 2 =
2, N 4 = 2, and N 1 = 3 at positions adjacent to both sides.
Since N 5 = 3, the number of pieces of information to be averaged is increased with increasing distance from the blood vessel position of interest 11, and the degree of averaging is strengthened.

【0019】また、図1においてニューラルネットワー
ク3は、上記特徴量抽出部2から出力された特徴量を入
力して診断情報を認識するもので、人工的神経素子を入
力層及び中間層ならびに出力層の層構造をなすように結
合してネットワークを構成すると共に、最終段の出力層
の入出力関数としてリニア関数を用いて構成されてい
る。図4は上記ニューラルネットワーク3を構成する人
工的神経素子13を示す説明図である。図に示すよう
に、人工的神経素子(以下「ニューロンモデル」とい
う)13は生物の神経素子(ニューロン)の働きを模し
た多入力一出力の素子で、入力Ii(I1〜In)と結合
係数Wji(Wj1〜Wjn)の積和により出力Ojが決定さ
れる。すなわち、入出力関数f(x)を用いて次式のよ
うに決定される。 ただし、θjはしきい値に相当する入出力関数のオフセ
ットであり、nは入力の数である。
Further, in FIG. 1, the neural network 3 inputs the feature amount output from the feature amount extracting section 2 and recognizes the diagnostic information. The artificial neural element is used as an input layer, an intermediate layer and an output layer. In addition to forming a network by forming a layer structure of the above, a linear function is used as an input / output function of the final output layer. FIG. 4 is an explanatory diagram showing the artificial neural element 13 that constitutes the neural network 3. As shown in the figure, an artificial neural element (hereinafter referred to as “neuron model”) 13 is a multi-input / single-output element that imitates the function of a biological neural element (neuron), and is connected to an input Ii (I 1 to In). output Oj is determined by the product sum of the coefficients Wji (Wj 1 ~Wjn). That is, it is determined using the input / output function f (x) as in the following equation. However, θj is the offset of the input / output function corresponding to the threshold value, and n is the number of inputs.

【0020】図5は層構造をなすように結合してネット
ワークに構成されたニューラルネットワーク3の階層構
造を示す説明図である。このニューラルネットワーク3
は図のように、上記ニューロンモデル13を多数用い、
入力層および中間層ならびに出力層の層構造をなすよう
に結合してネットワークを構成することにより、信号処
理及び情報処理の機能を実現するように構成されてい
る。なお、図5において、符号14は入力層と中間層と
を結ぶ枝を示し、入力層の各ニューロンモデル13は中
間層の全てのニューロンモデル13とそれぞれ結合され
ている。また、符号15は中間層と出力層とを結ぶ枝を
示し、中間層の各ニューロンモデル13は出力層の全て
のニューロンモデル13とそれぞれ結合されている。そ
して、このニューラルネットワーク3は、入力層に供給
される入力情報16を変換して出力層から出力情報17
として出力するようになっている。ここで、上記入力層
においては、入出力関数として次式に示すような恒等関
数が用いられている。 fi(x)=x これにより、入力がそのまま出力される。なお、この恒
等関数の代わりに他の関数を用いて入力情報16に変調
をかけてもよい。
FIG. 5 is an explanatory diagram showing the hierarchical structure of the neural network 3 which is connected to form a layered structure to form a network. This neural network 3
Uses a large number of neuron models 13 as shown in the figure,
The input layer, the intermediate layer, and the output layer are combined so as to form a layered structure to form a network, thereby realizing the functions of signal processing and information processing. In FIG. 5, reference numeral 14 denotes a branch connecting the input layer and the intermediate layer, and each neuron model 13 in the input layer is connected to all the neuron models 13 in the intermediate layer. Further, reference numeral 15 indicates a branch connecting the intermediate layer and the output layer, and each neuron model 13 in the intermediate layer is connected to all the neuron models 13 in the output layer. The neural network 3 converts the input information 16 supplied to the input layer and outputs the output information 17 from the output layer.
Is output as. Here, in the input layer, an identity function as shown in the following equation is used as an input / output function. fi (x) = x As a result, the input is output as it is. Note that the input information 16 may be modulated by using another function instead of this identity function.

【0021】また、図6は上記ニューラルネットワーク
3の中間層の入出力関数として用いられるシグモイド関
数を示すグラフである。上記中間層においては、入出力
関数として図に示すように出力fsが“0”から“1”
の範囲内で単調増加のシグモイド関数が用いられてい
る。このシグモイド関数は次式のように表現される。 ただし、U0は傾きを制御するパラメータである。そし
て、これを微分すると、 となり、もとのシグモイド関数で表現できるという特徴
を持っている。
FIG. 6 is a graph showing a sigmoid function used as an input / output function of the intermediate layer of the neural network 3. In the intermediate layer, as shown in the figure, the output fs is "0" to "1" as an input / output function.
A monotonically increasing sigmoid function is used in the range. This sigmoid function is expressed by the following equation. However, U 0 is a parameter that controls the inclination. And when this is differentiated, And has the characteristic that it can be expressed by the original sigmoid function.

【0022】さらに、図7は上記ニューラルネットワー
ク3の出力層の入出力関数として用いられるリニア関数
を示すグラフである。上記出力層においては、入出力関
数として上述のシグモイド関数の代わりに、図に示すよ
うに出力が入力に対して直線的に増減するリニア関数が
用いられている。いま、直線の傾きをaとすると、例え
ば次式のように表される。 これを微分すると、 となる。これにより、出力層からの出力はアナログ的な
値となる。
Further, FIG. 7 is a graph showing a linear function used as an input / output function of the output layer of the neural network 3. In the output layer, a linear function in which the output linearly increases or decreases with respect to the input as shown in the figure is used instead of the sigmoid function described above as the input / output function. Now, letting the inclination of the straight line be a, for example, it is expressed as the following equation. Differentiating this, Becomes As a result, the output from the output layer becomes an analog value.

【0023】そして、図1において、表示部4は、上記
ニューラルネットワーク3で認識され出力された結果を
入力して表示するもので、例えばテレビモニタから成
る。
In FIG. 1, the display unit 4 inputs and displays the result recognized and output by the neural network 3, and is composed of, for example, a television monitor.

【0024】次に、このように構成された医用画像診断
装置において、得られた画像について医師の診断と整合
性が良くかつ正確な診断情報を提供する動作を説明す
る。まず、図1において、原画像供給部1から被検体内
の診断部位について計測した画像データを出力する。こ
れは、例えばX線撮影装置又は超音波診断装置又はX線
CT装置或いは核医学イメージング装置、磁気共鳴イメ
ージング装置などにより実際に計測されたデータでもよ
いし、予め計測され記憶部に書き込まれたデータを読み
出したものでもよい。次に、上記原画像供給部1から出
力された画像データは特徴量抽出部2へ入力される。こ
の特徴量抽出部2では、上記原画像供給部1から出力さ
れた画像データが図2に示す形状情報抽出部5に入力さ
れ、目的部位の形状情報が抽出される。上記形状情報抽
出部5より出力された目的部位の形状情報は、正規化部
6に入力され正規化が行われる。上記正規化部6より出
力された情報は、平均化部7に入力され平均化が行われ
る。
Next, a description will be given of the operation of the medical image diagnostic apparatus configured as described above to provide accurate diagnostic information that is highly consistent with the doctor's diagnosis of the obtained image. First, in FIG. 1, the original image supply unit 1 outputs image data measured for a diagnostic region in a subject. This may be data actually measured by, for example, an X-ray imaging apparatus, an ultrasonic diagnostic apparatus, an X-ray CT apparatus, a nuclear medicine imaging apparatus, or a magnetic resonance imaging apparatus, or data that is measured in advance and written in a storage unit. May be read. Next, the image data output from the original image supply unit 1 is input to the feature amount extraction unit 2. In the feature amount extraction unit 2, the image data output from the original image supply unit 1 is input to the shape information extraction unit 5 shown in FIG. 2 and the shape information of the target site is extracted. The shape information of the target site output from the shape information extraction unit 5 is input to the normalization unit 6 and is normalized. The information output from the normalization unit 6 is input to the averaging unit 7 and averaged.

【0025】例えば、目的の診断情報が血管狭窄率であ
る場合には、まず、上記形状情報抽出部5で目的部位の
血管8(図3(a)参照)をほぼ垂直に横切る直線9が算
出される。すなわち、トラッキング手法により血管の追
跡を行ったり、例えばマウスまたはトラックボールある
いはペンなどの入力装置で血管を手動入力などして血管
追跡線10が算出され、次にその血管追跡線10をほぼ
垂直に横切る直線9が算出され、そして血管辺縁位置が
直線9上の濃度プロファイル(図3(b)参照)において
濃度微分値の極値を持つことを利用して辺縁が検出され
たり、例えばマウスまたはトラックボールあるいはペン
などの入力装置で辺縁を手動入力などして、辺縁位置が
検出され、両端の辺縁位置間の距離が血管径Dとして抽
出され、その辺縁位置間の濃度積分値が血管断面積Sと
して抽出される。このようにして、上記原画像供給部1
から出力された画像データが目的部位の形状情報として
圧縮される。
For example, when the target diagnostic information is the vascular stenosis rate, first, the shape information extracting unit 5 calculates a straight line 9 that crosses the blood vessel 8 (see FIG. 3A) at the target site substantially vertically. To be done. That is, the blood vessel tracking line 10 is calculated by tracking the blood vessel by a tracking method or manually inputting the blood vessel with an input device such as a mouse, a trackball, or a pen, and then the blood vessel tracking line 10 is made substantially vertical. The crossing straight line 9 is calculated, and the edge is detected by utilizing the fact that the blood vessel edge position has the extreme value of the density differential value in the density profile on the straight line 9 (see FIG. 3B). Alternatively, the edge position is detected by manually inputting the edge with an input device such as a trackball or a pen, the distance between the edge positions at both ends is extracted as a blood vessel diameter D, and the concentration integration between the edge positions is performed. The value is extracted as the blood vessel cross-sectional area S. In this way, the original image supply unit 1
The image data output from is compressed as the shape information of the target site.

【0026】次に、上記形状情報抽出部5より出力され
た目的部位の形状情報である血管径D及び血管断面積S
は、上記正規化部6に入力され、図3(a)の注目血管
位置11周辺の血管形状情報を平均した情報により正規
化される。これにより、撮影条件や個体差などに左右さ
れにくい情報となる。更に、上記正規化部6より出力さ
れた情報は、上記平均化部7に入力され、注目血管位置
11より離れるに従い演算する数を多くして平均化さ
れ、情報圧縮して出力される。このようにして、上記特
徴量抽出部2では、前記原画像供給部1から出力された
画像データを入力し、診断情報と相関のある特徴量に情
報圧縮して出力される。
Next, the blood vessel diameter D and the blood vessel cross-sectional area S, which are the shape information of the target site output from the shape information extraction unit 5, are described.
Is input to the normalization unit 6 and is normalized by the information obtained by averaging the blood vessel shape information around the target blood vessel position 11 in FIG. As a result, the information is less likely to be affected by shooting conditions and individual differences. Further, the information output from the normalization unit 6 is input to the averaging unit 7, averaged by increasing the number of calculations as the distance from the target blood vessel position 11 increases, and compressed and output. In this way, the feature amount extraction unit 2 receives the image data output from the original image supply unit 1, compresses the information into a feature amount that correlates with the diagnostic information, and outputs the feature amount.

【0027】次に、上記特徴量抽出部2から出力された
特徴量は、ニューラルネットワーク3に入力され診断情
報が認識される。この特徴量は図5における入力情報1
6としてニューラルネットワーク3に入力されるが、例
えば診断情報が血管の狭窄率である場合、図3(a)に
示す注目血管位置11の特徴量とその周辺領域12の特
徴量が同時に入力される。ニューラルネットワーク3で
は入力情報16に対して所望の出力情報17が得られる
ように学習が行われる。すなわち、教師となる教師信号
18と出力情報17の誤差が小さくなるように入力層と
中間層を結合している枝14及び中間層と出力層を結合
している枝15の結合係数を変化させてゆき、学習後所
望の出力が得られるように自己組織化していく。アナロ
グ出力用のニューラルネットワーク3の学習アルゴリズ
ムを図8に示す。図8の記号の意味は次のとおりであ
る。 I ;入力情報 Ok ;第k層のニューロンモデルの出力 Wk ;第k層と第(k+1)層間の結合係数 θk ;第k層のニューロンモデルのオフセット T ;教師信号 ηw ;Wに対する学習定数 ηθ;θに対する学習定数 δk ;第(k−1)層を修正するための誤差量 fi ;恒等関数 fs ;シグモイド関数 fl ;リニア関数 なお、入力情報I、第k層のニューロンモデルの出力O
k、第k層のニューロンモデルのオフセットθk、教師信
号T、第(k−1)層を修正するための誤差量δkは1次
元ベクトルで表されており、第k層と第(k+1)層間の
結合係数Wkは2次元ベクトルで表されている。また、
例に示したニューラルネットワークは3層のものである
ため第1層目が入力層であり、第2層目が中間層であ
り、第3層目が出力層である。
Next, the feature amount output from the feature amount extracting section 2 is input to the neural network 3 and the diagnostic information is recognized. This feature amount is the input information 1 in FIG.
6 is input to the neural network 3, but when the diagnostic information is, for example, the stenosis rate of the blood vessel, the feature amount of the target blood vessel position 11 and the feature amount of the peripheral region 12 shown in FIG. . In the neural network 3, learning is performed so that desired output information 17 can be obtained from the input information 16. That is, the coupling coefficients of the branch 14 connecting the input layer and the intermediate layer and the branch coefficient 15 connecting the intermediate layer and the output layer are changed so that the error between the teacher signal 18 serving as the teacher and the output information 17 becomes small. After that, self-organization is performed so that the desired output can be obtained after learning. A learning algorithm of the neural network 3 for analog output is shown in FIG. The symbols in FIG. 8 have the following meanings. I: Input information Ok; Output of k-th layer neuron model Wk; Coupling coefficient between k-th layer and (k + 1) -th layer θk; Offset of k-th layer neuron model T; Teacher signal ηw; Learning constant for W ηθ; Learning constant for θ δk; error amount for correcting (k-1) th layer fi; identity function fs; sigmoid function fl; linear function Note that input information I and output O of the kth layer neuron model
k, the offset θk of the kth layer neuron model, the teacher signal T, and the error amount δk for correcting the (k−1) th layer are represented by a one-dimensional vector, and the kth layer and the (k + 1) th layer The coupling coefficient Wk of is expressed by a two-dimensional vector. Also,
Since the neural network shown in the example has three layers, the first layer is the input layer, the second layer is the intermediate layer, and the third layer is the output layer.

【0028】この学習アルゴリズムについて以下説明す
る。教師信号Tと出力層の出力O3との平均二乗誤差E
は、 である。これが減少するように第k層と第(k+1)層間
の結合係数Wkを次の修正量 によって修正する。ここで、 とおくと、中間層と出力層との間の修正量を決めるδ3
は、 である。よって、修正量は、 となる。これにより、前述のように出力層からの出力
は、アナログ的な値となる。また、入力層と出力層間の
修正量を決めるδ2は、 となり、修正量は、 となる。オフセットについても同様に求めることによ
り、図8に示すアルゴリズムとなる。
This learning algorithm will be described below. Mean square error E between the teacher signal T and the output O 3 of the output layer
Is Is. In order to reduce this, the coupling coefficient Wk between the kth layer and the (k + 1) th layer is changed to the next correction amount. To fix by. here, Then, δ 3 which determines the correction amount between the middle layer and the output layer
Is Is. Therefore, the correction amount is Becomes As a result, the output from the output layer becomes an analog value as described above. Also, δ 2 which determines the correction amount between the input layer and the output layer is And the correction amount is Becomes By similarly obtaining the offset, the algorithm shown in FIG. 8 is obtained.

【0029】そして、医師などの操作者が与える教師信
号18に基づき、このようなアルゴリズムで上記ニュー
ラルネットワーク3の学習が行われる。学習後の上記ニ
ューラルネットワーク3からは、長年の経験と多くの医
学知識に支えられた医師の評価、判断を踏襲した診断情
報が出力されることとなる。なお、ここでは、3層のニ
ューラルネットワーク3について例を示したが、中間層
の数を増やすことによって3層以上のニューラルネット
ワーク3が構成可能であり、その場合の学習アルゴリズ
ムは誤差量δを逆伝播させ、漸化的に修正量を求めれば
よく、より複雑な変換を含む診断情報への対応が可能と
なる。
Then, the neural network 3 is learned by such an algorithm based on the teacher signal 18 given by the operator such as a doctor. After learning, the neural network 3 outputs diagnostic information based on doctor's evaluation and judgment supported by many years of experience and much medical knowledge. Although the example of the three-layer neural network 3 is shown here, the neural network 3 having three or more layers can be configured by increasing the number of intermediate layers, and the learning algorithm in that case reverses the error amount δ. It suffices to propagate and recursively obtain the correction amount, and it is possible to deal with diagnostic information including more complicated conversion.

【0030】そして、上記ニューラルネットワーク3で
認識された診断情報は、図1に示す表示部4に入力され
て表示される。なお、原画像供給部1から出力される画
像データと共に上記ニューラルネットワーク3から出力
される診断情報を表示すると効果的である。このように
することにより、医師の診断と整合性が良くかつ正確な
診断情報を提供することができる。
The diagnostic information recognized by the neural network 3 is input and displayed on the display unit 4 shown in FIG. It is effective to display the diagnostic information output from the neural network 3 together with the image data output from the original image supply unit 1. By doing so, it is possible to provide accurate and accurate diagnostic information consistent with the doctor's diagnosis.

【0031】図9は本発明の他の実施例を説明するため
の図であり、シグモイド関数の準線形領域19を示して
いる。この実施例は、図1に示すニューラルネットワー
ク3が、層構造をなすように結合されたネットワークの
最終段の出力層の入出力関数としてリニア関数以外の関
数、例えば図9に示すシグモイド関数を用いると共に、
その準線形領域19を診断情報の範囲と限定して用いる
ようにしたものである。この場合も、前述と同様に診断
情報をアナログ値で認識可能とすることができる。
FIG. 9 is a diagram for explaining another embodiment of the present invention, showing a quasi-linear region 19 of the sigmoid function. In this embodiment, the neural network 3 shown in FIG. 1 uses a function other than a linear function, for example, a sigmoid function shown in FIG. 9 as an input / output function of an output layer at the final stage of the network connected so as to form a layered structure. With
The quasi-linear region 19 is used by being limited to the range of diagnostic information. Also in this case, it is possible to make the diagnostic information recognizable as an analog value as described above.

【0032】図10は本発明の更に他の実施例を示すブ
ロック図である。この実施例は、図1に示すニューラル
ネットワーク3に対し、該ニューラルネットワーク3に
学習動作をさせるための教師信号18(図5参照)を入
力する入力装置20を接続したものである。図1に示す
実施例では、工場出荷時あるいは病院等への設置時に、
平均的、標準的もしくは特定の教師信号を与えて予め所
要の学習を行わせるものとしているが、それでは実際の
医療現場における個々の医師等の使用状況に合致しない
こともあるので、これを改善しようとするものである。
すなわち、図10において、入力装置20として例えば
マウスまたはトラックボールまたはキーボードあるいは
ペンなどを、ニューラルネットワーク3の出力層から出
力情報17が出力される出力端に接続し、この入力装置
20を用いて個々の医師等が目的の診断情報に対応する
所要の教師信号18を随時に入力して、上記ニューラル
ネットワーク3に学習を行わせる。これにより、学習後
のニューラルネットワーク3は、上記個々の医師等の知
識、経験等を踏襲した状態で当該医師の診断結果と整合
性の良いかつ正確な診断情報を提示することができる。
さらに、提示された診断情報に正確さが欠けている場合
には、上記入力装置20から修正した教師信号18を与
えることにより、医師等の操作者が容易に診断情報を改
善することができる。
FIG. 10 is a block diagram showing still another embodiment of the present invention. In this embodiment, an input device 20 for inputting a teacher signal 18 (see FIG. 5) for causing the neural network 3 to perform a learning operation is connected to the neural network 3 shown in FIG. In the embodiment shown in FIG. 1, at the time of factory shipment or installation in a hospital or the like,
The average, standard, or specific teacher signals are given to perform the required learning in advance, but this may not match the usage situation of individual doctors in the actual medical field, so try to improve this. It is what
That is, in FIG. 10, for example, a mouse, a trackball, a keyboard, a pen, or the like is connected as an input device 20 to the output end where the output information 17 is output from the output layer of the neural network 3, and the input device 20 is used to individually The doctor or the like inputs the required teacher signal 18 corresponding to the target diagnostic information at any time to cause the neural network 3 to perform learning. As a result, the neural network 3 after learning can present accurate and accurate diagnostic information that is in good agreement with the diagnostic result of the doctor in a state of following the knowledge, experience, etc. of the individual doctor.
Further, when the presented diagnostic information lacks accuracy, the operator such as a doctor can easily improve the diagnostic information by giving the corrected teacher signal 18 from the input device 20.

【0033】[0033]

【発明の効果】本発明は以上のように構成されたので、
原画像供給部から被検体内の診断部位について計測した
画像データを出力し、特徴量抽出手段により上記原画像
供給部から出力された画像データを入力し目的部位の診
断情報と相関のある特徴量を抽出し、人工的神経素子を
入力層及び中間層並びに出力層の層構造をなすように結
合してネットワークを構成すると共に出力層の入出力関
数はリニア関数を用いたニューラルネットワークで上記
特徴量抽出手段から出力された特徴量を入力して診断情
報を認識し、表示部により上記ニューラルネットワーク
で認識され出力された結果を入力して表示することがで
きる。これにより、被検体内の診断部位を計測して得ら
れた医用画像について診断情報を認識する際に、上記ニ
ューラルネットワークの学習機能により医師の診断結果
と整合性が良くかつ正確な診断情報を提示することがで
きる。また、提示された診断情報に正確さが欠けている
場合でも、医師等の操作者の操作により容易に診断情報
を改善することができる。これらのことから、医用画像
診断装置の臨床価値を向上することができる。
Since the present invention is constructed as described above,
Image data measured about the diagnosis site in the subject is output from the original image supply unit, and the image data output from the original image supply unit is input by the feature amount extraction means to input the feature amount correlated with the diagnostic information of the target region. And the artificial neural elements are combined to form a layer structure of an input layer, an intermediate layer, and an output layer to form a network, and the input / output function of the output layer is a neural network using a linear function. The diagnostic information can be recognized by inputting the feature amount output from the extraction means, and the result recognized and output by the neural network by the display unit can be input and displayed. As a result, when recognizing the diagnostic information about the medical image obtained by measuring the diagnostic site in the subject, the learning function of the neural network presents accurate and accurate diagnostic information to the doctor's diagnostic result. can do. Further, even when the presented diagnostic information lacks accuracy, the diagnostic information can be easily improved by the operation of the operator such as a doctor. From these, the clinical value of the medical image diagnostic apparatus can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による医用画像診断装置の実施例を示す
ブロック図である。
FIG. 1 is a block diagram showing an embodiment of a medical image diagnostic apparatus according to the present invention.

【図2】特徴量抽出部の内部構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing an internal configuration of a feature quantity extraction unit.

【図3】上記特徴量抽出部における特徴量の抽出例を示
す説明図である。
FIG. 3 is an explanatory diagram showing an example of extraction of feature quantities by the feature quantity extraction unit.

【図4】ニューラルネットワークを構成する人工的神経
素子を示す説明図である。
FIG. 4 is an explanatory diagram showing an artificial neural element that constitutes a neural network.

【図5】層構造をなすように結合してネットワークに構
成されたニューラルネットワークの階層構造を示す説明
図である。
FIG. 5 is an explanatory diagram showing a hierarchical structure of a neural network that is connected to form a layered structure and is configured into a network.

【図6】上記ニューラルネットワークの中間層の入出力
関数として用いられるシグモイド関数を示すグラフであ
る。
FIG. 6 is a graph showing a sigmoid function used as an input / output function of an intermediate layer of the neural network.

【図7】上記ニューラルネットワークの出力層の入出力
関数として用いられるリニア関数を示すグラフである。
FIG. 7 is a graph showing a linear function used as an input / output function of the output layer of the neural network.

【図8】アナログ出力用のニューラルネットワークの学
習アルゴリズムを示す説明図である。
FIG. 8 is an explanatory diagram showing a learning algorithm of a neural network for analog output.

【図9】本発明の他の実施例を説明するための図であ
り、シグモイド関数の準線形領域を示すグラフである。
FIG. 9 is a diagram for explaining another embodiment of the present invention and is a graph showing a quasi-linear region of a sigmoid function.

【図10】本発明の更に他の実施例を示すブロック図で
ある。
FIG. 10 is a block diagram showing still another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…原画像供給部 2…特徴量抽出部 3…ニューラルネットワーク 4…表示部 5…形状情報抽出部 6…正規化部 7…平均化部 13…人工的神経素子 14,15…枝 16…入力情報 17…出力情報 18…教師信号 19…シグモイド関数の準線形領域 20…入力装置 1 ... Original image supply unit 2 ... Feature amount extraction unit 3 ... Neural network 4 ... Display unit 5 ... Shape information extraction unit 6 ... Normalization unit 7 ... Averaging unit 13 ... Artificial neural element 14, 15 ... Branch 16 ... Input Information 17 ... Output information 18 ... Teacher signal 19 ... Quasi-linear region of sigmoid function 20 ... Input device

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 被検体内の診断部位について計測した画
像データを出力する原画像供給部と、この原画像供給部
からの画像データを入力し目的部位の診断情報と相関の
ある特徴量を抽出する特徴量抽出手段と、人工的神経素
子を入力層及び中間層並びに出力層の層構造をなすよう
に結合してネットワークを構成し上記特徴量抽出手段か
らの特徴量を入力して診断情報を認識するニューラルネ
ットワークと、このニューラルネットワークで認識され
出力された結果を入力して表示する表示部とを備えて成
ることを特徴とする医用画像診断装置。
1. An original image supply unit that outputs image data measured for a diagnostic region in a subject, and image data from the original image supply unit that is input to extract a feature amount that correlates with diagnostic information of a target region. The feature amount extracting means and the artificial neural element are connected to form a layer structure of an input layer, an intermediate layer and an output layer to form a network, and the feature amount from the feature amount extracting means is input to obtain diagnostic information. A medical image diagnostic apparatus comprising: a neural network for recognition; and a display unit for inputting and displaying a result recognized and output by the neural network.
【請求項2】 上記特徴量抽出手段は、目的部位の形状
情報を抽出する形状情報抽出部を有し、ニューラルネッ
トワークへの入力情報を圧縮して診断情報を高速に認識
可能としたことを特徴とする請求項1記載の医用画像診
断装置。
2. The feature quantity extraction means has a shape information extraction unit for extracting shape information of a target part, and is capable of recognizing diagnostic information at high speed by compressing input information to a neural network. The medical image diagnostic apparatus according to claim 1.
【請求項3】 上記特徴量抽出手段は、目的部位の形状
情報を抽出する形状情報抽出部と、この形状情報抽出部
で抽出した形状情報の正規化を行う正規化部とを有し、
被検体の個体差に左右されずに診断情報を認識可能とし
たことを特徴とする請求項1記載の医用画像診断装置。
3. The feature amount extraction means includes a shape information extraction unit that extracts shape information of a target portion, and a normalization unit that normalizes the shape information extracted by the shape information extraction unit,
The medical image diagnostic apparatus according to claim 1, wherein the diagnostic information can be recognized without being influenced by individual differences of the subject.
【請求項4】 上記特徴量抽出手段は、目的部位の形状
情報を抽出する形状情報抽出部と、この形状情報抽出部
で抽出した形状情報の正規化を行う正規化部と、この正
規化部で正規化した情報について診断の注目箇所より離
れるに従って演算する数を多くして平均化する平均化部
とを有することを特徴とする請求項1記載の医用画像診
断装置。
4. The feature amount extraction means includes a shape information extraction unit that extracts shape information of a target portion, a normalization unit that normalizes the shape information extracted by the shape information extraction unit, and the normalization unit. The medical image diagnostic apparatus according to claim 1, further comprising: an averaging unit that averages the number of operations that are normalized with respect to the information that is further away from the point of interest of diagnosis.
【請求項5】 上記ニューラルネットワークは、層構造
をなすように結合されたネットワークの最終段の出力層
の入出力関数としてリニア関数を用い、診断情報をアナ
ログ値で認識可能としたことを特徴とする請求項1,
2,3又は4記載の医用画像診断装置。
5. The neural network is characterized in that a linear function is used as an input / output function of an output layer at a final stage of the networks connected so as to form a layered structure, and diagnostic information can be recognized as an analog value. Claim 1,
The medical image diagnostic apparatus according to 2, 3, or 4.
【請求項6】 上記ニューラルネットワークは、層構造
をなすように結合されたネットワークの最終段の出力層
の入出力関数としてリニア関数以外の関数を用いると共
にその準線形領域を診断情報の範囲と限定し、診断情報
をアナログ値で認識可能としたことを特徴とする請求項
1,2,3又は4記載の医用画像診断装置。
6. The neural network uses a function other than a linear function as an input / output function of an output layer at the final stage of the network connected so as to form a layered structure, and limits its quasi-linear region to the range of diagnostic information. The medical image diagnostic apparatus according to claim 1, 2, 3, or 4, wherein the diagnostic information can be recognized as an analog value.
【請求項7】 上記ニューラルネットワークには、該ニ
ューラルネットワークに学習動作をさせるための教師信
号を入力する入力装置を接続したことを特徴とする請求
項1〜6のいずれかに記載の医用画像診断装置。
7. The medical image diagnostic according to claim 1, wherein an input device for inputting a teacher signal for causing the neural network to perform a learning operation is connected to the neural network. apparatus.
JP18789994A 1994-07-19 1994-07-19 Medical diagnostic imaging equipment Expired - Fee Related JP3641495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18789994A JP3641495B2 (en) 1994-07-19 1994-07-19 Medical diagnostic imaging equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18789994A JP3641495B2 (en) 1994-07-19 1994-07-19 Medical diagnostic imaging equipment

Publications (2)

Publication Number Publication Date
JPH0824227A true JPH0824227A (en) 1996-01-30
JP3641495B2 JP3641495B2 (en) 2005-04-20

Family

ID=16214149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18789994A Expired - Fee Related JP3641495B2 (en) 1994-07-19 1994-07-19 Medical diagnostic imaging equipment

Country Status (1)

Country Link
JP (1) JP3641495B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000504848A (en) * 1996-02-06 2000-04-18 ザ、リージェンツ、オブ、ザ、ユニバーシティ、オブ、カリフォルニア Method and apparatus for non-acoustic speech characterization and recognition
JP2003510121A (en) * 1999-09-24 2003-03-18 ナショナル・リサーチ・カウンシル・オブ・カナダ Method and apparatus for performing intraoperative angiography
JP2004057826A (en) * 2002-07-24 2004-02-26 Siemens Ag Processing method for volume data set, computer program product, and computer
JP2004133736A (en) * 2002-10-11 2004-04-30 Hitachi Medical Corp Medical image display method and device thereof
WO2010101150A1 (en) * 2009-03-02 2010-09-10 日比 紀文 Device for diagnosing pancreatic cystic disease
US8892190B2 (en) 1999-09-24 2014-11-18 National Research Council Of Canada Method and apparatus for performing intra-operative angiography
JP2015144929A (en) * 2015-05-19 2015-08-13 キヤノン株式会社 Image processing method and device
JP2016028747A (en) * 2012-09-12 2016-03-03 ハートフロー, インコーポレイテッド System and method for assuming blood flow characteristics from blood vessel shape and physiology
US9421280B2 (en) 2005-04-26 2016-08-23 Novadaq Technologies Inc. Real time imaging during solid organ transplant
US9610021B2 (en) 2008-01-25 2017-04-04 Novadaq Technologies Inc. Method for evaluating blush in myocardial tissue
US9816930B2 (en) 2014-09-29 2017-11-14 Novadaq Technologies Inc. Imaging a target fluorophore in a biological material in the presence of autofluorescence
JP2018014058A (en) * 2016-07-22 2018-01-25 株式会社トプコン Medical information processing system, medical information processing device and medical information processing method
US10010255B2 (en) 2012-09-12 2018-07-03 Heartflow, Inc. Systems and methods for estimating ischemia and blood flow characteristics from vessel geometry and physiology
US10041042B2 (en) 2008-05-02 2018-08-07 Novadaq Technologies ULC Methods for production and use of substance-loaded erythrocytes (S-IEs) for observation and treatment of microvascular hemodynamics
US10219742B2 (en) 2008-04-14 2019-03-05 Novadaq Technologies ULC Locating and analyzing perforator flaps for plastic and reconstructive surgery
WO2019069867A1 (en) * 2017-10-03 2019-04-11 株式会社根本杏林堂 Blood vessel extraction device and blood vessel extraction method
US10265419B2 (en) 2005-09-02 2019-04-23 Novadaq Technologies ULC Intraoperative determination of nerve location
US10278585B2 (en) 2012-06-21 2019-05-07 Novadaq Technologies ULC Quantification and analysis of angiography and perfusion
CN109934934A (en) * 2019-03-15 2019-06-25 广州九三致新科技有限公司 A kind of medical image display methods and device based on augmented reality
US10434190B2 (en) 2006-09-07 2019-10-08 Novadaq Technologies ULC Pre-and-intra-operative localization of penile sentinel nodes
US10492671B2 (en) 2009-05-08 2019-12-03 Novadaq Technologies ULC Near infra red fluorescence imaging for visualization of blood vessels during endoscopic harvest
US10631746B2 (en) 2014-10-09 2020-04-28 Novadaq Technologies ULC Quantification of absolute blood flow in tissue using fluorescence-mediated photoplethysmography
US10992848B2 (en) 2017-02-10 2021-04-27 Novadaq Technologies ULC Open-field handheld fluorescence imaging systems and methods
CN113168539A (en) * 2018-11-20 2021-07-23 皇家飞利浦有限公司 Determining further processing positions in magnetic resonance imaging
WO2024048509A1 (en) * 2022-08-30 2024-03-07 株式会社Preferred Networks Pathological condition evaluation device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1780677A1 (en) * 2005-10-25 2007-05-02 BRACCO IMAGING S.p.A. Image processing system, particularly for use with diagnostics images

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000504848A (en) * 1996-02-06 2000-04-18 ザ、リージェンツ、オブ、ザ、ユニバーシティ、オブ、カリフォルニア Method and apparatus for non-acoustic speech characterization and recognition
JP2003510121A (en) * 1999-09-24 2003-03-18 ナショナル・リサーチ・カウンシル・オブ・カナダ Method and apparatus for performing intraoperative angiography
US8892190B2 (en) 1999-09-24 2014-11-18 National Research Council Of Canada Method and apparatus for performing intra-operative angiography
JP2004057826A (en) * 2002-07-24 2004-02-26 Siemens Ag Processing method for volume data set, computer program product, and computer
JP2004133736A (en) * 2002-10-11 2004-04-30 Hitachi Medical Corp Medical image display method and device thereof
US9421280B2 (en) 2005-04-26 2016-08-23 Novadaq Technologies Inc. Real time imaging during solid organ transplant
US10265419B2 (en) 2005-09-02 2019-04-23 Novadaq Technologies ULC Intraoperative determination of nerve location
US10434190B2 (en) 2006-09-07 2019-10-08 Novadaq Technologies ULC Pre-and-intra-operative localization of penile sentinel nodes
US9936887B2 (en) 2008-01-25 2018-04-10 Novadaq Technologies ULC Method for evaluating blush in myocardial tissue
US10835138B2 (en) 2008-01-25 2020-11-17 Stryker European Operations Limited Method for evaluating blush in myocardial tissue
US9610021B2 (en) 2008-01-25 2017-04-04 Novadaq Technologies Inc. Method for evaluating blush in myocardial tissue
US11564583B2 (en) 2008-01-25 2023-01-31 Stryker European Operations Limited Method for evaluating blush in myocardial tissue
US10219742B2 (en) 2008-04-14 2019-03-05 Novadaq Technologies ULC Locating and analyzing perforator flaps for plastic and reconstructive surgery
US10041042B2 (en) 2008-05-02 2018-08-07 Novadaq Technologies ULC Methods for production and use of substance-loaded erythrocytes (S-IEs) for observation and treatment of microvascular hemodynamics
WO2010101150A1 (en) * 2009-03-02 2010-09-10 日比 紀文 Device for diagnosing pancreatic cystic disease
US10492671B2 (en) 2009-05-08 2019-12-03 Novadaq Technologies ULC Near infra red fluorescence imaging for visualization of blood vessels during endoscopic harvest
US10278585B2 (en) 2012-06-21 2019-05-07 Novadaq Technologies ULC Quantification and analysis of angiography and perfusion
US11284801B2 (en) 2012-06-21 2022-03-29 Stryker European Operations Limited Quantification and analysis of angiography and perfusion
JP2017205605A (en) * 2012-09-12 2017-11-24 ハートフロー, インコーポレイテッド Systems and methods for estimating blood flow characteristics from vessel geometry and physiology
JP2016028747A (en) * 2012-09-12 2016-03-03 ハートフロー, インコーポレイテッド System and method for assuming blood flow characteristics from blood vessel shape and physiology
US11382569B2 (en) 2012-09-12 2022-07-12 Heartflow, Inc. Systems and methods for estimating blood flow characteristics from vessel geometry and physiology
US10561324B2 (en) 2012-09-12 2020-02-18 Heartflow, Inc. Systems and methods of image processing to determine flow characteristics
JP2020028774A (en) * 2012-09-12 2020-02-27 ハートフロー, インコーポレイテッド Systems and methods for estimating blood flow characteristics from vessel geometry and physiology
US10010255B2 (en) 2012-09-12 2018-07-03 Heartflow, Inc. Systems and methods for estimating ischemia and blood flow characteristics from vessel geometry and physiology
US11013425B2 (en) 2012-09-12 2021-05-25 Heartflow, Inc. Systems and methods for analyzing and processing digital images to estimate vessel characteristics
US11399729B2 (en) 2012-09-12 2022-08-02 Heartflow, Inc. Systems and methods for estimating ischemia and blood flow characteristics from vessel geometry and physiology
US9816930B2 (en) 2014-09-29 2017-11-14 Novadaq Technologies Inc. Imaging a target fluorophore in a biological material in the presence of autofluorescence
US10488340B2 (en) 2014-09-29 2019-11-26 Novadaq Technologies ULC Imaging a target fluorophore in a biological material in the presence of autofluorescence
US10631746B2 (en) 2014-10-09 2020-04-28 Novadaq Technologies ULC Quantification of absolute blood flow in tissue using fluorescence-mediated photoplethysmography
JP2015144929A (en) * 2015-05-19 2015-08-13 キヤノン株式会社 Image processing method and device
JP2018014058A (en) * 2016-07-22 2018-01-25 株式会社トプコン Medical information processing system, medical information processing device and medical information processing method
US11140305B2 (en) 2017-02-10 2021-10-05 Stryker European Operations Limited Open-field handheld fluorescence imaging systems and methods
US10992848B2 (en) 2017-02-10 2021-04-27 Novadaq Technologies ULC Open-field handheld fluorescence imaging systems and methods
US11392793B2 (en) 2017-10-03 2022-07-19 Nemoto Kyorindo Co., Ltd. Blood vessel extraction device and blood vessel extraction method
WO2019069867A1 (en) * 2017-10-03 2019-04-11 株式会社根本杏林堂 Blood vessel extraction device and blood vessel extraction method
CN113168539A (en) * 2018-11-20 2021-07-23 皇家飞利浦有限公司 Determining further processing positions in magnetic resonance imaging
JP2022507136A (en) * 2018-11-20 2022-01-18 コーニンクレッカ フィリップス エヌ ヴェ Determining other processing locations in magnetic resonance imaging
CN109934934A (en) * 2019-03-15 2019-06-25 广州九三致新科技有限公司 A kind of medical image display methods and device based on augmented reality
CN109934934B (en) * 2019-03-15 2023-09-29 广州九三致新科技有限公司 Medical image display method and device based on augmented reality
WO2024048509A1 (en) * 2022-08-30 2024-03-07 株式会社Preferred Networks Pathological condition evaluation device

Also Published As

Publication number Publication date
JP3641495B2 (en) 2005-04-20

Similar Documents

Publication Publication Date Title
JPH0824227A (en) Medical image diagnosing apparatus
US8724865B2 (en) Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
US5878746A (en) Computerized medical diagnostic system
US20030086596A1 (en) Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
CN112734757B (en) Spine X-ray image cobb angle measuring method
DE102012108121A1 (en) Method and system for ultrasound-assisted automatic detection, quantification and tracking of pathologies
Gil et al. Statistical strategy for anisotropic adventitia modelling in IVUS
EP1198200A1 (en) Intravascular ultrasonic analysis using active contour method and system
US20140357996A1 (en) System and method of ultrasound image processing
Korez et al. A deep learning tool for fully automated measurements of sagittal spinopelvic balance from X-ray images: performance evaluation
JP2008537691A (en) How to expand the field of imaging software in diagnostic workups
CN103249358A (en) Medical image processing device
US11455720B2 (en) Apparatus for ultrasound diagnosis of liver steatosis using feature points of ultrasound image and remote medical-diagnosis method using the same
US20030081837A1 (en) Dynamic computing imagery, especially for visceral osteopathy and for articular kinetics
US8805043B1 (en) System and method for creating and using intelligent databases for assisting in intima-media thickness (IMT)
JP3696616B2 (en) Ultrasonic diagnostic equipment
CN112603373A (en) Method and system for diagnosing tendon injury via ultrasound imaging
WO2022071264A1 (en) Program, model generation method, information processing device, and information processing method
CN115690556B (en) Image recognition method and system based on multi-mode imaging features
Smith et al. Detection of fracture and quantitative assessment of displacement measures in pelvic X-RAY images
WO2022071265A1 (en) Program, information processing device, and information processing method
CN114898882A (en) Method and system for ultrasound-based assessment of right heart function
Panicker et al. Employing acoustic features to aid neural networks towards platform agnostic learning in lung ultrasound imaging
CN111862014A (en) ALVI automatic measurement method and device based on left and right ventricle segmentation
CN109978857A (en) Medical Devices electric power supply system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20031126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040812

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041102

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050124

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090128

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees