JP5380185B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP5380185B2 JP5380185B2 JP2009162946A JP2009162946A JP5380185B2 JP 5380185 B2 JP5380185 B2 JP 5380185B2 JP 2009162946 A JP2009162946 A JP 2009162946A JP 2009162946 A JP2009162946 A JP 2009162946A JP 5380185 B2 JP5380185 B2 JP 5380185B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- type
- inversion
- unit
- functional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000877 morphologic effect Effects 0.000 claims description 74
- 230000003902 lesion Effects 0.000 claims description 69
- 201000010099 disease Diseases 0.000 claims description 38
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 38
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 3
- 238000002591 computed tomography Methods 0.000 claims description 2
- 238000009206 nuclear medicine Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 17
- 239000002131 composite material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 208000003174 Brain Neoplasms Diseases 0.000 description 8
- 239000000203 mixture Substances 0.000 description 8
- 238000003745 diagnosis Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 206010008118 cerebral infarction Diseases 0.000 description 3
- 208000026106 cerebrovascular disease Diseases 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 206010008111 Cerebral haemorrhage Diseases 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000010412 perfusion Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
本発明は、病巣領域の画像診断を支援するための画像処理装置に関する。 The present invention relates to an image processing apparatus for supporting image diagnosis of a lesion area.
例えば、特許文献1に示すように、病巣領域の画像診断を支援する画像処理装置がある。画像処理装置は、ユーザにより指定された形態画像と機能画像とに対して、ユーザにより指定された画像処理をすることで、病巣領域が強調された画像を生成して表示している。現在、画像処理のための臨床アプリケーションには、種々の画像処理機能が独立して実装されている。そのためユーザは、数ある種類の形態画像と機能画像との中から、病巣領域を抽出するための形態画像と機能画像との組み合わせを試行錯誤的に指定しなければならない。また、病巣領域を抽出するための画像処理の種類も多数あるため、これもユーザにより試行錯誤的に指定されている。従って、ユーザは、意図した画像を生成するまでに何回も画像種を選択したり、画像処理種を選択したりしなければならず、とても手間がかかっている。
For example, as disclosed in
本発明の目的は、病巣領域の画像診断におけるユーザの手間の軽減を実現する画像処理装置を提供することにある。 The objective of this invention is providing the image processing apparatus which implement | achieves reduction of a user's effort in the image diagnosis of a lesion area | region.
本発明の第1局面に係る画像処理装置は、複数の画像種に関する複数の形態画像のデータと複数の機能画像のデータとを記憶する画像記憶部と、前記複数の画像種と複数の病名とを関連付けた第1テーブルを記憶する第1テーブル記憶部と、前記複数の病名のうちのユーザにより入力された病名に前記第1テーブル上で関連付けられた第1の画像種と第2の画像種とを複数の画像種の中から特定する第1特定部と、前記特定された第1の画像種に関する形態画像と第2の画像種に関する機能画像とを画像記憶部から読み出して画像処理を行い前記第2の画像種に関する機能画像から病巣領域を抽出する画像処理部と、前記抽出された病巣領域と前記第1の画像種に関する形態画像とを重ねて表示する表示部と、を具備する。 An image processing apparatus according to a first aspect of the present invention includes an image storage unit that stores data of a plurality of morphological images and data of a plurality of functional images related to a plurality of image types, the plurality of image types, and a plurality of disease names. A first table storage unit that stores a first table that associates the first table, and a first image type and a second image type that are associated on the first table with a disease name input by a user among the plurality of disease names Are read out from the image storage unit, and the image processing is performed on the first specifying unit that specifies the image type from a plurality of image types, the morphological image related to the specified first image type, and the functional image related to the second image type. An image processing unit that extracts a lesion area from a functional image related to the second image type; and a display unit that displays the extracted lesion area and a morphological image related to the first image type in an overlapping manner.
本発明によれば、病巣領域の画像診断におけるユーザの手間の軽減を実現する画像処理装置を提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the image processing apparatus which implement | achieves reduction of a user's effort in the image diagnosis of a lesion area | region.
以下、図面を参照しながら本発明の実施形態に係わる画像処理装置を説明する。本実施形態に係る画像処理装置は、ある検査部位に存在が疑われる病巣領域の画像診断を支援するコンピュータ装置である。本実施形態に係る検査部位は、特に限定されず如何なる部位にも適用可能である。しかしながら、以下の説明を具体的に行うため、検査部位は、脳であるものとする。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. The image processing apparatus according to the present embodiment is a computer apparatus that supports image diagnosis of a lesion area suspected of being present at a certain examination site. The examination site according to the present embodiment is not particularly limited and can be applied to any site. However, in order to specifically describe the following, it is assumed that the examination site is the brain.
図1は、本発明の画像処理装置の構成を示す図である。図1に示すように画像処理装置は、画像記憶部10、画像種テーブル記憶部12、反転/非反転テーブル記憶部14、画像間演算種テーブル記憶部16、入力部18、画像種特定部20、反転/非反転特定部22、画像間演算種特定部24、画像読み書き部26、画像処理部28、画像合成部30、表示部32、及び制御部34を備える。
FIG. 1 is a diagram showing a configuration of an image processing apparatus according to the present invention. As shown in FIG. 1, the image processing apparatus includes an
画像記憶部10は、複数の画像種に関する複数の形態画像のデータと複数の画像種に関する複数の機能画像のデータとを記憶する。形態画像と機能画像とのそれぞれは、X線診断装置、X線コンピュータ断層撮影装置、磁気共鳴イメージング装置、超音波診断装置、及び核医学診断装置のうちの1つのモダリティにより生成された画像である。また、形態画像と機能画像とのそれぞれは、ボリュームレンダリング等の3次元画像処理により生成された3次元画像であっても、画素値投影処理や多断面変換等により生成された2次元画像であってもよい。なお、以下の説明を具体的に行うため、形態画像と機能画像とのそれぞれは、磁気共鳴イメージング装置により生成されたものであるとする。また、形態画像と機能画像とのそれぞれは、2次元画像であるとする。
The
画像種テーブル記憶部12は、複数の画像種と複数の病名とを関連付けたテーブル(以下、画像種テーブルと呼ぶことにする)を記憶する。図2は、画像種テーブルの一例を示す図である。図2に示すように、画像種テーブルは、画像の項目として形態画像項目と機能画像項目とを有している。形態画像項目は、脳の形態情報を観察するための形態画像の画像種が関連付けられている。機能画像項目は、病名に応じて細分されており、各病名に対応する病巣領域を観察するのに適した機能画像の画像種が関連付けられている。病名としては、脳梗塞、脳出血、脳腫瘍等がある。画像種としては、T1やT2、MRA(MR Angiography)、PWI(Perfusion Weighted Image)、DWI(Diffusion Weighted Image)、fMRI(functional MRI)等がある。形態画像と機能画像との組み合わせは、優先度に応じて順位付けされている。優先順位は、特定の病気に対する画像種の利用頻度に応じている。利用頻度が高ければ優先順位も高い。例えば、脳梗塞を診断したい場合、形態画像「T1」と機能画像「PWI」との組み合わせが最も優先順位が高い。その次は、形態画像「MRA」と機能画像「DWI」との組み合わせである。
The image type
反転/非反転テーブル記憶部14は、複数の画像種と複数の病名と画素値の反転又は非反転を示すコードとを関連づけたテーブル(以下、反転/非反転テーブルと呼ぶことにする)を記憶する。図3は、反転/非反転テーブルの一例を示す図である。図3に示すように、反転/非反転テーブルは、形態画像や機能画像の画像種と病名との組み合わせに反転又は非反転を示すコードを関連付けている。反転は、病名に対応する病巣領域を抽出するために行われる画像処理の一つであり、形態画像や機能画像の画素値を反転させることであり、非反転は、画素値を反転させないことである。
The inversion / non-inversion
画像間演算種テーブル記憶部16は、形態画像の画像種と機能画像の画像種との組み合わせと、画像間演算種とを関連付けたテーブル(以下、画像間演算種テーブルと呼ぶことにする)を記憶する。図4は、画像間演算種テーブルの一例を示す図である。図4に示すように、画像間演算種テーブルは、形態画像の画像種と機能画像の画像種との組み合わせに画像間演算種を関連付けている。画像間演算は、病巣領域を抽出するために行われる画像処理の一つであり、形態画像と機能画像とに対して行われる論理演算や四則演算である。論理演算としては、例えば、論理和や論理積等があり、四則演算としては、例えば、加算や減算等がある。画像間演算種は、画像種毎に一般的に使用される画像間演算種に設定されている。
The inter-image calculation type
入力部18は、キーボードやマウス等の入力デバイスである。入力部18は、ユーザからの種々の指示や情報を入力する。例えば、入力部18は、病名を入力したり、本実施形態に関わる画像処理の開始指示を入力したり、画像上の位置を指定したりする。
The
画像種特定部20は、入力部18から入力された病名をキーワードとして画像種テーブルを検索し、このキーワードに画像種テーブルで関連付けられている形態画像の画像種と機能画像の画像種とをそれぞれ特定する。より詳細には、画像種特定部20は、キーワードに関連付けられた画像種のうち、画像記憶部10に記憶されている形態画像の画像種と機能画像の画像種とであって、優先度の高い画像種を特定する。
The image
反転/非反転特定部22は、画像種特定部20により特定された形態画像の画像種と入力部18から入力された病名との組み合わせをキーワードとして反転/非反転テーブルを検索し、このキーワードに反転/非反転テーブルで関連付けられている反転又は非反転を示すコードを特定する。同様にして反転/非反転特定部22は、画像種特定部20により特定された機能画像の画像種と入力部18から入力された病名との組み合わせをキーワードとして反転/非反転テーブルを検索し、このキーワードに反転/非反転テーブルで関連付けられている反転又は非反転を示すコードを特定する。
The inversion /
画像間演算種特定部24は、画像種特定部20により特定された形態画像の画像種と機能画像の画像種との組み合わせをキーワードとして画像間演算種テーブルを検索し、このキーワードに画像間演算種テーブルで関連付けられている画像間演算種を特定する。
The inter-image calculation
画像読み書き部26は、画像種特定部20により特定された形態画像の画像種に対応する形態画像のデータを画像記憶部10から読み出す。また、画像読み書き部26は、画像種特定部20により特定された機能画像の画像種に対応する機能画像のデータを画像記憶部26から読み出す。また、画像読み書き部26は、画像合成部30により生成された合成画像のデータを画像記憶部10に書き込む。
The image read /
画像処理部28は、画像読み書き部26により読み出された形態画像と機能画像とに種々の画像処理をし、機能画像から病巣領域を抽出する。具体的には、画像処理部28は、正規化処理部281、反転処理部282、位置合わせ部283、画像間演算部284、閾値処理部285、及びマスク処理部286備える。正規化処理部281は、形態画像と機能画像との画素値範囲を同一範囲内に収めるために正規化処理をする。反転処理部282は、反転/非反転特定部22により特定されたコードに応じて形態画像の画素値を反転又は非反転する。同様に反転処理部282は、反転/非反転特定部22により特定されたコードに応じて機能画像の画素値を反転又は非反転する。位置合わせ部283は、形態画像と機能画像との解剖学的同一位置を位置合わせする。画像間演算部284は、画像間演算種特定部24により特定された画像間演算種に対応する画像間演算を形態画像と機能画像とに行ない、単一の出力画像(以下、演算画像と呼ぶことにする)のデータを生成する。閾値処理部285は、ユーザにより入力部18を介して演算画像上に指定された位置の画素値に基づいて閾値を決定し、決定された閾値で演算画像を閾値処理し、2値化画像のデータを生成する。マスク処理部286は、閾値処理部285により生成された2値化画像をマスクとして機能画像をマスク処理し、機能画像から病巣領域を抽出する。
The
画像合成部30は、画像処理部28により抽出された病巣領域と形態画像とを合成し、合成画像のデータを生成する。
The
表示部32は、画像合成部30により生成された合成画像を表示する。換言すれば、表示部32は、形態画像と機能画像から抽出された病巣領域とを重ね合わせて表示する。この際表示部32は、病巣領域を強調して表示する。
The
制御部34は、画像処理装置の中枢として機能する。制御部34は、図示しないハードディスク等に記憶されている画像処理プログラムをメモリ上に展開し、この画像処理プログラムに従って各部を制御することにより、本実施形態に特有な画像処理を実行する。
The
以下、制御部34の制御により実行される、本実施形態に係る画像処理の臨床応用例を説明する。図5は、制御部34の制御のもとに実行される画像処理の典型的な流れを示す図である。また、図6は、図5の流れの中で行なわれる画像処理の流れを画像とともに示す図である。
Hereinafter, clinical application examples of image processing according to the present embodiment, which are executed under the control of the
制御部34は、ユーザにより入力部18を介して画像処理の開始指示がなされると、本実施形態に係る画像処理を開始する。まず制御部34は、入力部18を介して病名の候補が入力されるのを待機している(ステップS1)。病名は、入力部18を介して直接的に入力されるとしてもよいし、表示部32に表示される病名候補リスト上で選択されるとしてもよい。
When the user gives an instruction to start image processing via the
ユーザにより入力部18を介して病名が入力されると(ステップS1:YES)、制御部34は、画像種特定部20に画像種の特定処理を行なわせる(ステップS2)。ステップS2において画像種特定部20は、入力部18により入力された病名をキーワードとして画像種テーブルを検索し、このキーワードに画像種テーブル上で関連付けられている画像種を特定する(図2参照)。この際、画像種特定部20は、病名に関連付けられている形態画像の画像種と機能画像の画像種との組み合わせのうち、優先順位の高い画像種の組み合わせを特定する。特定された画像種の組み合わせに対応する形態画像と機能画像とが画像記憶部10に記憶されていない場合、より下位の優先順位の画像種の組み合わせであってその形態画像と機能画像との両方が画像記憶部10に記憶されているものが採用される。
When a disease name is input by the user via the input unit 18 (step S1: YES), the
ステップS2が行なわれると制御部34は、画像読み書き部26に画像の読み出し処理を行なわせる(ステップS3)。ステップS3において画像読み書き部26は、ステップS2において特定された画像種に対応する形態画像のデータと機能画像のデータとを画像記憶部10からそれぞれ読み出す。形態画像と機能画像とは、例えば、DICOM(Digital Imaging and COmmunications in Medicine)規格に準拠して階層化されて画像記憶部10に管理されている。読み出される形態画像と機能画像とは、同一の検査や同一のシリーズに属するものである。例えば、ステップS3において、形態画像の画像種がT1強調画像であり機能画像の画像種がT2強調画像の場合、画像読み書き部26は、同一のシリーズに属するT1強調画像のデータとT2強調画像のデータとを読み出す。
When step S2 is performed, the
ステップS3が行なわれると制御部34は、画像処理部28の正規化処理部281に正規化処理を行なわせる(ステップS4)。ステップS4において正規化処理部281は、ステップS3において読み出された形態画像と機能画像との両方を正規化する。正規化は、形態画像と機能画像との画素値範囲を同一にするために行なわれる。
When step S3 is performed, the
図7は、正規化処理を説明するための図であり、各画像I1、I2、I3の画素値範囲を示す図である。画像I1、I2、及びI3は、同一のシリーズに属しているものとする。図7に示すように、画像が異なればその画素値範囲も異なってくる。例えば、画像I1の画素値範囲は、最小画素値I1min〜最大画素値I1maxである。また、画像I2の画素値範囲は、最小画素値I2min〜最大画素値I2maxであり、画像I3の画素値範囲は、最小画素値I3min〜最大画素値I3maxである。これら画像I1、I2、I3にそのまま画像間演算を実行しても、画素値範囲が異なるために病巣領域の抽出精度が悪い。そのために正規化処理が行なわれる。 FIG. 7 is a diagram for explaining the normalization process, and is a diagram illustrating pixel value ranges of the respective images I1, I2, and I3. The images I1, I2, and I3 are assumed to belong to the same series. As shown in FIG. 7, if the images are different, the pixel value ranges are also different. For example, the pixel value range of the image I1 is the minimum pixel value I1min to the maximum pixel value I1max. The pixel value range of the image I2 is the minimum pixel value I2min to the maximum pixel value I2max, and the pixel value range of the image I3 is the minimum pixel value I3min to the maximum pixel value I3max. Even if the inter-image calculation is directly performed on these images I1, I2, and I3, the extraction accuracy of the lesion area is poor because the pixel value ranges are different. For this purpose, normalization processing is performed.
正規化処理においては、まず、図7に示すように、画像間演算の対象画像、すなわち形態画像と機能画像との画素値範囲をそれぞれ特定する。そして画素値範囲の中の最小画素値Sminと最大画素値Smaxとを特定する。換言すれば、同一シリーズに関する画像の画素値の中の最小画素値Sminと最大画素値Smaxとが特定される。 In the normalization process, first, as shown in FIG. 7, the target image of the inter-image calculation, that is, the pixel value range of the morphological image and the functional image is specified. Then, the minimum pixel value Smin and the maximum pixel value Smax in the pixel value range are specified. In other words, the minimum pixel value Smin and the maximum pixel value Smax among the pixel values of the images related to the same series are specified.
正規化処理部281は、特定された最小画素値Sminと最大画素値Smaxと下記の(1)式と(2)式とに基づいて、形態画像と機能画像とをそれぞれ正規化する。
new_pixval=orig_pixval*fscale …(1)
fscale=65535/(2*max(|Smin|,|Smax|)) …(2)
new_pixval:正規化後の画素値
orig_pixval:正規化前の画素値
fscale:正規化スケール
以下に正規化スケールfscaleの算出手順を図8、図9、及び図10参照しながら説明する。なお図8のグラフ、図9のグラフ、及び図10の上のグラフの横軸の左端FLT_MINは、浮動小数点演算において取り得る画素値の最小値であり、右端FLT_MAXは、浮動小数点演算において取る得る画素値の最大値である。浮動小数点演算は、正規化前の画像のデータ型の一例である。まず、図8に示すように、最小画素値Sminと最大画素値Smaxとが特定されると、最小画素値Sminと最大画素値Smaxとのうちの絶対値が大きい方を特定する。この処理は(2)式のmax(|Smin|,|Smax|)に相当する。図8の場合、最小画素値Sminの方が最大画素値Smaxに比して絶対値が大きいので、最小画素値Sminが特定される。次に図9に示すように、特定された絶対値に2を乗じ、正規化範囲を算出する。正規化範囲は、正規化の対象範囲である。この処理は(2)式の2*max(|Smin|,|Smax|)に相当する。
The
new_pixval = orig_pixval * fscalar (1)
fscale = 65535 / (2 * max (| Smin |, | Smax |)) (2)
new_pixval: pixel value after normalization
orig_pixval: pixel value before normalization
fscale: Normalized scale A procedure for calculating the normalized scale fscale will be described below with reference to FIGS. 8, 9, and 10. FIG. The left end FLT_MIN on the horizontal axis of the graph of FIG. 8, FIG. 9, and the upper graph of FIG. 10 is the minimum pixel value that can be taken in the floating point arithmetic, and the right end FLT_MAX can be taken in the floating point arithmetic. This is the maximum pixel value. Floating point arithmetic is an example of the data type of an image before normalization. First, as shown in FIG. 8, when the minimum pixel value Smin and the maximum pixel value Smax are specified, the larger one of the minimum pixel value Smin and the maximum pixel value Smax is specified. This process corresponds to max (| Smin |, | Smax |) in equation (2). In the case of FIG. 8, since the absolute value of the minimum pixel value Smin is larger than that of the maximum pixel value Smax, the minimum pixel value Smin is specified. Next, as shown in FIG. 9, the normalized range is calculated by multiplying the specified absolute value by 2. The normalization range is a range to be normalized. This processing corresponds to 2 * max (| Smin |, | Smax |) in the equation (2).
そして図10に示すように、算出された正規化範囲と正規化後のデータ型の画素値範囲とに基づいて、正規化スケールfscaleを算出する。図10の下のグラフの横軸の左端SHORT_MINは、短精度浮動小数点演算において取りうる画素値の最小値であり、右端SHORT_MAXは、短精度浮動小数点演算において取る得る画素値の最大値である。短精度浮動小数点演算は、正規化後の画像のデータ型の一例である。短精度浮動小数点演算が取りうる画素値範囲は、正規化後の画像が取りうる画素値範囲であり、65536である。正規化スケールは、正規化後の画像が取りうる画素値範囲65536を正規化範囲2*max(|Smin|,|Smax|)で除すことにより算出される。この処理は、(2)式の65535/(2*max(|Smin|,|Smax|))に相当する。
Then, as shown in FIG. 10, a normalization scale fscale is calculated based on the calculated normalization range and the pixel value range of the data type after normalization. The left end SHORT_MIN on the horizontal axis of the lower graph of FIG. 10 is the minimum pixel value that can be taken in the short-precision floating-point operation, and the right end SHORT_MAX is the maximum pixel value that can be taken in the short-precision floating-point operation. The short-precision floating-point operation is an example of the data type of the image after normalization. The pixel value range that can be taken by the short-precision floating-point operation is a pixel value range that can be taken by the image after normalization, which is 65536. The normalization scale is calculated by dividing the
ステップS4が行なわれると制御部34は、反転/非反転特定部22に反転/非反転の特定処理を行なわせる(ステップS5)。ステップS5において反転/非反転特定部22は、ステップS1において入力された病名とステップS2において特定された画像種との組み合わせをキーワードとして反転/非反転テーブルを検索し、このキーワードに反転/非反転テーブル上で関連付けられた反転又は非反転を示すコードを特定する(図3参照)。反転又は非反転は、形態画像と機能画像とのそれぞれについて特定される。反転又は非反転は、画像間演算種テーブルの画像演算種と密接に関連している。反転又は非反転の決定方法についてはステップS9において説明する。
When step S4 is performed, the
ステップS5が行なわれると制御部34は、画像処理部28の反転処理部282に反転処理を行なわせる(ステップS6)。ステップS6において反転処理部282は、ステップS5において特定されたコードに従って、正規化された形態画像と機能画像との画素値をそれぞれ反転又は非反転する。例えば、図6に示すように、形態画像はT1強調画像IM、機能画像はT2強調画像IFであるとする。T1強調画像IMとT2強調画像IFとのそれぞれには、脳腫瘍に由来する病巣領域が描出されている。よく知られているように、T1強調画像IMにおいて水は黒く描出され、T2強調画像IFにおいて水は白く描出される。従って水分を多く含む脳腫瘍は、T1強調画像IMにおいて黒く描出され、T2強調画像IFにおいて白く描出される。この場合、反転処理部282は、低画素値の病巣領域を高画素値にするためにT1強調画像IMの画素値を反転させることにより、低画素値の病巣領域を高画素値に反転させる。画素値が反転させられた形態画像IRにおいては、脳腫瘍に由来する病変領域が白く描出される。一方高画素値の病巣領域を有するT2強調画像IFについては、画素値を非反転させる、すなわち反転させない。
When step S5 is performed, the
ステップS6が行なわれると制御部34は、画像処理部28の位置合わせ部283に位置合わせ処理を行なわせる。(ステップS7)。ステップS7において位置合わせ部283は、反転又は非反転された形態画像と機能画像との解剖学上同一点を位置合わせする。この位置合わせは、後述の画像間演算(ステップS9)を精度良く行なうために行なわれる。位置合わせの方法としては、既存の如何なる方法を用いてもよい。例えば、画像撮影時にマーカ等を使用して画像上に標示された位置に基づく方法等がある。
When step S6 is performed, the
ステップS7が行なわれると制御部34は、画像間演算種特定部24に画像間演算種の特定処理を行なわせる(ステップS8)。ステップS8において画像間演算種特定部24は、ステップS2において特定された形態画像の画像種と機能画像の画像種との組み合わせをキーワードとして画像間演算種テーブルを検索し、このキーワードに画像間演算種テーブル上で関連付けられた画像間演算種を特定する(図4参照)。画像間演算は、形態画像と機能画像とを入力とし、高画素値の病巣領域を出力とするための演算子である。
When step S7 is performed, the
以下、図11を参照しながら画像間演算について説明する。図11に示すように、入力としてT1強調画像IMとT2強調画像IFとを例に挙げて考える。この画像IMと画像IFとは、図6の画像IMと画像IFとそれぞれ同様である。すなわち、画像IMと画像IFとのそれぞれには、脳腫瘍に関する病巣領域が描出されており、画像IM上の病巣領域は低画素値を有し、画像IF上の病巣領域は高画素値を有する。また、演算子“+”は、画像IMと画像IFとの加算である。演算子“−”は、画像IMと画像IFとの減算である。演算子“×”は、画像IMと画像IFとの積である。演算子“/”は、画像IMと画像IFとの除算である。演算子“OR”は、画像IMと画像IFとの論理和である。演算子“AND”は、画像IMと画像IFとの論理積である。図11に示すように、これら演算子のうち最も病巣領域を明瞭に強調できるのは演算子“−”(減算)である。従って、T1強調画像IMとT2強調画像IFとを減算すること、すなわち演算子“−”が最も脳腫瘍に関する病巣領域を抽出するのに適しているといえる。 Hereinafter, the inter-image calculation will be described with reference to FIG. As shown in FIG. 11, a T1-weighted image IM and a T2-weighted image IF are considered as inputs. The image IM and the image IF are the same as the image IM and the image IF in FIG. That is, a lesion area related to a brain tumor is depicted in each of the image IM and the image IF, the lesion area on the image IM has a low pixel value, and the lesion area on the image IF has a high pixel value. The operator “+” is addition of the image IM and the image IF. The operator “−” is a subtraction between the image IM and the image IF. The operator “×” is the product of the image IM and the image IF. The operator “/” is a division between the image IM and the image IF. The operator “OR” is a logical sum of the image IM and the image IF. The operator “AND” is a logical product of the image IM and the image IF. As shown in FIG. 11, among these operators, the operator “−” (subtraction) can highlight the lesion area most clearly. Therefore, it can be said that the subtraction of the T1-weighted image IM and the T2-weighted image IF, that is, the operator “−” is most suitable for extracting the lesion area related to the brain tumor.
ここでT1強調画像の画素値を反転させた場合を考える。反転されたT1強調画像と反転されていないT2強調画像とを加算することは、反転されていないT1強調画像と反転されていないT2強調画像とを減算することに等しい。従って、反転されたT1強調画像と反転されていないT2強調画像とを加算すること、すなわち演算子“+”が最も脳腫瘍に関する病巣領域を抽出するのに適しているといえる。 Here, consider a case where the pixel value of the T1-weighted image is inverted. Adding the inverted T1-weighted image and the non-inverted T2-weighted image is equivalent to subtracting the non-inverted T1-weighted image and the non-inverted T2-weighted image. Therefore, it can be said that adding the inverted T1-weighted image and the non-inverted T2-weighted image, that is, the operator “+” is most suitable for extracting the lesion area related to the brain tumor.
このように反転/非反転テーブルにおける反転/非反転と画像間演算種テーブルにおける画像間演算種は、画像間演算により病変領域が強調されるように相互に関連して決定される。ここで強調とは、他の領域に比して画素値が顕著に高い、又は低いことである。反転/非反転と画像間演算種とはユーザにより、試行錯誤的に決定され、入力部18を介して任意に更新可能である。
Thus, the inversion / non-inversion in the inversion / non-inversion table and the inter-image calculation type in the inter-image calculation type table are determined in relation to each other so that the lesion area is emphasized by the inter-image calculation. Here, “enhancement” means that the pixel value is remarkably high or low compared to other regions. The inversion / non-inversion and the operation type between images are determined by the user by trial and error, and can be arbitrarily updated via the
ステップS8行なわれると制御部34は、画像処理部28の画像間演算部284に画像間演算処理を行なわせる(ステップS9)。ステップS9において画像間演算部284は、ステップS8において特定された種類の画像間演算を形態画像と機能画像とに実行し、単一の演算画像IOのデータを生成する。図6に示すように、演算画像IOには、他の正常領域に比して画素値が強調された病巣領域を含んでいる。このように画像間演算をすることで、高画素値の病巣領域がより高画素値になる。これにより、後段のステップS10における2値化により病巣領域が抽出されやすくなる。
When step S8 is performed, the
ステップS9が行なわれると制御部34は、画像処理部28の閾値処理部285に閾値処理を行なわせる(ステップS10)。閾値処理部285は、ステップS9において生成された演算画像IOを閾値処理し、演算画像IOから病巣領域を抽出する。具体的には、ユーザにより指定された初期位置の画素値を利用して閾値処理が行なわれる。初期位置としては、ユーザにより演算画像IO上に指定された最初の点や関心領域が用いられる。例えば、ユーザのマウス操作により、表示部32に表示された演算画像IO上の病巣領域の内部がクリックされる、あるいは関心領域が描かれるとその位置が初期位置に設定される。初期位置が設定されると、次に閾値が設定される。閾値は、例えば、演算画像IOのヒストグラムにおいて病巣領域(高画素値領域)とその他の領域(低画素値領域)とが分離される画素値に設定される。そして閾値以上の画素値を有する画素に対して画素値“1”を、閾値以下の画素値を有する画素に対して画素値“0”を割り付ける。また、設定された初期位置を含まない画素値“1”の画素領域は、病巣領域でないとして画素値“0”に割り付けられる。これにより演算画像IO上の病巣領域が画素値“1”に、それ以外の画素領域が画素値“0”に割り付ける。これにより、病巣領域が抽出された2値化画像IBのデータが生成される。
When step S9 is performed, the
ステップS10が行なわれると制御部34は、画像処理部28のマスク処理部286に形態画像へマスク処理を行なわせる(ステップS11)。ステップS11においてマスク処理部286は、ステップS10において生成された2値化画像IBをマスクとして、ステップS4において正規化された形態画像IMにマスク処理を行い、この形態画像から病巣領域を除去する。具体的には、2値化画像IB上の病巣領域の座標位置と同一座標位置にある形態画像IM上の領域を特定する。そしてマスク処理部286は、特定された領域の画素値を画素値“0”に割り付ける。これにより病巣領域が除去された形態画像INのデータが生成される。
When step S10 is performed, the
また、ステップS10が行なわれると制御部34は、画像処理部28のマスク処理部286に機能画像IFへマスク処理を行なわせる(ステップS12)。ステップS12においてマスク処理部286は、ステップS10において生成された2値化画像IBをマスクとして、ステップS4において正規化された機能画像IFにマスク処理を行い、この機能画像IFから病巣領域を抽出する。具体的には、2値化画像IB上の病巣領域の座標位置と同一座標位置にある機能画像IF上の領域を特定する。そしてマスク処理部286は、特定された領域以外の画素値を画素値“0”に割り付ける。これにより病巣領域以外の領域が除去された機能画像II、すなわち病巣領域のみを含む機能画像IIのデータが生成される。
When step S10 is performed, the
ステップS11とS12とが行なわれると制御部34は、画像合成部30に合成処理を行なわせる(ステップS13)。ステップS13において画像合成部30は、ステップS11において生成された形態画像INと、ステップS12において生成された機能画像IIとを合成し、合成画像IGのデータを生成する。生成された合成画像IGの病巣領域は、機能画像に由来し、病巣領域以外は形態画像に由来する。なお画像合成部30により生成された合成画像IGのデータは、画像読み書き部26により画像記憶部10に書き込まれる。
When Steps S11 and S12 are performed, the
ステップS13が行なわれると制御部34は、表示部32に表示処理を行なわせる(ステップS14)。ステップS14において表示部32は、ステップS13において生成された合成画像IGを表示する。換言すれば表示部32は、機能画像から抽出された病巣領域を形態画像上に重ね合わせて表示する。この際表示部32は、合成画像IG上の病巣領域を強調して表示する。例えば、表示部32は、図12に示すように、病巣領域の輪郭を色や輝度等で強調して表示する。また、色や輝度で強調する他に輪郭を点滅させることにより強調してもよい。また、表示部32は、図13に示すように、病巣領域の内部に赤等の色をつけて強調して表示してもよい。このようにして病巣領域を強調表示することにより、病巣領域とその周辺組織領域との境界をユーザに容易に識別させることができる。
When step S13 is performed, the
ステップS14が行なわれると本実施形態に係る画像処理が終了する。 When step S14 is performed, the image processing according to the present embodiment ends.
上記のように画像処理装置は、病名とその病名に対応する病巣領域を診断するのに適した画像種とを関連付けた画像種テーブルを保持している。この画像種テーブルを利用して画像処理装置は、ユーザにより入力部18を介して病名が入力されると、入力された病名に対応する病巣領域を診断するのに最も適した画像種の形態画像と機能画像とを自動的に読み出すことができる。従って、ユーザによる画像種の選択の手間を削減することができる。また、病名と画像種との関連をテーブルにして保存しておくことで、画像種の選択に関する経験的知識を保存しておくことができる。また、画像処理装置は、反転/非反転テーブルや画像間演算種テーブル等を保持している。この反転/非反転テーブルや画像間演算種テーブルを利用して画像処理装置は、病巣領域を抽出するのに最も適した画像間演算種を自動的に選択することができる。従って、ユーザによる画像間演算種の選択の手間を削減でき、また、画像間演算種の選択に関する経験的知識を保存しておくことができる。これら各種テーブルにより、病巣領域が強調された形態画像を簡便に生成して表示することができる。かくして本実施形態に係る画像処理装置は、病巣領域の画像診断におけるユーザの手間の軽減を実現することができる。
As described above, the image processing apparatus holds an image type table in which a disease name and an image type suitable for diagnosing a lesion area corresponding to the disease name are associated with each other. Using this image type table, the image processing apparatus, when a disease name is input by the user via the
なお、画像種や画像間演算種の自動選択がうまく機能しない場合や、ユーザ自身が選択したい場合もある。このような事態に備えて画像種や画像間演算種を手動で選択できる手段を有している方が実運用上望ましい。 There are cases where the automatic selection of the image type and the inter-image calculation type does not function well, or the user himself / herself wants to select. In preparation for such a situation, it is desirable in practice to have means for manually selecting the image type and the inter-image calculation type.
図14は、表示部32により表示される画像種や画像間演算種の手動選択のためのGUI(graphic user interface)画面の一例を示す図である。このGUI画面は、例えば、図5の画像処理の間、表示部32により表示されている。GUI画面は、検査部位/病名/画像種選択領域R1、画像選択領域R2、画像間演算種選択領域R3、及び合成画像表示領域R4を有している。
FIG. 14 is a diagram illustrating an example of a GUI (graphic user interface) screen for manual selection of the image type and the inter-image calculation type displayed by the
検査部位/病名/画像種選択領域R1は、頭部や胸部、腹部等の検査部位を選択するための部位選択領域R5、脳梗塞や脳腫瘍、脳出血等の病名を選択するための病名選択領域R6、T1やT2、DWI、PWI等の画像種を選択するための画像種選択領域R7を有している。これら項目が入力部18を介して選択されことにより、検査部位や病名、画像種が選択される。
The examination part / disease name / image type selection area R1 is a part selection area R5 for selecting examination parts such as the head, chest, and abdomen, and a disease name selection area R6 for selecting disease names such as cerebral infarction, brain tumor, and cerebral hemorrhage. , T1, T2, DWI, PWI, and other image type selection areas R7 for selecting image types. By selecting these items via the
画像選択領域R2は、各画像種に関する画像のサムネイルSが表示される。このサムネイルSが入力部18を介してユーザにより選択されることにより、選択されたサムネイルSに対応する形態画像のデータや機能画像のデータが画像記憶部10から読み出される。
In the image selection area R2, thumbnails S of images relating to the respective image types are displayed. When the thumbnail S is selected by the user via the
画像間演算種選択領域R3は、+や−、×、/、OR、AND等の画像間演算種を選択するための選択領域R8を有している。また、読み出された形態画像や機能画像は、各画像表示領域R9の何れかに表示される。また画像間演算における重みづけパラメータ等もパラメータ領域R10において入力部18を介して設定可能となっている。また、PreviewボタンB1が押されることで、設定された画像間演算種やパラメータにより生成される合成画像IGが合成画像表示領域R4に表示される。SaveボタンB2が押されることで、設定された画像間演算種が画像間演算種テーブルに設定される。
The inter-image calculation type selection area R3 includes a selection area R8 for selecting an inter-image calculation type such as +,-, x, /, OR, and AND. The read morphological image and functional image are displayed in any one of the image display regions R9. Also, a weighting parameter or the like in the calculation between images can be set via the
また、画像間演算種の利用頻度に応じて画像間演算種テーブルの画像間演算種を変更してもよい。例えば画像間演算種テーブル記憶部16は、画像種ごとに画像間演算種の選択回数を記録しておき、この選択回数が最も多い画像間演算種を一定期間ごとに特定する。そして画像間演算種テーブル記憶部16は、特定された画像間演算種とその画像種とを画像間演算種テーブルに新たに関連付けることにより、画像間演算種テーブルを更新する。このような更新方法を採用することで画像処理装置は、利用頻度の多い画像間演算種を自動的に特定し、特定された種類の画像間演算を形態画像と機能画像とに実行させることができる。
Further, the inter-image calculation type in the inter-image calculation type table may be changed according to the use frequency of the inter-image calculation type. For example, the inter-image calculation type
このようなGUI画面を表示することで、画像種や画像間演算種の自動選択がうまく機能しない場合や、ユーザ自身が選択したい場合といった事態にも備えることができる。また、手動で画像間演算種を選択して合成画像をシミュレートできるので、さらに適した画像間演算種を発見でき、画像間演算種テーブルの更新にも役立てることができる。 By displaying such a GUI screen, it is possible to prepare for situations where the automatic selection of the image type and the inter-image calculation type does not function well, or when the user himself wants to select. Further, since the composite image can be simulated by manually selecting the inter-image calculation type, a more suitable inter-image calculation type can be found, which can be used for updating the inter-image calculation type table.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
以上本発明によれば、病巣領域の画像診断におけるユーザの手間の軽減を実現する画像処理装置の提供を実現することができる。 As mentioned above, according to this invention, provision of the image processing apparatus which implement | achieves reduction of a user's effort in the image diagnosis of a lesion area | region is realizable.
10…画像記憶部、12…画像種テーブル記憶部、14…反転/非反転テーブル記憶部、16…画像間演算種テーブル記憶部、18…入力部、20…画像種特定部、22…反転/非反転特定部、24…画像間演算種特定部、26…画像読み書き部、28…画像処理部、281…正規化処理部、282…反転処理部、283…位置合わせ部、284…画像間演算部、285…閾値処理部、286…マスク処理部、30…画像合成部、32…表示部、34…制御部
DESCRIPTION OF
Claims (5)
前記複数の画像種と複数の病名とを関連付けた第1テーブルを記憶する第1テーブル記憶部と、
前記複数の病名のうちのユーザにより入力された病名に前記第1テーブル上で関連付けられた第1の画像種と第2の画像種とを複数の画像種の中から特定する第1特定部と、
前記特定された第1の画像種に関する形態画像と第2の画像種に関する機能画像とを前記画像記憶部から読み出して画像処理を行い前記第2の画像種に関する機能画像から病巣領域を抽出する画像処理部と、
前記抽出された病巣領域と前記第1の画像種に関する形態画像とを重ねて表示する表示部と、
を具備する画像処理装置。 An image storage unit for storing data of a plurality of morphological images and data of a plurality of functional images related to a plurality of image types;
A first table storage unit for storing a first table in which the plurality of image types and a plurality of disease names are associated;
A first specifying unit that specifies, from among a plurality of image types, a first image type and a second image type associated with a disease name input by a user from among the plurality of disease names on the first table; ,
An image for reading out a morphological image related to the specified first image type and a functional image related to the second image type from the image storage unit and performing image processing to extract a lesion region from the functional image related to the second image type A processing unit;
A display unit for displaying the extracted lesion region and the morphological image relating to the first image type in an overlapping manner;
An image processing apparatus comprising:
前記ユーザにより入力された病名と前記第1の画像種との組み合わせに前記第2テーブル上で関連付けられた前記反転又は非反転を示す第1のコードを特定し、前記ユーザにより入力された病名と前記第2の画像種との組み合わせに前記第2テーブル上で関連付けられた前記反転又は非反転を示す第2のコードを特定する第2特定部と、をさらに備え、
前記画像処理部は、前記特定された第1のコードに応じて前記第1の画像種に関する形態画像を反転又は非反転し、前記特定された第2のコードに応じて前記第2の画像種に関する機能画像を反転又は非反転し、前記反転又は非反転された第1の画像種に関する形態画像と第2の画像種に関する機能画像とに特定の画像間演算をすることで、前記第2の画像種に関する機能画像から病巣領域を抽出する、
請求項1記載の画像処理装置。 A second table storage unit that stores a second table that associates the plurality of disease names, the plurality of image types, and a code indicating inversion or non-inversion of pixel values;
The first code indicating the inversion or non-inversion associated with the combination of the disease name input by the user and the first image type on the second table is specified, and the disease name input by the user A second specifying unit that specifies the second code indicating the inversion or non-inversion associated with the combination with the second image type on the second table;
The image processing unit inverts or non-inverts the morphological image related to the first image type according to the specified first code, and the second image type according to the specified second code. The function image is inverted or non-inverted, and a specific inter-image calculation is performed on the inverted or non-inverted form image related to the first image type and the function image related to the second image type. Extracting the lesion area from the functional image related to the image type,
The image processing apparatus according to claim 1.
前記第1の画像種と前記第2の画像種との組み合わせに前記第3テーブル上で関連付けられた前記特定の画像間演算を示す第3のコードを前記複数の画像間演算を示すコードの中から特定する第3特定部と、をさらに備え、
前記画像処理部は、前記特定された第3のコードに対応する前記特定の画像間演算を前記反転又は非反転された第1の画像種に関する形態画像と第2の画像種に関する機能画像とにすることで、前記機能画像から前記病巣領域を抽出する、
請求項2記載の画像処理装置。 A third table storage unit for storing a third table in which the plurality of image types and codes indicating a plurality of inter-image operations are associated;
Among the codes indicating the plurality of inter-image operations, the third code indicating the specific inter-image operation associated with the combination of the first image type and the second image type on the third table. A third specifying unit that is specified from
The image processing unit converts the specific inter-image operation corresponding to the specified third code into the morphological image relating to the inverted or non-inverted first image type and the functional image relating to the second image type. By extracting the lesion area from the functional image,
The image processing apparatus according to claim 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009162946A JP5380185B2 (en) | 2009-07-09 | 2009-07-09 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009162946A JP5380185B2 (en) | 2009-07-09 | 2009-07-09 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011015848A JP2011015848A (en) | 2011-01-27 |
JP5380185B2 true JP5380185B2 (en) | 2014-01-08 |
Family
ID=43594115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009162946A Active JP5380185B2 (en) | 2009-07-09 | 2009-07-09 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5380185B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013187150A1 (en) * | 2012-06-11 | 2013-12-19 | コニカミノルタ株式会社 | Medical image system and medical image processing device |
JP6768415B2 (en) * | 2016-08-29 | 2020-10-14 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
JP7348845B2 (en) * | 2020-01-09 | 2023-09-21 | 富士フイルムヘルスケア株式会社 | Ultrasound diagnostic equipment and programs |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005253641A (en) * | 2004-03-11 | 2005-09-22 | Rikogaku Shinkokai | Diagnosis supporting system |
US8160314B2 (en) * | 2004-06-18 | 2012-04-17 | Siemens Aktiengesellschaft | System and method for linking VOIs across timepoints for analysis of disease progression or response to therapy |
WO2006017172A1 (en) * | 2004-07-09 | 2006-02-16 | Fischer Imaging Corporation | Diagnostic system for multimodality mammography |
-
2009
- 2009-07-09 JP JP2009162946A patent/JP5380185B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011015848A (en) | 2011-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6230787B2 (en) | Inspection information display apparatus and method | |
JP5823259B2 (en) | Medical data generator | |
JP6438395B2 (en) | Automatic detection and retrieval of previous annotations associated with image material for effective display and reporting | |
WO2011122401A1 (en) | Inspection information display device and method | |
CN106529115B (en) | Information processing unit, information processing method | |
US9478021B2 (en) | Image display device, image display system, and image display method | |
JP2016521149A (en) | Context-driven overview view of radiation findings | |
JP5927591B2 (en) | CASE DISPLAY DEVICE, CASE DISPLAY METHOD, AND PROGRAM | |
US10181187B2 (en) | Information processing apparatus, method thereof, information processing system, and computer-readable storage medium that display a medical image with comment information | |
KR101576047B1 (en) | Method and apparatus of generating structured report including region of interest information in medical image reading processing | |
JP5355782B2 (en) | Control apparatus and method | |
US20180271460A1 (en) | System for Synthetic Display of Multi-Modality Data | |
JP5380185B2 (en) | Image processing device | |
JP7209047B2 (en) | CONVERSION APPARATUS, CONVERSION METHOD, AND PROGRAM | |
US10324582B2 (en) | Medical image display apparatus, method for controlling the same | |
JP2006061278A (en) | Medical image display unit | |
JP2011041585A (en) | Medical image display device and medical image management system | |
JP6440386B2 (en) | Information processing apparatus and program | |
KR20160011489A (en) | Apparatus and method for processing medical image | |
US9292762B2 (en) | Region extraction system | |
US20170322684A1 (en) | Automation Of Clinical Scoring For Decision Support | |
US20200135327A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2010227207A (en) | Supporting device and program for writing diagnostic reading report | |
CN111105872A (en) | Interaction method and device of medical image artificial intelligence auxiliary diagnosis system and PACS | |
Whelan et al. | Informatics in Radiology (info RAD) NeatVision: Visual Programming for Computer-aided Diagnostic Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120706 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130830 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5380185 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |