JP5380185B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5380185B2
JP5380185B2 JP2009162946A JP2009162946A JP5380185B2 JP 5380185 B2 JP5380185 B2 JP 5380185B2 JP 2009162946 A JP2009162946 A JP 2009162946A JP 2009162946 A JP2009162946 A JP 2009162946A JP 5380185 B2 JP5380185 B2 JP 5380185B2
Authority
JP
Japan
Prior art keywords
image
type
inversion
unit
functional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009162946A
Other languages
Japanese (ja)
Other versions
JP2011015848A (en
Inventor
義強 楊
仁 山形
友寛 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP2009162946A priority Critical patent/JP5380185B2/en
Publication of JP2011015848A publication Critical patent/JP2011015848A/en
Application granted granted Critical
Publication of JP5380185B2 publication Critical patent/JP5380185B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、病巣領域の画像診断を支援するための画像処理装置に関する。   The present invention relates to an image processing apparatus for supporting image diagnosis of a lesion area.

例えば、特許文献1に示すように、病巣領域の画像診断を支援する画像処理装置がある。画像処理装置は、ユーザにより指定された形態画像と機能画像とに対して、ユーザにより指定された画像処理をすることで、病巣領域が強調された画像を生成して表示している。現在、画像処理のための臨床アプリケーションには、種々の画像処理機能が独立して実装されている。そのためユーザは、数ある種類の形態画像と機能画像との中から、病巣領域を抽出するための形態画像と機能画像との組み合わせを試行錯誤的に指定しなければならない。また、病巣領域を抽出するための画像処理の種類も多数あるため、これもユーザにより試行錯誤的に指定されている。従って、ユーザは、意図した画像を生成するまでに何回も画像種を選択したり、画像処理種を選択したりしなければならず、とても手間がかかっている。   For example, as disclosed in Patent Document 1, there is an image processing apparatus that supports image diagnosis of a lesion area. The image processing apparatus performs image processing specified by the user on the morphological image and functional image specified by the user, thereby generating and displaying an image in which the lesion area is emphasized. Currently, various image processing functions are independently implemented in clinical applications for image processing. Therefore, the user must specify a combination of a morphological image and a functional image for extracting a lesion area from among various types of morphological images and functional images by trial and error. In addition, since there are many types of image processing for extracting the lesion area, this is also designated by the user on a trial and error basis. Therefore, the user has to select an image type or an image processing type many times before generating an intended image, which is very troublesome.

特開2003―126076号公報Japanese Patent Laid-Open No. 2003-126076

本発明の目的は、病巣領域の画像診断におけるユーザの手間の軽減を実現する画像処理装置を提供することにある。   The objective of this invention is providing the image processing apparatus which implement | achieves reduction of a user's effort in the image diagnosis of a lesion area | region.

本発明の第1局面に係る画像処理装置は、複数の画像種に関する複数の形態画像のデータと複数の機能画像のデータとを記憶する画像記憶部と、前記複数の画像種と複数の病名とを関連付けた第1テーブルを記憶する第1テーブル記憶部と、前記複数の病名のうちのユーザにより入力された病名に前記第1テーブル上で関連付けられた第1の画像種と第2の画像種とを複数の画像種の中から特定する第1特定部と、前記特定された第1の画像種に関する形態画像と第2の画像種に関する機能画像とを画像記憶部から読み出して画像処理を行い前記第2の画像種に関する機能画像から病巣領域を抽出する画像処理部と、前記抽出された病巣領域と前記第1の画像種に関する形態画像とを重ねて表示する表示部と、を具備する。   An image processing apparatus according to a first aspect of the present invention includes an image storage unit that stores data of a plurality of morphological images and data of a plurality of functional images related to a plurality of image types, the plurality of image types, and a plurality of disease names. A first table storage unit that stores a first table that associates the first table, and a first image type and a second image type that are associated on the first table with a disease name input by a user among the plurality of disease names Are read out from the image storage unit, and the image processing is performed on the first specifying unit that specifies the image type from a plurality of image types, the morphological image related to the specified first image type, and the functional image related to the second image type. An image processing unit that extracts a lesion area from a functional image related to the second image type; and a display unit that displays the extracted lesion area and a morphological image related to the first image type in an overlapping manner.

本発明によれば、病巣領域の画像診断におけるユーザの手間の軽減を実現する画像処理装置を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the image processing apparatus which implement | achieves reduction of a user's effort in the image diagnosis of a lesion area | region.

本発明の実施形態に係る画像処理装置の構成を示す図。1 is a diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 図1の画像種テーブル記憶部に記憶される画像種テーブルの一例を示す図。The figure which shows an example of the image type table memorize | stored in the image type table memory | storage part of FIG. 図1の反転/非反転テーブル記憶部に記憶される反転/非反転テーブルの一例を示す図。The figure which shows an example of the inversion / non-inversion table memorize | stored in the inversion / non-inversion table memory | storage part of FIG. 図1の画像間演算種テーブル記憶部に記憶される画像間演算種テーブルの一例を示す図。The figure which shows an example of the calculation type table between images memorize | stored in the calculation type table storage part between images of FIG. 図1の制御部の制御のもとに実行される画像処理の典型的な流れを示す図。The figure which shows the typical flow of the image process performed under control of the control part of FIG. 図5の流れの中で行なわれる画像処理の流れを画像とともに示す図。The figure which shows the flow of the image processing performed in the flow of FIG. 5 with an image. 図5のステップS4において実行される正規化処理を説明するための図であり、各画像の画素値範囲を示す図。It is a figure for demonstrating the normalization process performed in step S4 of FIG. 5, and is a figure which shows the pixel value range of each image. 図5のステップS4における正規化スケールの算出手順を示す図。The figure which shows the calculation procedure of the normalization scale in step S4 of FIG. 図5のステップS4における正規化スケールの算出手順を示す他の図。The other figure which shows the calculation procedure of the normalization scale in step S4 of FIG. 図5のステップS4における正規化スケールの算出手順を示す他の図。The other figure which shows the calculation procedure of the normalization scale in step S4 of FIG. 図5のステップS8において実行される画像間演算について説明するための図。The figure for demonstrating the calculation between images performed in FIG.5 S8. 図5のステップS14における病巣領域の輪郭強調表示の一例を示す図。The figure which shows an example of the outline emphasis display of the lesion area | region in step S14 of FIG. 図5のステップS14における病巣領域の内部強調表示の一例を示す図。The figure which shows an example of the internal highlight display of the lesion area | region in FIG.5 S14. 図1の表示部により表示されるGUI画面例を示す図。The figure which shows the example of a GUI screen displayed by the display part of FIG.

以下、図面を参照しながら本発明の実施形態に係わる画像処理装置を説明する。本実施形態に係る画像処理装置は、ある検査部位に存在が疑われる病巣領域の画像診断を支援するコンピュータ装置である。本実施形態に係る検査部位は、特に限定されず如何なる部位にも適用可能である。しかしながら、以下の説明を具体的に行うため、検査部位は、脳であるものとする。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. The image processing apparatus according to the present embodiment is a computer apparatus that supports image diagnosis of a lesion area suspected of being present at a certain examination site. The examination site according to the present embodiment is not particularly limited and can be applied to any site. However, in order to specifically describe the following, it is assumed that the examination site is the brain.

図1は、本発明の画像処理装置の構成を示す図である。図1に示すように画像処理装置は、画像記憶部10、画像種テーブル記憶部12、反転/非反転テーブル記憶部14、画像間演算種テーブル記憶部16、入力部18、画像種特定部20、反転/非反転特定部22、画像間演算種特定部24、画像読み書き部26、画像処理部28、画像合成部30、表示部32、及び制御部34を備える。   FIG. 1 is a diagram showing a configuration of an image processing apparatus according to the present invention. As shown in FIG. 1, the image processing apparatus includes an image storage unit 10, an image type table storage unit 12, an inversion / non-inversion table storage unit 14, an inter-image calculation type table storage unit 16, an input unit 18, and an image type specification unit 20. , An inversion / non-inversion specifying unit 22, an inter-image calculation type specifying unit 24, an image reading / writing unit 26, an image processing unit 28, an image composition unit 30, a display unit 32, and a control unit 34.

画像記憶部10は、複数の画像種に関する複数の形態画像のデータと複数の画像種に関する複数の機能画像のデータとを記憶する。形態画像と機能画像とのそれぞれは、X線診断装置、X線コンピュータ断層撮影装置、磁気共鳴イメージング装置、超音波診断装置、及び核医学診断装置のうちの1つのモダリティにより生成された画像である。また、形態画像と機能画像とのそれぞれは、ボリュームレンダリング等の3次元画像処理により生成された3次元画像であっても、画素値投影処理や多断面変換等により生成された2次元画像であってもよい。なお、以下の説明を具体的に行うため、形態画像と機能画像とのそれぞれは、磁気共鳴イメージング装置により生成されたものであるとする。また、形態画像と機能画像とのそれぞれは、2次元画像であるとする。   The image storage unit 10 stores a plurality of morphological image data regarding a plurality of image types and a plurality of functional image data regarding a plurality of image types. Each of the morphological image and the functional image is an image generated by one modality among an X-ray diagnostic apparatus, an X-ray computed tomography apparatus, a magnetic resonance imaging apparatus, an ultrasonic diagnostic apparatus, and a nuclear medicine diagnostic apparatus. . Further, each of the morphological image and the functional image is a two-dimensional image generated by pixel value projection processing, multi-section conversion, or the like, even if it is a three-dimensional image generated by three-dimensional image processing such as volume rendering. May be. In order to specifically describe the following, it is assumed that each of the morphological image and the functional image is generated by a magnetic resonance imaging apparatus. Further, it is assumed that each of the morphological image and the functional image is a two-dimensional image.

画像種テーブル記憶部12は、複数の画像種と複数の病名とを関連付けたテーブル(以下、画像種テーブルと呼ぶことにする)を記憶する。図2は、画像種テーブルの一例を示す図である。図2に示すように、画像種テーブルは、画像の項目として形態画像項目と機能画像項目とを有している。形態画像項目は、脳の形態情報を観察するための形態画像の画像種が関連付けられている。機能画像項目は、病名に応じて細分されており、各病名に対応する病巣領域を観察するのに適した機能画像の画像種が関連付けられている。病名としては、脳梗塞、脳出血、脳腫瘍等がある。画像種としては、T1やT2、MRA(MR Angiography)、PWI(Perfusion Weighted Image)、DWI(Diffusion Weighted Image)、fMRI(functional MRI)等がある。形態画像と機能画像との組み合わせは、優先度に応じて順位付けされている。優先順位は、特定の病気に対する画像種の利用頻度に応じている。利用頻度が高ければ優先順位も高い。例えば、脳梗塞を診断したい場合、形態画像「T1」と機能画像「PWI」との組み合わせが最も優先順位が高い。その次は、形態画像「MRA」と機能画像「DWI」との組み合わせである。   The image type table storage unit 12 stores a table in which a plurality of image types and a plurality of disease names are associated (hereinafter referred to as an image type table). FIG. 2 is a diagram illustrating an example of an image type table. As shown in FIG. 2, the image type table has a morphological image item and a functional image item as image items. The morphological image item is associated with an image type of a morphological image for observing brain morphological information. The functional image items are subdivided according to disease names, and image types of functional images suitable for observing a lesion region corresponding to each disease name are associated with each other. Disease names include cerebral infarction, cerebral hemorrhage, brain tumor and the like. Examples of image types include T1, T2, MRA (MR Angiography), PWI (Perfusion Weighted Image), DWI (Diffusion Weighted Image), and fMRI (functional MRI). Combinations of morphological images and functional images are ranked according to priority. The priority order depends on the use frequency of the image type for a specific disease. The higher the usage frequency, the higher the priority. For example, when cerebral infarction is to be diagnosed, the combination of the morphological image “T1” and the functional image “PWI” has the highest priority. Next is the combination of the morphological image “MRA” and the functional image “DWI”.

反転/非反転テーブル記憶部14は、複数の画像種と複数の病名と画素値の反転又は非反転を示すコードとを関連づけたテーブル(以下、反転/非反転テーブルと呼ぶことにする)を記憶する。図3は、反転/非反転テーブルの一例を示す図である。図3に示すように、反転/非反転テーブルは、形態画像や機能画像の画像種と病名との組み合わせに反転又は非反転を示すコードを関連付けている。反転は、病名に対応する病巣領域を抽出するために行われる画像処理の一つであり、形態画像や機能画像の画素値を反転させることであり、非反転は、画素値を反転させないことである。   The inversion / non-inversion table storage unit 14 stores a table in which a plurality of image types, a plurality of disease names, and codes indicating inversion or non-inversion of pixel values are associated (hereinafter referred to as an inversion / non-inversion table). To do. FIG. 3 is a diagram illustrating an example of the inversion / non-inversion table. As shown in FIG. 3, the inversion / non-inversion table associates a code indicating inversion or non-inversion with a combination of an image type and a disease name of a morphological image or a functional image. Inversion is one of the image processing performed to extract the lesion area corresponding to the disease name, and is to invert the pixel values of the morphological image and the functional image. Non-inversion is not to invert the pixel values. is there.

画像間演算種テーブル記憶部16は、形態画像の画像種と機能画像の画像種との組み合わせと、画像間演算種とを関連付けたテーブル(以下、画像間演算種テーブルと呼ぶことにする)を記憶する。図4は、画像間演算種テーブルの一例を示す図である。図4に示すように、画像間演算種テーブルは、形態画像の画像種と機能画像の画像種との組み合わせに画像間演算種を関連付けている。画像間演算は、病巣領域を抽出するために行われる画像処理の一つであり、形態画像と機能画像とに対して行われる論理演算や四則演算である。論理演算としては、例えば、論理和や論理積等があり、四則演算としては、例えば、加算や減算等がある。画像間演算種は、画像種毎に一般的に使用される画像間演算種に設定されている。   The inter-image calculation type table storage unit 16 is a table (hereinafter referred to as an inter-image calculation type table) that associates the combination of the image type of the morphological image and the image type of the functional image with the inter-image calculation type. Remember. FIG. 4 is a diagram illustrating an example of an inter-image calculation type table. As shown in FIG. 4, the inter-image calculation type table associates the inter-image calculation type with a combination of the image type of the morphological image and the image type of the functional image. The inter-image calculation is one of image processes performed to extract a lesion area, and is a logical operation or four arithmetic operations performed on a morphological image and a functional image. Examples of the logical operation include logical sum and logical product, and examples of the four arithmetic operations include addition and subtraction. The calculation type between images is set to the calculation type between images generally used for every image type.

入力部18は、キーボードやマウス等の入力デバイスである。入力部18は、ユーザからの種々の指示や情報を入力する。例えば、入力部18は、病名を入力したり、本実施形態に関わる画像処理の開始指示を入力したり、画像上の位置を指定したりする。   The input unit 18 is an input device such as a keyboard or a mouse. The input unit 18 inputs various instructions and information from the user. For example, the input unit 18 inputs a disease name, inputs an instruction to start image processing according to the present embodiment, and specifies a position on the image.

画像種特定部20は、入力部18から入力された病名をキーワードとして画像種テーブルを検索し、このキーワードに画像種テーブルで関連付けられている形態画像の画像種と機能画像の画像種とをそれぞれ特定する。より詳細には、画像種特定部20は、キーワードに関連付けられた画像種のうち、画像記憶部10に記憶されている形態画像の画像種と機能画像の画像種とであって、優先度の高い画像種を特定する。   The image type specifying unit 20 searches the image type table using the disease name input from the input unit 18 as a keyword, and the image type of the morphological image and the image type of the functional image associated with this keyword in the image type table, respectively. Identify. More specifically, the image type identification unit 20 includes the image type of the morphological image and the image type of the functional image stored in the image storage unit 10 among the image types associated with the keyword, Identify high image types.

反転/非反転特定部22は、画像種特定部20により特定された形態画像の画像種と入力部18から入力された病名との組み合わせをキーワードとして反転/非反転テーブルを検索し、このキーワードに反転/非反転テーブルで関連付けられている反転又は非反転を示すコードを特定する。同様にして反転/非反転特定部22は、画像種特定部20により特定された機能画像の画像種と入力部18から入力された病名との組み合わせをキーワードとして反転/非反転テーブルを検索し、このキーワードに反転/非反転テーブルで関連付けられている反転又は非反転を示すコードを特定する。   The inversion / non-inversion specifying unit 22 searches the inversion / non-inversion table using the combination of the image type of the morphological image specified by the image type specifying unit 20 and the disease name input from the input unit 18 as a keyword. A code indicating inversion or non-inversion associated with the inversion / non-inversion table is specified. Similarly, the inversion / non-inversion specifying unit 22 searches the inversion / non-inversion table using the combination of the image type of the functional image specified by the image type specifying unit 20 and the disease name input from the input unit 18 as a keyword, A code indicating inversion or non-inversion associated with this keyword in the inversion / non-inversion table is specified.

画像間演算種特定部24は、画像種特定部20により特定された形態画像の画像種と機能画像の画像種との組み合わせをキーワードとして画像間演算種テーブルを検索し、このキーワードに画像間演算種テーブルで関連付けられている画像間演算種を特定する。   The inter-image calculation type specifying unit 24 searches the inter-image calculation type table using the combination of the image type of the morphological image specified by the image type specifying unit 20 and the image type of the functional image as a keyword. An inter-image operation type associated with the seed table is specified.

画像読み書き部26は、画像種特定部20により特定された形態画像の画像種に対応する形態画像のデータを画像記憶部10から読み出す。また、画像読み書き部26は、画像種特定部20により特定された機能画像の画像種に対応する機能画像のデータを画像記憶部26から読み出す。また、画像読み書き部26は、画像合成部30により生成された合成画像のデータを画像記憶部10に書き込む。   The image read / write unit 26 reads data of the morphological image corresponding to the image type of the morphological image specified by the image type specifying unit 20 from the image storage unit 10. Further, the image read / write unit 26 reads from the image storage unit 26 data of a functional image corresponding to the image type of the functional image specified by the image type specifying unit 20. The image read / write unit 26 writes the composite image data generated by the image composition unit 30 in the image storage unit 10.

画像処理部28は、画像読み書き部26により読み出された形態画像と機能画像とに種々の画像処理をし、機能画像から病巣領域を抽出する。具体的には、画像処理部28は、正規化処理部281、反転処理部282、位置合わせ部283、画像間演算部284、閾値処理部285、及びマスク処理部286備える。正規化処理部281は、形態画像と機能画像との画素値範囲を同一範囲内に収めるために正規化処理をする。反転処理部282は、反転/非反転特定部22により特定されたコードに応じて形態画像の画素値を反転又は非反転する。同様に反転処理部282は、反転/非反転特定部22により特定されたコードに応じて機能画像の画素値を反転又は非反転する。位置合わせ部283は、形態画像と機能画像との解剖学的同一位置を位置合わせする。画像間演算部284は、画像間演算種特定部24により特定された画像間演算種に対応する画像間演算を形態画像と機能画像とに行ない、単一の出力画像(以下、演算画像と呼ぶことにする)のデータを生成する。閾値処理部285は、ユーザにより入力部18を介して演算画像上に指定された位置の画素値に基づいて閾値を決定し、決定された閾値で演算画像を閾値処理し、2値化画像のデータを生成する。マスク処理部286は、閾値処理部285により生成された2値化画像をマスクとして機能画像をマスク処理し、機能画像から病巣領域を抽出する。   The image processing unit 28 performs various image processing on the morphological image and the functional image read by the image reading / writing unit 26 and extracts a lesion area from the functional image. Specifically, the image processing unit 28 includes a normalization processing unit 281, an inversion processing unit 282, an alignment unit 283, an inter-image calculation unit 284, a threshold processing unit 285, and a mask processing unit 286. The normalization processing unit 281 performs normalization processing so that the pixel value ranges of the morphological image and the functional image fall within the same range. The inversion processing unit 282 inverts or non-inverts the pixel value of the morphological image according to the code specified by the inversion / non-inversion specifying unit 22. Similarly, the inversion processing unit 282 inverts or noninverts the pixel value of the functional image in accordance with the code specified by the inversion / non-inversion specifying unit 22. The alignment unit 283 aligns the same anatomical positions of the morphological image and the functional image. The inter-image calculation unit 284 performs an inter-image calculation corresponding to the inter-image calculation type specified by the inter-image calculation type specifying unit 24 for the morphological image and the functional image, and a single output image (hereinafter referred to as a calculation image). Data). The threshold processing unit 285 determines a threshold based on a pixel value at a position specified on the calculation image via the input unit 18 by the user, performs threshold processing on the calculation image with the determined threshold, and performs binarization of the binarized image. Generate data. The mask processing unit 286 performs mask processing on the functional image using the binarized image generated by the threshold processing unit 285 as a mask, and extracts a lesion area from the functional image.

画像合成部30は、画像処理部28により抽出された病巣領域と形態画像とを合成し、合成画像のデータを生成する。   The image synthesizing unit 30 synthesizes the lesion area and the morphological image extracted by the image processing unit 28, and generates synthesized image data.

表示部32は、画像合成部30により生成された合成画像を表示する。換言すれば、表示部32は、形態画像と機能画像から抽出された病巣領域とを重ね合わせて表示する。この際表示部32は、病巣領域を強調して表示する。   The display unit 32 displays the composite image generated by the image composition unit 30. In other words, the display unit 32 displays the morphological image and the lesion area extracted from the functional image in a superimposed manner. At this time, the display unit 32 highlights and displays the lesion area.

制御部34は、画像処理装置の中枢として機能する。制御部34は、図示しないハードディスク等に記憶されている画像処理プログラムをメモリ上に展開し、この画像処理プログラムに従って各部を制御することにより、本実施形態に特有な画像処理を実行する。   The control unit 34 functions as the center of the image processing apparatus. The control unit 34 develops an image processing program stored in a hard disk (not shown) on the memory, and controls each unit according to the image processing program, thereby executing image processing unique to the present embodiment.

以下、制御部34の制御により実行される、本実施形態に係る画像処理の臨床応用例を説明する。図5は、制御部34の制御のもとに実行される画像処理の典型的な流れを示す図である。また、図6は、図5の流れの中で行なわれる画像処理の流れを画像とともに示す図である。   Hereinafter, clinical application examples of image processing according to the present embodiment, which are executed under the control of the control unit 34, will be described. FIG. 5 is a diagram illustrating a typical flow of image processing executed under the control of the control unit 34. FIG. 6 is a diagram showing a flow of image processing performed in the flow of FIG. 5 together with an image.

制御部34は、ユーザにより入力部18を介して画像処理の開始指示がなされると、本実施形態に係る画像処理を開始する。まず制御部34は、入力部18を介して病名の候補が入力されるのを待機している(ステップS1)。病名は、入力部18を介して直接的に入力されるとしてもよいし、表示部32に表示される病名候補リスト上で選択されるとしてもよい。   When the user gives an instruction to start image processing via the input unit 18, the control unit 34 starts image processing according to the present embodiment. First, the control unit 34 waits for a disease name candidate to be input via the input unit 18 (step S1). The disease name may be directly input via the input unit 18 or may be selected on the disease name candidate list displayed on the display unit 32.

ユーザにより入力部18を介して病名が入力されると(ステップS1:YES)、制御部34は、画像種特定部20に画像種の特定処理を行なわせる(ステップS2)。ステップS2において画像種特定部20は、入力部18により入力された病名をキーワードとして画像種テーブルを検索し、このキーワードに画像種テーブル上で関連付けられている画像種を特定する(図2参照)。この際、画像種特定部20は、病名に関連付けられている形態画像の画像種と機能画像の画像種との組み合わせのうち、優先順位の高い画像種の組み合わせを特定する。特定された画像種の組み合わせに対応する形態画像と機能画像とが画像記憶部10に記憶されていない場合、より下位の優先順位の画像種の組み合わせであってその形態画像と機能画像との両方が画像記憶部10に記憶されているものが採用される。   When a disease name is input by the user via the input unit 18 (step S1: YES), the control unit 34 causes the image type specifying unit 20 to perform an image type specifying process (step S2). In step S2, the image type specifying unit 20 searches the image type table using the disease name input by the input unit 18 as a keyword, and specifies the image type associated with this keyword on the image type table (see FIG. 2). . At this time, the image type specifying unit 20 specifies a combination of image types having a high priority among combinations of image types of morphological images and functional images associated with disease names. When the morphological image and the functional image corresponding to the identified combination of image types are not stored in the image storage unit 10, the combination is a lower priority image type and both the morphological image and the functional image Is stored in the image storage unit 10.

ステップS2が行なわれると制御部34は、画像読み書き部26に画像の読み出し処理を行なわせる(ステップS3)。ステップS3において画像読み書き部26は、ステップS2において特定された画像種に対応する形態画像のデータと機能画像のデータとを画像記憶部10からそれぞれ読み出す。形態画像と機能画像とは、例えば、DICOM(Digital Imaging and COmmunications in Medicine)規格に準拠して階層化されて画像記憶部10に管理されている。読み出される形態画像と機能画像とは、同一の検査や同一のシリーズに属するものである。例えば、ステップS3において、形態画像の画像種がT1強調画像であり機能画像の画像種がT2強調画像の場合、画像読み書き部26は、同一のシリーズに属するT1強調画像のデータとT2強調画像のデータとを読み出す。   When step S2 is performed, the control unit 34 causes the image read / write unit 26 to perform image reading processing (step S3). In step S <b> 3, the image read / write unit 26 reads from the image storage unit 10 morphological image data and functional image data corresponding to the image type specified in step S <b> 2. The morphological image and the functional image are hierarchized in accordance with, for example, the DICOM (Digital Imaging and Communication in Medicine) standard and managed in the image storage unit 10. The read morphological image and functional image belong to the same examination or the same series. For example, in step S3, when the image type of the morphological image is a T1-weighted image and the image type of the functional image is a T2-weighted image, the image read / write unit 26 stores the data of the T1-weighted image and the T2-weighted image belonging to the same series. Read data and.

ステップS3が行なわれると制御部34は、画像処理部28の正規化処理部281に正規化処理を行なわせる(ステップS4)。ステップS4において正規化処理部281は、ステップS3において読み出された形態画像と機能画像との両方を正規化する。正規化は、形態画像と機能画像との画素値範囲を同一にするために行なわれる。   When step S3 is performed, the control unit 34 causes the normalization processing unit 281 of the image processing unit 28 to perform normalization processing (step S4). In step S4, the normalization processing unit 281 normalizes both the morphological image and the functional image read in step S3. Normalization is performed in order to make the pixel value ranges of the morphological image and the functional image the same.

図7は、正規化処理を説明するための図であり、各画像I1、I2、I3の画素値範囲を示す図である。画像I1、I2、及びI3は、同一のシリーズに属しているものとする。図7に示すように、画像が異なればその画素値範囲も異なってくる。例えば、画像I1の画素値範囲は、最小画素値I1min〜最大画素値I1maxである。また、画像I2の画素値範囲は、最小画素値I2min〜最大画素値I2maxであり、画像I3の画素値範囲は、最小画素値I3min〜最大画素値I3maxである。これら画像I1、I2、I3にそのまま画像間演算を実行しても、画素値範囲が異なるために病巣領域の抽出精度が悪い。そのために正規化処理が行なわれる。   FIG. 7 is a diagram for explaining the normalization process, and is a diagram illustrating pixel value ranges of the respective images I1, I2, and I3. The images I1, I2, and I3 are assumed to belong to the same series. As shown in FIG. 7, if the images are different, the pixel value ranges are also different. For example, the pixel value range of the image I1 is the minimum pixel value I1min to the maximum pixel value I1max. The pixel value range of the image I2 is the minimum pixel value I2min to the maximum pixel value I2max, and the pixel value range of the image I3 is the minimum pixel value I3min to the maximum pixel value I3max. Even if the inter-image calculation is directly performed on these images I1, I2, and I3, the extraction accuracy of the lesion area is poor because the pixel value ranges are different. For this purpose, normalization processing is performed.

正規化処理においては、まず、図7に示すように、画像間演算の対象画像、すなわち形態画像と機能画像との画素値範囲をそれぞれ特定する。そして画素値範囲の中の最小画素値Sminと最大画素値Smaxとを特定する。換言すれば、同一シリーズに関する画像の画素値の中の最小画素値Sminと最大画素値Smaxとが特定される。   In the normalization process, first, as shown in FIG. 7, the target image of the inter-image calculation, that is, the pixel value range of the morphological image and the functional image is specified. Then, the minimum pixel value Smin and the maximum pixel value Smax in the pixel value range are specified. In other words, the minimum pixel value Smin and the maximum pixel value Smax among the pixel values of the images related to the same series are specified.

正規化処理部281は、特定された最小画素値Sminと最大画素値Smaxと下記の(1)式と(2)式とに基づいて、形態画像と機能画像とをそれぞれ正規化する。
new_pixval=orig_pixval*fscale …(1)
fscale=65535/(2*max(|Smin|,|Smax|)) …(2)
new_pixval:正規化後の画素値
orig_pixval:正規化前の画素値
fscale:正規化スケール
以下に正規化スケールfscaleの算出手順を図8、図9、及び図10参照しながら説明する。なお図8のグラフ、図9のグラフ、及び図10の上のグラフの横軸の左端FLT_MINは、浮動小数点演算において取り得る画素値の最小値であり、右端FLT_MAXは、浮動小数点演算において取る得る画素値の最大値である。浮動小数点演算は、正規化前の画像のデータ型の一例である。まず、図8に示すように、最小画素値Sminと最大画素値Smaxとが特定されると、最小画素値Sminと最大画素値Smaxとのうちの絶対値が大きい方を特定する。この処理は(2)式のmax(|Smin|,|Smax|)に相当する。図8の場合、最小画素値Sminの方が最大画素値Smaxに比して絶対値が大きいので、最小画素値Sminが特定される。次に図9に示すように、特定された絶対値に2を乗じ、正規化範囲を算出する。正規化範囲は、正規化の対象範囲である。この処理は(2)式の2*max(|Smin|,|Smax|)に相当する。
The normalization processing unit 281 normalizes the morphological image and the functional image based on the specified minimum pixel value Smin, maximum pixel value Smax, and the following expressions (1) and (2).
new_pixval = orig_pixval * fscalar (1)
fscale = 65535 / (2 * max (| Smin |, | Smax |)) (2)
new_pixval: pixel value after normalization
orig_pixval: pixel value before normalization
fscale: Normalized scale A procedure for calculating the normalized scale fscale will be described below with reference to FIGS. 8, 9, and 10. FIG. The left end FLT_MIN on the horizontal axis of the graph of FIG. 8, FIG. 9, and the upper graph of FIG. 10 is the minimum pixel value that can be taken in the floating point arithmetic, and the right end FLT_MAX can be taken in the floating point arithmetic. This is the maximum pixel value. Floating point arithmetic is an example of the data type of an image before normalization. First, as shown in FIG. 8, when the minimum pixel value Smin and the maximum pixel value Smax are specified, the larger one of the minimum pixel value Smin and the maximum pixel value Smax is specified. This process corresponds to max (| Smin |, | Smax |) in equation (2). In the case of FIG. 8, since the absolute value of the minimum pixel value Smin is larger than that of the maximum pixel value Smax, the minimum pixel value Smin is specified. Next, as shown in FIG. 9, the normalized range is calculated by multiplying the specified absolute value by 2. The normalization range is a range to be normalized. This processing corresponds to 2 * max (| Smin |, | Smax |) in the equation (2).

そして図10に示すように、算出された正規化範囲と正規化後のデータ型の画素値範囲とに基づいて、正規化スケールfscaleを算出する。図10の下のグラフの横軸の左端SHORT_MINは、短精度浮動小数点演算において取りうる画素値の最小値であり、右端SHORT_MAXは、短精度浮動小数点演算において取る得る画素値の最大値である。短精度浮動小数点演算は、正規化後の画像のデータ型の一例である。短精度浮動小数点演算が取りうる画素値範囲は、正規化後の画像が取りうる画素値範囲であり、65536である。正規化スケールは、正規化後の画像が取りうる画素値範囲65536を正規化範囲2*max(|Smin|,|Smax|)で除すことにより算出される。この処理は、(2)式の65535/(2*max(|Smin|,|Smax|))に相当する。   Then, as shown in FIG. 10, a normalization scale fscale is calculated based on the calculated normalization range and the pixel value range of the data type after normalization. The left end SHORT_MIN on the horizontal axis of the lower graph of FIG. 10 is the minimum pixel value that can be taken in the short-precision floating-point operation, and the right end SHORT_MAX is the maximum pixel value that can be taken in the short-precision floating-point operation. The short-precision floating-point operation is an example of the data type of the image after normalization. The pixel value range that can be taken by the short-precision floating-point operation is a pixel value range that can be taken by the image after normalization, which is 65536. The normalization scale is calculated by dividing the pixel value range 65536 that can be taken by the normalized image by the normalization range 2 * max (| Smin |, | Smax |). This processing corresponds to 65535 / (2 * max (| Smin |, | Smax |)) in the equation (2).

ステップS4が行なわれると制御部34は、反転/非反転特定部22に反転/非反転の特定処理を行なわせる(ステップS5)。ステップS5において反転/非反転特定部22は、ステップS1において入力された病名とステップS2において特定された画像種との組み合わせをキーワードとして反転/非反転テーブルを検索し、このキーワードに反転/非反転テーブル上で関連付けられた反転又は非反転を示すコードを特定する(図3参照)。反転又は非反転は、形態画像と機能画像とのそれぞれについて特定される。反転又は非反転は、画像間演算種テーブルの画像演算種と密接に関連している。反転又は非反転の決定方法についてはステップS9において説明する。   When step S4 is performed, the control unit 34 causes the inversion / non-inversion specifying unit 22 to perform inversion / non-inversion specifying processing (step S5). In step S5, the inversion / non-inversion specifying unit 22 searches the inversion / non-inversion table using the combination of the disease name input in step S1 and the image type specified in step S2 as a keyword, and inversion / non-inversion to this keyword. A code indicating inversion or non-inversion associated on the table is specified (see FIG. 3). Inversion or non-inversion is specified for each of the morphological image and the functional image. Inversion or non-inversion is closely related to the image operation type in the inter-image operation type table. The inversion or non-inversion determination method will be described in step S9.

ステップS5が行なわれると制御部34は、画像処理部28の反転処理部282に反転処理を行なわせる(ステップS6)。ステップS6において反転処理部282は、ステップS5において特定されたコードに従って、正規化された形態画像と機能画像との画素値をそれぞれ反転又は非反転する。例えば、図6に示すように、形態画像はT1強調画像IM、機能画像はT2強調画像IFであるとする。T1強調画像IMとT2強調画像IFとのそれぞれには、脳腫瘍に由来する病巣領域が描出されている。よく知られているように、T1強調画像IMにおいて水は黒く描出され、T2強調画像IFにおいて水は白く描出される。従って水分を多く含む脳腫瘍は、T1強調画像IMにおいて黒く描出され、T2強調画像IFにおいて白く描出される。この場合、反転処理部282は、低画素値の病巣領域を高画素値にするためにT1強調画像IMの画素値を反転させることにより、低画素値の病巣領域を高画素値に反転させる。画素値が反転させられた形態画像IRにおいては、脳腫瘍に由来する病変領域が白く描出される。一方高画素値の病巣領域を有するT2強調画像IFについては、画素値を非反転させる、すなわち反転させない。   When step S5 is performed, the control unit 34 causes the inversion processing unit 282 of the image processing unit 28 to perform inversion processing (step S6). In step S6, the inversion processing unit 282 inverts or non-inverts the pixel values of the normalized morphological image and functional image, respectively, according to the code specified in step S5. For example, as shown in FIG. 6, it is assumed that the morphological image is a T1-weighted image IM and the functional image is a T2-weighted image IF. In each of the T1-weighted image IM and the T2-weighted image IF, a lesion region derived from a brain tumor is depicted. As is well known, water is drawn black in the T1-weighted image IM, and water is drawn white in the T2-weighted image IF. Therefore, the brain tumor containing a lot of water is drawn black in the T1-weighted image IM and white in the T2-weighted image IF. In this case, the inversion processing unit 282 inverts the low-pixel-value lesion area to the high-pixel value by inverting the pixel value of the T1-weighted image IM in order to set the low-pixel-value lesion area to the high-pixel value. In the morphological image IR in which the pixel value is inverted, the lesion area derived from the brain tumor is drawn white. On the other hand, for the T2-weighted image IF having a high pixel value lesion area, the pixel value is not inverted, that is, not inverted.

ステップS6が行なわれると制御部34は、画像処理部28の位置合わせ部283に位置合わせ処理を行なわせる。(ステップS7)。ステップS7において位置合わせ部283は、反転又は非反転された形態画像と機能画像との解剖学上同一点を位置合わせする。この位置合わせは、後述の画像間演算(ステップS9)を精度良く行なうために行なわれる。位置合わせの方法としては、既存の如何なる方法を用いてもよい。例えば、画像撮影時にマーカ等を使用して画像上に標示された位置に基づく方法等がある。   When step S6 is performed, the control unit 34 causes the alignment unit 283 of the image processing unit 28 to perform alignment processing. (Step S7). In step S7, the alignment unit 283 aligns anatomically identical points of the inverted or non-inverted morphological image and functional image. This alignment is performed in order to perform an inter-image calculation (step S9) described later with high accuracy. Any existing method may be used as the alignment method. For example, there is a method based on a position marked on an image using a marker or the like at the time of image capturing.

ステップS7が行なわれると制御部34は、画像間演算種特定部24に画像間演算種の特定処理を行なわせる(ステップS8)。ステップS8において画像間演算種特定部24は、ステップS2において特定された形態画像の画像種と機能画像の画像種との組み合わせをキーワードとして画像間演算種テーブルを検索し、このキーワードに画像間演算種テーブル上で関連付けられた画像間演算種を特定する(図4参照)。画像間演算は、形態画像と機能画像とを入力とし、高画素値の病巣領域を出力とするための演算子である。   When step S7 is performed, the control unit 34 causes the inter-image calculation type specifying unit 24 to perform an inter-image calculation type specifying process (step S8). In step S8, the inter-image calculation type specifying unit 24 searches the inter-image calculation type table using the combination of the image type of the morphological image specified in step S2 and the image type of the functional image as a keyword. An inter-image operation type associated on the seed table is specified (see FIG. 4). The inter-image calculation is an operator for inputting a morphological image and a functional image and outputting a lesion region having a high pixel value.

以下、図11を参照しながら画像間演算について説明する。図11に示すように、入力としてT1強調画像IMとT2強調画像IFとを例に挙げて考える。この画像IMと画像IFとは、図6の画像IMと画像IFとそれぞれ同様である。すなわち、画像IMと画像IFとのそれぞれには、脳腫瘍に関する病巣領域が描出されており、画像IM上の病巣領域は低画素値を有し、画像IF上の病巣領域は高画素値を有する。また、演算子“+”は、画像IMと画像IFとの加算である。演算子“−”は、画像IMと画像IFとの減算である。演算子“×”は、画像IMと画像IFとの積である。演算子“/”は、画像IMと画像IFとの除算である。演算子“OR”は、画像IMと画像IFとの論理和である。演算子“AND”は、画像IMと画像IFとの論理積である。図11に示すように、これら演算子のうち最も病巣領域を明瞭に強調できるのは演算子“−”(減算)である。従って、T1強調画像IMとT2強調画像IFとを減算すること、すなわち演算子“−”が最も脳腫瘍に関する病巣領域を抽出するのに適しているといえる。   Hereinafter, the inter-image calculation will be described with reference to FIG. As shown in FIG. 11, a T1-weighted image IM and a T2-weighted image IF are considered as inputs. The image IM and the image IF are the same as the image IM and the image IF in FIG. That is, a lesion area related to a brain tumor is depicted in each of the image IM and the image IF, the lesion area on the image IM has a low pixel value, and the lesion area on the image IF has a high pixel value. The operator “+” is addition of the image IM and the image IF. The operator “−” is a subtraction between the image IM and the image IF. The operator “×” is the product of the image IM and the image IF. The operator “/” is a division between the image IM and the image IF. The operator “OR” is a logical sum of the image IM and the image IF. The operator “AND” is a logical product of the image IM and the image IF. As shown in FIG. 11, among these operators, the operator “−” (subtraction) can highlight the lesion area most clearly. Therefore, it can be said that the subtraction of the T1-weighted image IM and the T2-weighted image IF, that is, the operator “−” is most suitable for extracting the lesion area related to the brain tumor.

ここでT1強調画像の画素値を反転させた場合を考える。反転されたT1強調画像と反転されていないT2強調画像とを加算することは、反転されていないT1強調画像と反転されていないT2強調画像とを減算することに等しい。従って、反転されたT1強調画像と反転されていないT2強調画像とを加算すること、すなわち演算子“+”が最も脳腫瘍に関する病巣領域を抽出するのに適しているといえる。   Here, consider a case where the pixel value of the T1-weighted image is inverted. Adding the inverted T1-weighted image and the non-inverted T2-weighted image is equivalent to subtracting the non-inverted T1-weighted image and the non-inverted T2-weighted image. Therefore, it can be said that adding the inverted T1-weighted image and the non-inverted T2-weighted image, that is, the operator “+” is most suitable for extracting the lesion area related to the brain tumor.

このように反転/非反転テーブルにおける反転/非反転と画像間演算種テーブルにおける画像間演算種は、画像間演算により病変領域が強調されるように相互に関連して決定される。ここで強調とは、他の領域に比して画素値が顕著に高い、又は低いことである。反転/非反転と画像間演算種とはユーザにより、試行錯誤的に決定され、入力部18を介して任意に更新可能である。   Thus, the inversion / non-inversion in the inversion / non-inversion table and the inter-image calculation type in the inter-image calculation type table are determined in relation to each other so that the lesion area is emphasized by the inter-image calculation. Here, “enhancement” means that the pixel value is remarkably high or low compared to other regions. The inversion / non-inversion and the operation type between images are determined by the user by trial and error, and can be arbitrarily updated via the input unit 18.

ステップS8行なわれると制御部34は、画像処理部28の画像間演算部284に画像間演算処理を行なわせる(ステップS9)。ステップS9において画像間演算部284は、ステップS8において特定された種類の画像間演算を形態画像と機能画像とに実行し、単一の演算画像IOのデータを生成する。図6に示すように、演算画像IOには、他の正常領域に比して画素値が強調された病巣領域を含んでいる。このように画像間演算をすることで、高画素値の病巣領域がより高画素値になる。これにより、後段のステップS10における2値化により病巣領域が抽出されやすくなる。   When step S8 is performed, the control unit 34 causes the inter-image calculation unit 284 of the image processing unit 28 to perform inter-image calculation processing (step S9). In step S9, the inter-image calculation unit 284 performs the inter-image calculation of the type specified in step S8 on the morphological image and the functional image, and generates data of a single calculated image IO. As shown in FIG. 6, the arithmetic image IO includes a lesion area in which the pixel value is emphasized as compared with other normal areas. By performing the inter-image calculation in this way, the lesion region having a high pixel value becomes a higher pixel value. This makes it easy to extract a lesion region by binarization in the subsequent step S10.

ステップS9が行なわれると制御部34は、画像処理部28の閾値処理部285に閾値処理を行なわせる(ステップS10)。閾値処理部285は、ステップS9において生成された演算画像IOを閾値処理し、演算画像IOから病巣領域を抽出する。具体的には、ユーザにより指定された初期位置の画素値を利用して閾値処理が行なわれる。初期位置としては、ユーザにより演算画像IO上に指定された最初の点や関心領域が用いられる。例えば、ユーザのマウス操作により、表示部32に表示された演算画像IO上の病巣領域の内部がクリックされる、あるいは関心領域が描かれるとその位置が初期位置に設定される。初期位置が設定されると、次に閾値が設定される。閾値は、例えば、演算画像IOのヒストグラムにおいて病巣領域(高画素値領域)とその他の領域(低画素値領域)とが分離される画素値に設定される。そして閾値以上の画素値を有する画素に対して画素値“1”を、閾値以下の画素値を有する画素に対して画素値“0”を割り付ける。また、設定された初期位置を含まない画素値“1”の画素領域は、病巣領域でないとして画素値“0”に割り付けられる。これにより演算画像IO上の病巣領域が画素値“1”に、それ以外の画素領域が画素値“0”に割り付ける。これにより、病巣領域が抽出された2値化画像IBのデータが生成される。   When step S9 is performed, the control unit 34 causes the threshold processing unit 285 of the image processing unit 28 to perform threshold processing (step S10). The threshold processing unit 285 performs threshold processing on the calculated image IO generated in step S9, and extracts a lesion area from the calculated image IO. Specifically, threshold processing is performed using the pixel value at the initial position designated by the user. As the initial position, the first point or region of interest designated on the calculation image IO by the user is used. For example, when the inside of a lesion area on the calculation image IO displayed on the display unit 32 is clicked or a region of interest is drawn by a user's mouse operation, the position is set as an initial position. Once the initial position is set, the threshold is set next. For example, the threshold value is set to a pixel value that separates a lesion area (high pixel value area) and other areas (low pixel value area) in the histogram of the operation image IO. Then, a pixel value “1” is assigned to a pixel having a pixel value equal to or greater than the threshold value, and a pixel value “0” is assigned to a pixel having a pixel value equal to or less than the threshold value. Further, a pixel area having a pixel value “1” that does not include the set initial position is assigned to a pixel value “0” as not being a lesion area. As a result, the lesion area on the operation image IO is assigned to the pixel value “1”, and the other pixel areas are assigned to the pixel value “0”. Thereby, data of the binarized image IB from which the lesion area is extracted is generated.

ステップS10が行なわれると制御部34は、画像処理部28のマスク処理部286に形態画像へマスク処理を行なわせる(ステップS11)。ステップS11においてマスク処理部286は、ステップS10において生成された2値化画像IBをマスクとして、ステップS4において正規化された形態画像IMにマスク処理を行い、この形態画像から病巣領域を除去する。具体的には、2値化画像IB上の病巣領域の座標位置と同一座標位置にある形態画像IM上の領域を特定する。そしてマスク処理部286は、特定された領域の画素値を画素値“0”に割り付ける。これにより病巣領域が除去された形態画像INのデータが生成される。   When step S10 is performed, the control unit 34 causes the mask processing unit 286 of the image processing unit 28 to perform mask processing on the morphological image (step S11). In step S11, the mask processing unit 286 performs mask processing on the morphological image IM normalized in step S4 using the binarized image IB generated in step S10 as a mask, and removes a lesion region from the morphological image. Specifically, an area on the morphological image IM that is at the same coordinate position as the coordinate position of the lesion area on the binarized image IB is specified. Then, the mask processing unit 286 assigns the pixel value of the specified area to the pixel value “0”. Thereby, data of the morphological image IN from which the lesion area is removed is generated.

また、ステップS10が行なわれると制御部34は、画像処理部28のマスク処理部286に機能画像IFへマスク処理を行なわせる(ステップS12)。ステップS12においてマスク処理部286は、ステップS10において生成された2値化画像IBをマスクとして、ステップS4において正規化された機能画像IFにマスク処理を行い、この機能画像IFから病巣領域を抽出する。具体的には、2値化画像IB上の病巣領域の座標位置と同一座標位置にある機能画像IF上の領域を特定する。そしてマスク処理部286は、特定された領域以外の画素値を画素値“0”に割り付ける。これにより病巣領域以外の領域が除去された機能画像II、すなわち病巣領域のみを含む機能画像IIのデータが生成される。   When step S10 is performed, the control unit 34 causes the mask processing unit 286 of the image processing unit 28 to perform mask processing on the functional image IF (step S12). In step S12, the mask processing unit 286 performs mask processing on the functional image IF normalized in step S4 using the binarized image IB generated in step S10 as a mask, and extracts a lesion region from the functional image IF. . Specifically, an area on the functional image IF that is at the same coordinate position as the coordinate position of the lesion area on the binarized image IB is specified. Then, the mask processing unit 286 assigns pixel values other than the specified area to the pixel value “0”. As a result, functional image II from which regions other than the lesion region are removed, that is, functional image II data including only the lesion region is generated.

ステップS11とS12とが行なわれると制御部34は、画像合成部30に合成処理を行なわせる(ステップS13)。ステップS13において画像合成部30は、ステップS11において生成された形態画像INと、ステップS12において生成された機能画像IIとを合成し、合成画像IGのデータを生成する。生成された合成画像IGの病巣領域は、機能画像に由来し、病巣領域以外は形態画像に由来する。なお画像合成部30により生成された合成画像IGのデータは、画像読み書き部26により画像記憶部10に書き込まれる。   When Steps S11 and S12 are performed, the control unit 34 causes the image composition unit 30 to perform composition processing (Step S13). In step S13, the image composition unit 30 synthesizes the morphological image IN generated in step S11 and the functional image II generated in step S12 to generate data of the composite image IG. The lesion area of the generated composite image IG is derived from the functional image, and other than the lesion area is derived from the morphological image. The data of the composite image IG generated by the image composition unit 30 is written into the image storage unit 10 by the image read / write unit 26.

ステップS13が行なわれると制御部34は、表示部32に表示処理を行なわせる(ステップS14)。ステップS14において表示部32は、ステップS13において生成された合成画像IGを表示する。換言すれば表示部32は、機能画像から抽出された病巣領域を形態画像上に重ね合わせて表示する。この際表示部32は、合成画像IG上の病巣領域を強調して表示する。例えば、表示部32は、図12に示すように、病巣領域の輪郭を色や輝度等で強調して表示する。また、色や輝度で強調する他に輪郭を点滅させることにより強調してもよい。また、表示部32は、図13に示すように、病巣領域の内部に赤等の色をつけて強調して表示してもよい。このようにして病巣領域を強調表示することにより、病巣領域とその周辺組織領域との境界をユーザに容易に識別させることができる。   When step S13 is performed, the control unit 34 causes the display unit 32 to perform display processing (step S14). In step S14, the display unit 32 displays the composite image IG generated in step S13. In other words, the display unit 32 displays the lesion area extracted from the functional image so as to be superimposed on the morphological image. At this time, the display unit 32 highlights and displays the lesion area on the composite image IG. For example, as shown in FIG. 12, the display unit 32 highlights and displays the outline of the lesion area with color, brightness, or the like. In addition to emphasizing by color and brightness, emphasis may be achieved by blinking the outline. Further, as shown in FIG. 13, the display unit 32 may emphasize and display a color such as red inside the lesion area. By highlighting the lesion area in this way, the user can easily identify the boundary between the lesion area and the surrounding tissue area.

ステップS14が行なわれると本実施形態に係る画像処理が終了する。   When step S14 is performed, the image processing according to the present embodiment ends.

上記のように画像処理装置は、病名とその病名に対応する病巣領域を診断するのに適した画像種とを関連付けた画像種テーブルを保持している。この画像種テーブルを利用して画像処理装置は、ユーザにより入力部18を介して病名が入力されると、入力された病名に対応する病巣領域を診断するのに最も適した画像種の形態画像と機能画像とを自動的に読み出すことができる。従って、ユーザによる画像種の選択の手間を削減することができる。また、病名と画像種との関連をテーブルにして保存しておくことで、画像種の選択に関する経験的知識を保存しておくことができる。また、画像処理装置は、反転/非反転テーブルや画像間演算種テーブル等を保持している。この反転/非反転テーブルや画像間演算種テーブルを利用して画像処理装置は、病巣領域を抽出するのに最も適した画像間演算種を自動的に選択することができる。従って、ユーザによる画像間演算種の選択の手間を削減でき、また、画像間演算種の選択に関する経験的知識を保存しておくことができる。これら各種テーブルにより、病巣領域が強調された形態画像を簡便に生成して表示することができる。かくして本実施形態に係る画像処理装置は、病巣領域の画像診断におけるユーザの手間の軽減を実現することができる。   As described above, the image processing apparatus holds an image type table in which a disease name and an image type suitable for diagnosing a lesion area corresponding to the disease name are associated with each other. Using this image type table, the image processing apparatus, when a disease name is input by the user via the input unit 18, is a morphological image of an image type that is most suitable for diagnosing a lesion area corresponding to the input disease name. And functional images can be automatically read out. Therefore, it is possible to reduce the trouble of selecting the image type by the user. Further, by storing the relationship between the disease name and the image type as a table, empirical knowledge regarding the selection of the image type can be stored. Further, the image processing apparatus holds an inversion / non-inversion table, an inter-image calculation type table, and the like. By using the inversion / non-inversion table and the inter-image calculation type table, the image processing apparatus can automatically select the inter-image calculation type that is most suitable for extracting the lesion area. Therefore, it is possible to reduce the time and effort required for the selection of the inter-image calculation type by the user, and it is possible to store empirical knowledge regarding the selection of the inter-image calculation type. With these various tables, a morphological image in which a lesion area is emphasized can be easily generated and displayed. Thus, the image processing apparatus according to the present embodiment can realize a reduction in the user's effort in the image diagnosis of the lesion area.

なお、画像種や画像間演算種の自動選択がうまく機能しない場合や、ユーザ自身が選択したい場合もある。このような事態に備えて画像種や画像間演算種を手動で選択できる手段を有している方が実運用上望ましい。   There are cases where the automatic selection of the image type and the inter-image calculation type does not function well, or the user himself / herself wants to select. In preparation for such a situation, it is desirable in practice to have means for manually selecting the image type and the inter-image calculation type.

図14は、表示部32により表示される画像種や画像間演算種の手動選択のためのGUI(graphic user interface)画面の一例を示す図である。このGUI画面は、例えば、図5の画像処理の間、表示部32により表示されている。GUI画面は、検査部位/病名/画像種選択領域R1、画像選択領域R2、画像間演算種選択領域R3、及び合成画像表示領域R4を有している。   FIG. 14 is a diagram illustrating an example of a GUI (graphic user interface) screen for manual selection of the image type and the inter-image calculation type displayed by the display unit 32. For example, the GUI screen is displayed by the display unit 32 during the image processing of FIG. The GUI screen has an examination site / disease name / image type selection area R1, an image selection area R2, an inter-image calculation type selection area R3, and a composite image display area R4.

検査部位/病名/画像種選択領域R1は、頭部や胸部、腹部等の検査部位を選択するための部位選択領域R5、脳梗塞や脳腫瘍、脳出血等の病名を選択するための病名選択領域R6、T1やT2、DWI、PWI等の画像種を選択するための画像種選択領域R7を有している。これら項目が入力部18を介して選択されことにより、検査部位や病名、画像種が選択される。   The examination part / disease name / image type selection area R1 is a part selection area R5 for selecting examination parts such as the head, chest, and abdomen, and a disease name selection area R6 for selecting disease names such as cerebral infarction, brain tumor, and cerebral hemorrhage. , T1, T2, DWI, PWI, and other image type selection areas R7 for selecting image types. By selecting these items via the input unit 18, an examination site, a disease name, and an image type are selected.

画像選択領域R2は、各画像種に関する画像のサムネイルSが表示される。このサムネイルSが入力部18を介してユーザにより選択されることにより、選択されたサムネイルSに対応する形態画像のデータや機能画像のデータが画像記憶部10から読み出される。   In the image selection area R2, thumbnails S of images relating to the respective image types are displayed. When the thumbnail S is selected by the user via the input unit 18, morphological image data and functional image data corresponding to the selected thumbnail S are read from the image storage unit 10.

画像間演算種選択領域R3は、+や−、×、/、OR、AND等の画像間演算種を選択するための選択領域R8を有している。また、読み出された形態画像や機能画像は、各画像表示領域R9の何れかに表示される。また画像間演算における重みづけパラメータ等もパラメータ領域R10において入力部18を介して設定可能となっている。また、PreviewボタンB1が押されることで、設定された画像間演算種やパラメータにより生成される合成画像IGが合成画像表示領域R4に表示される。SaveボタンB2が押されることで、設定された画像間演算種が画像間演算種テーブルに設定される。   The inter-image calculation type selection area R3 includes a selection area R8 for selecting an inter-image calculation type such as +,-, x, /, OR, and AND. The read morphological image and functional image are displayed in any one of the image display regions R9. Also, a weighting parameter or the like in the calculation between images can be set via the input unit 18 in the parameter region R10. In addition, when the Preview button B1 is pressed, the composite image IG generated based on the set inter-image calculation type and parameters is displayed in the composite image display region R4. By pressing the Save button B2, the set inter-image calculation type is set in the inter-image calculation type table.

また、画像間演算種の利用頻度に応じて画像間演算種テーブルの画像間演算種を変更してもよい。例えば画像間演算種テーブル記憶部16は、画像種ごとに画像間演算種の選択回数を記録しておき、この選択回数が最も多い画像間演算種を一定期間ごとに特定する。そして画像間演算種テーブル記憶部16は、特定された画像間演算種とその画像種とを画像間演算種テーブルに新たに関連付けることにより、画像間演算種テーブルを更新する。このような更新方法を採用することで画像処理装置は、利用頻度の多い画像間演算種を自動的に特定し、特定された種類の画像間演算を形態画像と機能画像とに実行させることができる。   Further, the inter-image calculation type in the inter-image calculation type table may be changed according to the use frequency of the inter-image calculation type. For example, the inter-image calculation type table storage unit 16 records the number of selections of the inter-image calculation type for each image type, and specifies the inter-image calculation type having the largest selection number for every predetermined period. The inter-image calculation type table storage unit 16 updates the inter-image calculation type table by newly associating the specified inter-image calculation type and the image type with the inter-image calculation type table. By adopting such an update method, the image processing apparatus can automatically specify the inter-image operation type that is frequently used, and cause the morphological image and the functional image to execute the specified inter-image operation type. it can.

このようなGUI画面を表示することで、画像種や画像間演算種の自動選択がうまく機能しない場合や、ユーザ自身が選択したい場合といった事態にも備えることができる。また、手動で画像間演算種を選択して合成画像をシミュレートできるので、さらに適した画像間演算種を発見でき、画像間演算種テーブルの更新にも役立てることができる。   By displaying such a GUI screen, it is possible to prepare for situations where the automatic selection of the image type and the inter-image calculation type does not function well, or when the user himself wants to select. Further, since the composite image can be simulated by manually selecting the inter-image calculation type, a more suitable inter-image calculation type can be found, which can be used for updating the inter-image calculation type table.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

以上本発明によれば、病巣領域の画像診断におけるユーザの手間の軽減を実現する画像処理装置の提供を実現することができる。   As mentioned above, according to this invention, provision of the image processing apparatus which implement | achieves reduction of a user's effort in the image diagnosis of a lesion area | region is realizable.

10…画像記憶部、12…画像種テーブル記憶部、14…反転/非反転テーブル記憶部、16…画像間演算種テーブル記憶部、18…入力部、20…画像種特定部、22…反転/非反転特定部、24…画像間演算種特定部、26…画像読み書き部、28…画像処理部、281…正規化処理部、282…反転処理部、283…位置合わせ部、284…画像間演算部、285…閾値処理部、286…マスク処理部、30…画像合成部、32…表示部、34…制御部   DESCRIPTION OF SYMBOLS 10 ... Image memory | storage part, 12 ... Image kind table memory | storage part, 14 ... Inversion / non-inversion table memory | storage part, 16 ... Inter-image calculation seed | species table memory part, 18 ... Input part, 20 ... Image kind specification part, 22 ... Non-inversion specifying unit, 24 ... Inter-image calculation type specifying unit, 26 ... Image reading / writing unit, 28 ... Image processing unit, 281 ... Normalization processing unit, 282 ... Inversion processing unit, 283 ... Positioning unit, 284 ... Inter-image calculation , 285 ... Threshold processing unit, 286 ... Mask processing unit, 30 ... Image composition unit, 32 ... Display unit, 34 ... Control unit

Claims (5)

複数の画像種に関する複数の形態画像のデータと複数の機能画像のデータとを記憶する画像記憶部と、
前記複数の画像種と複数の病名とを関連付けた第1テーブルを記憶する第1テーブル記憶部と、
前記複数の病名のうちのユーザにより入力された病名に前記第1テーブル上で関連付けられた第1の画像種と第2の画像種とを複数の画像種の中から特定する第1特定部と、
前記特定された第1の画像種に関する形態画像と第2の画像種に関する機能画像とを前記画像記憶部から読み出して画像処理を行い前記第2の画像種に関する機能画像から病巣領域を抽出する画像処理部と、
前記抽出された病巣領域と前記第1の画像種に関する形態画像とを重ねて表示する表示部と、
を具備する画像処理装置。
An image storage unit for storing data of a plurality of morphological images and data of a plurality of functional images related to a plurality of image types;
A first table storage unit for storing a first table in which the plurality of image types and a plurality of disease names are associated;
A first specifying unit that specifies, from among a plurality of image types, a first image type and a second image type associated with a disease name input by a user from among the plurality of disease names on the first table; ,
An image for reading out a morphological image related to the specified first image type and a functional image related to the second image type from the image storage unit and performing image processing to extract a lesion region from the functional image related to the second image type A processing unit;
A display unit for displaying the extracted lesion region and the morphological image relating to the first image type in an overlapping manner;
An image processing apparatus comprising:
前記複数の病名と前記複数の画像種と画素値の反転又は非反転を示すコードとを関連づけた第2テーブルを記憶する第2テーブル記憶部と、
前記ユーザにより入力された病名と前記第1の画像種との組み合わせに前記第2テーブル上で関連付けられた前記反転又は非反転を示す第1のコードを特定し、前記ユーザにより入力された病名と前記第2の画像種との組み合わせに前記第2テーブル上で関連付けられた前記反転又は非反転を示す第2のコードを特定する第2特定部と、をさらに備え、
前記画像処理部は、前記特定された第1のコードに応じて前記第1の画像種に関する形態画像を反転又は非反転し、前記特定された第2のコードに応じて前記第2の画像種に関する機能画像を反転又は非反転し、前記反転又は非反転された第1の画像種に関する形態画像と第2の画像種に関する機能画像とに特定の画像間演算をすることで、前記第2の画像種に関する機能画像から病巣領域を抽出する、
請求項1記載の画像処理装置。
A second table storage unit that stores a second table that associates the plurality of disease names, the plurality of image types, and a code indicating inversion or non-inversion of pixel values;
The first code indicating the inversion or non-inversion associated with the combination of the disease name input by the user and the first image type on the second table is specified, and the disease name input by the user A second specifying unit that specifies the second code indicating the inversion or non-inversion associated with the combination with the second image type on the second table;
The image processing unit inverts or non-inverts the morphological image related to the first image type according to the specified first code, and the second image type according to the specified second code. The function image is inverted or non-inverted, and a specific inter-image calculation is performed on the inverted or non-inverted form image related to the first image type and the function image related to the second image type. Extracting the lesion area from the functional image related to the image type,
The image processing apparatus according to claim 1.
前記複数の画像種と複数の画像間演算を示すコードとを関連づけた第3テーブルを記憶する第3テーブル記憶部と、
前記第1の画像種と前記第2の画像種との組み合わせに前記第3テーブル上で関連付けられた前記特定の画像間演算を示す第3のコードを前記複数の画像間演算を示すコードの中から特定する第3特定部と、をさらに備え、
前記画像処理部は、前記特定された第3のコードに対応する前記特定の画像間演算を前記反転又は非反転された第1の画像種に関する形態画像と第2の画像種に関する機能画像とにすることで、前記機能画像から前記病巣領域を抽出する、
請求項2記載の画像処理装置。
A third table storage unit for storing a third table in which the plurality of image types and codes indicating a plurality of inter-image operations are associated;
Among the codes indicating the plurality of inter-image operations, the third code indicating the specific inter-image operation associated with the combination of the first image type and the second image type on the third table. A third specifying unit that is specified from
The image processing unit converts the specific inter-image operation corresponding to the specified third code into the morphological image relating to the inverted or non-inverted first image type and the functional image relating to the second image type. By extracting the lesion area from the functional image,
The image processing apparatus according to claim 2.
前記表示部は、前記病巣領域を強調して表示する、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display unit displays the lesion area with emphasis. 前記形態画像と前記機能画像とのそれぞれは、X線診断装置、X線コンピュータ断層撮影装置、磁気共鳴イメージング装置、超音波診断装置、及び核医学診断装置のうちの1つにより生成された画像である、請求項1記載の画像処理装置。   Each of the morphological image and the functional image is an image generated by one of an X-ray diagnostic apparatus, an X-ray computed tomography apparatus, a magnetic resonance imaging apparatus, an ultrasonic diagnostic apparatus, and a nuclear medicine diagnostic apparatus. The image processing apparatus according to claim 1.
JP2009162946A 2009-07-09 2009-07-09 Image processing device Active JP5380185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009162946A JP5380185B2 (en) 2009-07-09 2009-07-09 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009162946A JP5380185B2 (en) 2009-07-09 2009-07-09 Image processing device

Publications (2)

Publication Number Publication Date
JP2011015848A JP2011015848A (en) 2011-01-27
JP5380185B2 true JP5380185B2 (en) 2014-01-08

Family

ID=43594115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009162946A Active JP5380185B2 (en) 2009-07-09 2009-07-09 Image processing device

Country Status (1)

Country Link
JP (1) JP5380185B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187150A1 (en) * 2012-06-11 2013-12-19 コニカミノルタ株式会社 Medical image system and medical image processing device
JP6768415B2 (en) * 2016-08-29 2020-10-14 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP7348845B2 (en) * 2020-01-09 2023-09-21 富士フイルムヘルスケア株式会社 Ultrasound diagnostic equipment and programs

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253641A (en) * 2004-03-11 2005-09-22 Rikogaku Shinkokai Diagnosis supporting system
US8160314B2 (en) * 2004-06-18 2012-04-17 Siemens Aktiengesellschaft System and method for linking VOIs across timepoints for analysis of disease progression or response to therapy
WO2006017172A1 (en) * 2004-07-09 2006-02-16 Fischer Imaging Corporation Diagnostic system for multimodality mammography

Also Published As

Publication number Publication date
JP2011015848A (en) 2011-01-27

Similar Documents

Publication Publication Date Title
JP6230787B2 (en) Inspection information display apparatus and method
JP5823259B2 (en) Medical data generator
JP6438395B2 (en) Automatic detection and retrieval of previous annotations associated with image material for effective display and reporting
WO2011122401A1 (en) Inspection information display device and method
CN106529115B (en) Information processing unit, information processing method
US9478021B2 (en) Image display device, image display system, and image display method
JP2016521149A (en) Context-driven overview view of radiation findings
JP5927591B2 (en) CASE DISPLAY DEVICE, CASE DISPLAY METHOD, AND PROGRAM
US10181187B2 (en) Information processing apparatus, method thereof, information processing system, and computer-readable storage medium that display a medical image with comment information
KR101576047B1 (en) Method and apparatus of generating structured report including region of interest information in medical image reading processing
JP5355782B2 (en) Control apparatus and method
US20180271460A1 (en) System for Synthetic Display of Multi-Modality Data
JP5380185B2 (en) Image processing device
JP7209047B2 (en) CONVERSION APPARATUS, CONVERSION METHOD, AND PROGRAM
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP2006061278A (en) Medical image display unit
JP2011041585A (en) Medical image display device and medical image management system
JP6440386B2 (en) Information processing apparatus and program
KR20160011489A (en) Apparatus and method for processing medical image
US9292762B2 (en) Region extraction system
US20170322684A1 (en) Automation Of Clinical Scoring For Decision Support
US20200135327A1 (en) Information processing apparatus, information processing method, and storage medium
JP2010227207A (en) Supporting device and program for writing diagnostic reading report
CN111105872A (en) Interaction method and device of medical image artificial intelligence auxiliary diagnosis system and PACS
Whelan et al. Informatics in Radiology (info RAD) NeatVision: Visual Programming for Computer-aided Diagnostic Applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120706

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130930

R150 Certificate of patent or registration of utility model

Ref document number: 5380185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350