JP2013215221A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2013215221A
JP2013215221A JP2012085470A JP2012085470A JP2013215221A JP 2013215221 A JP2013215221 A JP 2013215221A JP 2012085470 A JP2012085470 A JP 2012085470A JP 2012085470 A JP2012085470 A JP 2012085470A JP 2013215221 A JP2013215221 A JP 2013215221A
Authority
JP
Japan
Prior art keywords
image
input images
window processing
window
shading pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012085470A
Other languages
Japanese (ja)
Other versions
JP6063142B2 (en
Inventor
Jun Masumoto
潤 桝本
Yuanzhong Li
元中 李
Yoshinori Itai
善則 板井
Yasuyoshi Ota
恭義 大田
Yoshimasa Fujimori
義真 藤森
Yoshiji Nakamura
佳児 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012085470A priority Critical patent/JP6063142B2/en
Publication of JP2013215221A publication Critical patent/JP2013215221A/en
Application granted granted Critical
Publication of JP6063142B2 publication Critical patent/JP6063142B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically adjust at least obtained two images so that the images can be viewed in the same way, irrespective of the difference in the kind of a modality and in an imaging method.SOLUTION: A window processing condition deciding means (50) of an image processing device (14) refers to a gradation pattern table (46) storing gradation patterns of a predetermined part according to a modality and an imaging method, thereby searching a gradation pattern according to the predetermined part of at least the two input images which are different in modality and/or an imaging method. The means (50) decides window processing conditions for the two input images according to the searched gradation pattern. A window processing means (52) performs window processing for the two input images on the basis of the window processing conditions.

Description

本発明は、異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された少なくとも2つの入力画像を比較表示させるための画像処理装置及び画像処理方法、並びに、該画像処理装置を動作させるためのプログラムに関する。   The present invention relates to an image processing apparatus and an image processing method for comparing and displaying at least two input images photographed with different modalities and / or photographed with different photographing methods, and to operate the image processing apparatus. Related to the program.

近年、同一人物に対する検査(例えば、同一の患者に対する画像撮影)を行うにあたり、異なるモダリティで撮影し、あるいは、同じモダリティでも撮影プロトコル(撮影方法)を変えて撮影する場合がある。この場合、異なる種類のモダリティ及び/又は異なる撮影方法により撮影された、同一人物に対する少なくとも2つの画像は、表示装置で比較表示される(特許文献1参照)。   In recent years, when performing an examination on the same person (for example, photographing an image of the same patient), photographing may be performed with different modalities, or even with the same modality, photographing may be performed with different photographing protocols (imaging methods). In this case, at least two images of the same person captured by different types of modalities and / or different imaging methods are compared and displayed on the display device (see Patent Document 1).

特開2012−16480号公報JP 2012-16480 A

このように、異なる種類のモダリティにより撮影された2つの画像や、同じモダリティでも異なる撮影方法で撮影された2つの画像を、表示装置で比較表示した場合、同一人物に対する画像でありながら、一見すると異なるように見えることがある。そのため、例えば、同じ病変箇所を比較観察したい場合、医師は、読影診断時に、これらの画像のウィンドウ幅(WW)及びウィンドウレベル(WL)を微調整する必要があった。しかしながら、医師にとって、WW及びWLの微調整は、煩雑な作業である。   In this way, when two images shot with different types of modalities or two images shot with different shooting methods with the same modality are compared and displayed on a display device, it is an image of the same person but at first glance. It may look different. For this reason, for example, when it is desired to perform comparative observation of the same lesion site, a doctor needs to finely adjust the window width (WW) and window level (WL) of these images at the time of interpretation diagnosis. However, for the doctor, fine adjustment of WW and WL is a complicated operation.

また、異なる時期に撮影された2つの画像であっても、同じCT装置で撮影された2つのCT画像であれば、CT値に意味があるので、上記の微調整の作業を比較的容易に行うことが可能である。しかしながら、他のモダリティ(例えば、MRI装置)で撮影された2つの画像については、該2つの画像の数値自体に意味がない場合もあり得る。そのため、前記2つの画像を同じ見え方に自動的に調整することが困難となる。このような場合、医師は、前記2つの画像に対して、煩雑な微調整の作業を行わざるを得ない。   Further, even if two images are taken at different times, the CT value is meaningful as long as the two CT images are taken with the same CT apparatus. Is possible. However, for two images taken with other modalities (for example, an MRI apparatus), the numerical values of the two images may not be meaningful. Therefore, it becomes difficult to automatically adjust the two images to the same appearance. In such a case, the doctor is forced to perform complicated fine adjustment operations on the two images.

本発明は、上記した問題を解決するためになされたもので、モダリティの種類及び撮影方法の違いに関わりなく、取得された少なくとも2つの画像に対して、同じ見え方となるように自動的に調整することが可能となる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and automatically obtains the same appearance for at least two acquired images regardless of differences in the types of modality and the photographing method. An object is to provide an image processing apparatus, an image processing method, and a program that can be adjusted.

本発明に係る画像処理装置は、
異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された、少なくとも2つの入力画像を取得する画像取得手段と、
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段と、
を有することを特徴とする。
An image processing apparatus according to the present invention includes:
Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
Display means for comparing and displaying the two input images processed by the window processing means;
It is characterized by having.

また、本発明に係る画像処理方法は、
異なるモダリティにより撮影され、及び/又は、異なる撮影方法で撮影された少なくとも2つの入力画像を取得する取得ステップと、
前記2つの入力画像に共通して含まれる所定部位を指定する指定ステップと、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせステップと、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定ステップと、
決定した前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理ステップと、
前記ウィンドウ処理ステップで処理した前記2つの入力画像を比較表示する表示ステップと、
を有することを特徴とする。
The image processing method according to the present invention includes:
Acquiring at least two input images taken with different modalities and / or taken with different imaging methods;
A designation step for designating a predetermined part commonly included in the two input images;
An alignment step of relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
With reference to the shading pattern table storing the shading pattern of the predetermined part corresponding to the modality and the imaging method, the shading pattern corresponding to the predetermined part of the two input images is searched, and according to the searched shading pattern A window processing condition determining step for determining window processing conditions for the two input images;
A window processing step for performing window processing on the two input images based on the determined window processing conditions;
A display step for comparing and displaying the two input images processed in the window processing step;
It is characterized by having.

また、本発明に係るプログラムは、コンピュータを、
異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された、少なくとも2つの入力画像を取得する画像取得手段と、
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段として機能させることを特徴とする。
Further, a program according to the present invention provides a computer,
Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
It is made to function as a display means for comparing and displaying the two input images processed by the window processing means.

このように、本発明では、モダリティ及び撮影方法に応じた所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、モダリティの種類及び/又は撮影方法の異なる少なくとも2つの入力画像の示す所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定する。   As described above, in the present invention, with reference to the shading pattern table storing the shading pattern of the predetermined portion corresponding to the modality and the photographing method, the predetermined portion indicated by at least two input images having different types of modality and / or photographing methods. A shade pattern corresponding to the two shaded patterns is retrieved, and window processing conditions for the two input images corresponding to the retrieved shade pattern are determined.

従って、決定したウィンドウ処理条件に従って前記2つの入力画像に対するウィンドウ処理を行い、ウィンドウ処理後の前記2つの入力画像を表示手段で比較表示させれば、モダリティの種類及び撮影方法の違いに関わりなく、前記2つの入力画像を同じ見え方で表示させることができる。   Therefore, if window processing is performed on the two input images according to the determined window processing conditions, and the two input images after window processing are compared and displayed on a display unit, regardless of the type of modality and the photographing method, The two input images can be displayed in the same way.

このように、前記2つの入力画像が同じ見え方となるように自動的に調整されるので、医師による前記2つの入力画像に対する微調整の作業が不要となり、該医師の作業負担を軽減することができる。また、前記2つの入力画像が同じ見え方に調整されるので、前記2つの入力画像に共通して存在する所定部位の形状の異同を比較及び視認することが容易となり、該2つの入力画像に対する読影診断を容易に且つ効率よく行うことができる。   As described above, since the two input images are automatically adjusted so that they look the same, a fine adjustment work for the two input images by the doctor is unnecessary, and the work load on the doctor is reduced. Can do. In addition, since the two input images are adjusted to the same appearance, it becomes easy to compare and visually recognize the difference in shape of a predetermined part that is common to the two input images. Interpretation diagnosis can be performed easily and efficiently.

ここで、上記の指定手段は、予め定められた部位を前記所定部位として選択するか、あるいは、ユーザの指定した部位を前記所定部位として選択することが好ましい。予め定められた部位を所定部位として選択すれば、2つの入力画像を表示手段に確実に且つ効率よく比較表示することができる。また、ユーザ(医師)の指定した部位を所定部位として選択すれば、該医師の所望する2つの画像を同じ見え方で表示手段に比較表示させることができる。   Here, it is preferable that the designating unit selects a predetermined site as the predetermined site, or selects a user-designated site as the predetermined site. If a predetermined part is selected as a predetermined part, two input images can be reliably and efficiently displayed on the display means. Further, if a part designated by the user (doctor) is selected as a predetermined part, two images desired by the doctor can be compared and displayed on the display means with the same appearance.

また、前記ウィンドウ処理手段は、前記2つの入力画像のうち、一方の入力画像のウィンドウレベル及びウィンドウ幅を調整すれば、予め定められた条件に基づいて他方の入力画像のウィンドウレベル及びウィンドウ幅も調整することが好ましい。これにより、前記2つの入力画像に対するウィンドウ処理を容易に行うことができる。   Further, the window processing means adjusts the window level and the window width of one input image of the two input images, and also adjusts the window level and the window width of the other input image based on a predetermined condition. It is preferable to adjust. Thereby, the window processing for the two input images can be easily performed.

本発明によれば、モダリティ及び撮影方法に応じた所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、モダリティの種類及び/又は撮影方法の異なる少なくとも2つの入力画像の示す所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定する。   According to the present invention, with reference to the shading pattern table storing the shading pattern of the predetermined part corresponding to the modality and the imaging method, the at least two input images having different types of modality and / or imaging methods are used. The shade pattern is searched, and window processing conditions for the two input images corresponding to the searched shade pattern are determined.

従って、決定したウィンドウ処理条件に従って前記2つの入力画像に対するウィンドウ処理を行い、ウィンドウ処理後の前記2つの入力画像を表示手段で比較表示させれば、モダリティの種類及び撮影方法の違いに関わりなく、前記2つの入力画像を同じ見え方で表示させることができる。   Therefore, if window processing is performed on the two input images according to the determined window processing conditions, and the two input images after window processing are compared and displayed on a display unit, regardless of the type of modality and the photographing method, The two input images can be displayed in the same way.

このように、前記2つの入力画像が同じ見え方となるように自動的に調整されるので、医師による前記2つの入力画像に対する微調整の作業が不要となり、該医師の作業負担を軽減することができる。また、前記2つの入力画像が同じ見え方に調整されるので、前記2つの入力画像に共通して存在する所定部位の形状の異同を比較及び視認することが容易となり、該2つの入力画像に対する読影診断を容易に且つ効率よく行うことができる。   As described above, since the two input images are automatically adjusted so that they look the same, a fine adjustment work for the two input images by the doctor is unnecessary, and the work load on the doctor is reduced. Can do. In addition, since the two input images are adjusted to the same appearance, it becomes easy to compare and visually recognize the difference in shape of a predetermined part that is common to the two input images. Interpretation diagnosis can be performed easily and efficiently.

本実施形態に係る画像処理装置としての読影ワークステーションを含む医療情報システムの概略ブロック図である。It is a schematic block diagram of a medical information system including an image interpretation workstation as an image processing apparatus according to the present embodiment. 図1の読影ワークステーションのブロック図である。It is a block diagram of the image interpretation workstation of FIG. 図1の読影ワークステーションの動作処理を示すフローチャートである。It is a flowchart which shows the operation | movement process of the image interpretation workstation of FIG. 濃淡パターンテーブルを示す一覧表である。It is a list which shows a shading pattern table. 表示手段に表示されたCT画像を示す説明図である。It is explanatory drawing which shows CT image displayed on the display means. 表示手段に表示されたMRI画像を示す説明図である。It is explanatory drawing which shows the MRI image displayed on the display means. 表示手段に表示されたウィンドウ処理後のMRI画像を示す説明図である。It is explanatory drawing which shows the MRI image after the window process displayed on the display means. CT画像とウィンドウ処理後のMRI画像とを比較画像表示手段に比較表示した場合を示す説明図である。It is explanatory drawing which shows the case where a CT image and the MRI image after a window process are compared and displayed on the comparison image display means.

以下、本発明に係る画像処理装置について、画像処理方法及びプログラムとの関係において、好適な実施形態を挙げ、添付の図面を参照しながら説明する。   Hereinafter, an image processing apparatus according to the present invention will be described with reference to the accompanying drawings by giving preferred embodiments in relation to an image processing method and a program.

[画像処理装置の構成]
図1に示すように、本実施形態に係る画像処理装置が適用される医療情報システム10では、特許文献1の医療情報システムと同様に、モダリティ12、画像処理装置としての読影ワークステーション14、画像サーバ16及び画像データベース18がネットワーク22を介して、互いに通信可能な状態で接続されている。これらの各機器は、CD−ROM等の記録媒体からインストールされたプログラム、又は、インターネット等のネットワーク経由で接続されたサーバからダウンロードされた後にインストールされたプログラムによって制御される。
[Configuration of image processing apparatus]
As shown in FIG. 1, in the medical information system 10 to which the image processing apparatus according to the present embodiment is applied, the modality 12, the image interpretation workstation 14 as the image processing apparatus, the image, as in the medical information system of Patent Document 1. The server 16 and the image database 18 are connected via a network 22 so that they can communicate with each other. Each of these devices is controlled by a program installed from a recording medium such as a CD-ROM or a program installed after being downloaded from a server connected via a network such as the Internet.

モダリティ12は、同一人物(同一の患者)の検査対象部位を撮影することにより、当該部位を示す画像を取得し、前記画像に検査情報及び患者情報等の付帯情報を付加して出力する。なお、付帯情報としては、例えば、個々の画像を識別するための画像ID、患者を識別するための患者ID、検査を識別するための検査ID、画像毎に割り振られるユニークなID(UID)、その画像が生成された検査日及び検査時刻、その画像を取得するための検査で使用されたモダリティの種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の画像を取得したときのシリーズ番号又は採取番号等の情報が含まれうる。   The modality 12 obtains an image indicating the part by photographing the part to be examined of the same person (same patient), adds the accompanying information such as examination information and patient information to the image, and outputs the image. As ancillary information, for example, an image ID for identifying individual images, a patient ID for identifying patients, an examination ID for identifying examinations, a unique ID (UID) assigned to each image, Examination date and time when the image was generated, type of modality used in the exam to obtain the image, patient information such as patient name, age, and sex, examination site (imaging site), imaging information (imaging) Protocol, imaging sequence, imaging technique, imaging conditions, use of contrast agent, etc.) Information such as a series number or collection number when a plurality of images are acquired in one examination can be included.

このようなモダリティ12としては、例えば、CT装置、MRI装置、PET装置がある。なお、本実施形態において、モダリティ12は、CT装置、MRI装置及びPET装置のうち、2つ以上の装置を指す場合や、1つの装置のみ指す場合がある。また、モダリティ12で取得される画像は、異なる装置で取得される少なくとも2つの画像や、同じ装置であっても撮影方法が異なる少なくとも2つの画像をいう。例えば、CT装置であれば、患者の検査対象部位を表す複数の3次元画像の画像データであり、所定のスライス間隔及びスライス厚による断層画像の画像データの集合体である。   Examples of such modalities 12 include a CT apparatus, an MRI apparatus, and a PET apparatus. In the present embodiment, the modality 12 may indicate two or more apparatuses among the CT apparatus, the MRI apparatus, and the PET apparatus, or may indicate only one apparatus. In addition, the images acquired by the modality 12 are at least two images acquired by different devices, or at least two images having different shooting methods even in the same device. For example, in the case of a CT apparatus, it is image data of a plurality of three-dimensional images representing a patient's examination target region, and is a collection of image data of tomographic images with a predetermined slice interval and slice thickness.

読影ワークステーション14は、ユーザである医師が、上述の少なくとも2つの画像に含まれる同一患者の検査対象部位に対する読影診断を行い、その結果(読影レポート)を作成するために利用する装置であり、ディスプレイ等の表示手段や、キーボード及びマウス等の操作手段を備えている。この場合、読影ワークステーション14は、医師により読影対象の画像の閲覧を要求する操作(指示)が行われると、画像サーバ16に対して読影対象の画像の送信を要求し、画像サーバ16から読影に必要な所望の画像(少なくとも2つの画像)を取得する。そして、読影ワークステーション14は、医師からの要求に応じて、あるいは、自動的に、取得した少なくとも2つの画像に対して、後述するウィンドウ処理を実行する。   The interpretation workstation 14 is a device used by a doctor who is a user to perform an interpretation diagnosis on the examination target part of the same patient included in the above-described at least two images and to create a result (interpretation report). Display means such as a display and operation means such as a keyboard and a mouse are provided. In this case, the image interpretation workstation 14 requests the image server 16 to transmit an image to be interpreted when the doctor performs an operation (instruction) for requesting viewing of the image to be interpreted, and the image server 16 interprets the image. Desired images (at least two images) are acquired. Then, the image interpretation workstation 14 executes window processing to be described later on at least two acquired images in response to a request from a doctor or automatically.

画像サーバ16は、モダリティ12から画像の登録要求を受け付けると、その画像をデータベース用のフォーマットに整えて画像データベース18に登録する。これにより、画像データベース18には、上述した3次元画像の画像データ及び付帯情報が登録される。また、画像サーバ16は、読影ワークステーション14からの閲覧要求をネットワーク22経由で受信すると、画像データベース18に登録されている各画像のうち、閲覧要求の対象とされた画像及び付帯情報を検索し、検索した画像及び付帯情報を読影ワークステーション14に送信する。   Upon receiving an image registration request from the modality 12, the image server 16 arranges the image into a database format and registers it in the image database 18. As a result, the image data of the three-dimensional image and the accompanying information are registered in the image database 18. When the image server 16 receives a browsing request from the image interpretation workstation 14 via the network 22, the image server 16 searches the images registered in the image database 18 for the image and supplementary information that are subject to the browsing request. The searched image and the accompanying information are transmitted to the interpretation workstation 14.

本実施形態に係る画像処理装置としての読影ワークステーション14は、ディスプレイ等の表示手段や、キーボード及びマウス等の操作手段を備えたコンピュータであって、所定のプログラムにより、図2に示す各構成要素を動作させることができる。   The image interpretation workstation 14 as an image processing apparatus according to the present embodiment is a computer including display means such as a display and operation means such as a keyboard and a mouse, and each component shown in FIG. Can be operated.

図2に示すように、読影ワークステーション14は、画像選択手段30、画像情報取得手段32、画像表示手段34、指定手段36、比較画像決定手段38、表示手段40及び比較画像表示手段42を有する。また、比較画像決定手段38は、濃淡パターンテーブル46、位置合わせ手段48、処理条件決定手段50及び処理手段52を備える。   As shown in FIG. 2, the interpretation workstation 14 includes an image selection unit 30, an image information acquisition unit 32, an image display unit 34, a designation unit 36, a comparison image determination unit 38, a display unit 40, and a comparison image display unit 42. . The comparison image determination unit 38 includes a density pattern table 46, a positioning unit 48, a processing condition determination unit 50, and a processing unit 52.

画像選択手段30は、マウス、キーボード、ペンタッチツール、タッチパネル等の入力ツールである。この場合、ディスプレイ等の表示機器である画像表示手段34には、画像データベース18に登録された画像の一覧が表示される。   The image selection means 30 is an input tool such as a mouse, a keyboard, a pen touch tool, or a touch panel. In this case, a list of images registered in the image database 18 is displayed on the image display means 34 which is a display device such as a display.

なお、画像の一覧とは、読影ワークステーション14からの要求により、画像サーバ16が作成した、画像データベース18に登録された各画像を示す情報の一覧であり、例えば、各画像のサムネイル表示であったり、各画像を特徴付けるような情報(ファイル名等)の一覧表である。従って、医師は、画像選択手段30を操作することにより、表示された画像の一覧の中から、読影診断を行いたい少なくとも2つの画像を選択することができる。この場合、読影診断の対象となる少なくとも2つの画像は、例えば、同一患者に対して、今回の撮影により取得された画像と、以前の撮影により取得された画像とであり、これら2つの画像を比較画像表示手段42の画面上に表示させることにより、医師は、経過観察等の読影診断を行うことができる。   The image list is a list of information indicating each image registered in the image database 18 created by the image server 16 in response to a request from the image interpretation workstation 14, for example, a thumbnail display of each image. Or a list of information (file names, etc.) that characterizes each image. Therefore, the doctor can select at least two images to be subjected to interpretation diagnosis from the displayed list of images by operating the image selection means 30. In this case, at least two images to be subjected to interpretation diagnosis are, for example, an image acquired by the current imaging and an image acquired by the previous imaging for the same patient. By displaying on the screen of the comparative image display means 42, the doctor can perform interpretation diagnosis such as follow-up observation.

画像情報取得手段32は、医師により選択された少なくとも2つの画像や当該2つの画像の付帯情報を、画像サーバ16からネットワーク22を介して取得する。これにより、画像表示手段34には、取得した少なくとも2つの画像(以下、2つの入力画像ともいう。)や付帯情報が表示される。   The image information acquisition unit 32 acquires at least two images selected by the doctor and supplementary information of the two images from the image server 16 via the network 22. Accordingly, at least two acquired images (hereinafter also referred to as two input images) and incidental information are displayed on the image display unit 34.

指定手段36は、画像選択手段30と同様の入力ツールである。この場合、医師は、画像表示手段34に表示された2つの入力画像に共通して含まれる所定部位を指定する。   The designation unit 36 is an input tool similar to the image selection unit 30. In this case, the doctor designates a predetermined part that is included in common in the two input images displayed on the image display means 34.

比較画像決定手段38は、画像表示手段34に表示された2つの入力画像を比較画像表示手段42に比較表示させる際に、異なるモダリティ12により撮影され、及び/又は、同じモダリティ12であっても異なる撮影方法により撮影された、2つの入力画像が同じ見え方となるような所定の調整処理(ウィンドウ処理)を、該2つの入力画像に対して自動的に実行する。   The comparison image determination means 38 is photographed by different modalities 12 and / or the same modality 12 when the two input images displayed on the image display means 34 are displayed on the comparison image display means 42 for comparison. Predetermined adjustment processing (window processing) is performed automatically on the two input images so that the two input images captured by different imaging methods look the same.

比較画像決定手段38の濃淡パターンテーブル46には、モダリティ及び撮影方法に応じた所定部位の濃淡パターンが格納されている。この場合、濃淡パターンテーブル46には、例えば、入力画像中の所定部位を表示手段40及び比較画像表示手段42の画面上に表示する際のウィンドウレベル(WL)及びウィンドウ幅(WW)の数値(WL/WW)が濃淡パターンとして格納されている。   The light and shade pattern table 46 of the comparison image determining means 38 stores light and shade patterns of a predetermined part corresponding to the modality and the imaging method. In this case, for example, the gray level pattern table 46 includes numerical values (for example, window level (WL) and window width (WW) when displaying predetermined portions in the input image on the screens of the display means 40 and the comparison image display means 42). WL / WW) is stored as a shading pattern.

位置合わせ手段48は、2つの入力画像のうち、少なくとも一方の入力画像の画面上での位置を調整することにより、2つの入力画像の所定部位の位置を相対的に位置合わせする。   The alignment unit 48 relatively aligns the positions of predetermined portions of the two input images by adjusting the position of at least one of the two input images on the screen.

処理条件決定手段50は、濃淡パターンテーブル46を参照して、医師が指定手段36により指定した所定部位に応じた濃淡パターン(WL/WW)を検索する。そして、処理条件決定手段50は、検索したWL/WWに応じた2つの入力画像に対するウィンドウ処理条件(WL/WWを調整するための条件)を決定する。   The processing condition determining unit 50 refers to the density pattern table 46 and searches for the density pattern (WL / WW) corresponding to the predetermined part designated by the doctor with the designation means 36. Then, the processing condition determining means 50 determines window processing conditions (conditions for adjusting WL / WW) for two input images according to the searched WL / WW.

処理手段52は、2つの入力画像のウィンドウ幅及びウィンドウレベルを、処理条件決定手段50で決定されたウィンドウ処理条件に基づくウィンドウ幅及びウィンドウレベルに調整する(ウィンドウ処理を実行する)。表示手段40は、画像表示手段34と同様の表示機器であり、ウィンドウ処理後の2つの入力画像を表示する。   The processing unit 52 adjusts the window width and window level of the two input images to the window width and window level based on the window processing condition determined by the processing condition determination unit 50 (executes window processing). The display means 40 is a display device similar to the image display means 34, and displays two input images after window processing.

比較画像表示手段42は、画像表示手段34及び表示手段40と同様の表示機器であり、処理手段52でのウィンドウ処理後の2つの入力画像を比較表示する。   The comparison image display unit 42 is a display device similar to the image display unit 34 and the display unit 40, and compares and displays the two input images after the window processing by the processing unit 52.

なお、本実施形態において、画像表示手段34、表示手段40及び比較画像表示手段42は、同じ表示機器(ディスプレイ)であってもよいし、異なるディスプレイであってもよい。また、画像選択手段30及び指定手段36は、同じ入力ツールであってもよいし、異なる入力ツールであってもよい。   In the present embodiment, the image display unit 34, the display unit 40, and the comparative image display unit 42 may be the same display device (display) or different displays. The image selection means 30 and the designation means 36 may be the same input tool or different input tools.

[画像処理装置の動作]
以上のように構成される読影ワークステーション14の動作(画像処理方法)について、図3〜図8を参照しながら説明する。なお、この説明では、必要に応じて、図1及び図2も参照して説明する。
[Operation of image processing apparatus]
The operation (image processing method) of the image interpretation workstation 14 configured as described above will be described with reference to FIGS. In addition, in this description, it demonstrates with reference to FIG.1 and FIG.2 as needed.

ここでは、濃淡パターンテーブル46に図4に示すモダリティ12及び部位毎に予め定められた濃淡パターンを示すウィンドウレベル及びウィンドウ幅(WL/WW)が格納されているものとして説明する。   Here, description will be made assuming that the light and shade pattern table 46 stores the modality 12 shown in FIG. 4 and the window level and the window width (WL / WW) indicating the light and shade pattern predetermined for each part.

図4は、一医療機関に所有されているモダリティ12の種類及び撮影方法に応じて、事前に作成されて、濃淡パターンテーブル46に格納された濃淡パターンを示すウィンドウレベル及びウィンドウ幅(WL/WW)のデフォルト値を示している。なお、図4において、MR(T1)は、MRI装置のT1強調画像を示し、MR(T2)は、MRI装置のT2強調画像を示し、PET(SUV)は、PET装置のSUV(standardized uptake value)画像を示す。   FIG. 4 shows a window level and a window width (WL / WW) indicating the shading pattern created in advance and stored in the shading pattern table 46 according to the type of modality 12 owned by one medical institution and the imaging method. ) Shows the default value. In FIG. 4, MR (T1) indicates a T1-weighted image of the MRI apparatus, MR (T2) indicates a T2-weighted image of the MRI apparatus, and PET (SUV) indicates an SUV (standardized uptake value of the PET apparatus). ) Show the image.

図3のステップS1(取得ステップ)において、先ず、読影ワークステーション14は、画像データベース18に登録されている画像の一覧を画像表示手段34に表示する。この場合、読影ワークステーション14は、自動的に、又は、医師の画像選択手段30の操作による取得要求指示に従って、ネットワーク22を介して画像サーバ16に画像の一覧の送信要求を行う。画像サーバ16は、読影ワークステーション14からの送信要求に従って、画像データベース18に登録された画像の一覧を作成し、作成した画像の一覧をネットワーク22を介して読影ワークステーション14に送信する。画像情報取得手段32は、画像の一覧を取得し、画像表示手段34に表示させる。   In step S1 (acquisition step) of FIG. 3, first, the image interpretation workstation 14 displays a list of images registered in the image database 18 on the image display means 34. In this case, the image interpretation workstation 14 requests the image server 16 to transmit a list of images through the network 22 automatically or in accordance with an acquisition request instruction by the operation of the doctor's image selection means 30. The image server 16 creates a list of images registered in the image database 18 in accordance with a transmission request from the interpretation workstation 14 and transmits the created list of images to the interpretation workstation 14 via the network 22. The image information acquisition unit 32 acquires a list of images and causes the image display unit 34 to display the list.

次に、医師は、画像選択手段30を操作して、画像の一覧の中から、比較画像表示手段42に表示したい2つの入力画像を選択する。これにより、読影ワークステーション14は、ネットワーク22を介して画像サーバ16に2つの入力画像及び付帯情報の送信を要求する。画像サーバ16は、画像選択手段30から送信要求のあった2つの入力画像及び付帯情報を、ネットワーク22を介して読影ワークステーション14に送信する。これにより、画像情報取得手段32は、2つの入力画像及び付帯情報を取得し、画像表示手段34は、取得した2つの入力画像及び付帯情報を表示することができる。   Next, the doctor operates the image selection unit 30 to select two input images to be displayed on the comparison image display unit 42 from the list of images. Accordingly, the image interpretation workstation 14 requests the image server 16 to transmit two input images and supplementary information via the network 22. The image server 16 transmits the two input images requested to be transmitted from the image selection means 30 and the accompanying information to the image interpretation workstation 14 via the network 22. Thereby, the image information acquisition means 32 can acquire two input images and incidental information, and the image display means 34 can display the acquired two input images and incidental information.

例えば、画像表示手段34は、図5に示すCT画像と、図6に示すMR画像とを、画面上に別々に表示することができる。なお、図5及び図6は、同一患者に対するCT撮影及びMR撮影により取得されたCT画像及びMR画像をそれぞれ図示したものである。   For example, the image display means 34 can separately display the CT image shown in FIG. 5 and the MR image shown in FIG. 6 on the screen. 5 and 6 illustrate a CT image and an MR image acquired by CT imaging and MR imaging for the same patient, respectively.

図5において、画像表示手段34の画面上には、CT画像を表示するウィンドウ60と、CT画像のヒストグラム80等を表示するウィンドウ62とが表示されている。ウィンドウ60は、頭部のアキシャル画像72を表示する表示フレーム64と、3D画像74を表示する表示フレーム66と、サジタル画像76を表示する表示フレーム68と、コロナル画像78を表示する表示フレーム70とから構成される。   In FIG. 5, a window 60 for displaying a CT image and a window 62 for displaying a histogram 80 of the CT image and the like are displayed on the screen of the image display means 34. The window 60 includes a display frame 64 that displays an axial image 72 of the head, a display frame 66 that displays a 3D image 74, a display frame 68 that displays a sagittal image 76, and a display frame 70 that displays a coronal image 78. Consists of

この場合、アキシャル画像72は、WL=40及びWW=80で表示フレーム64に表示されている。ウィンドウ62には、CT画像のCT値を示すヒストグラム80に対して、画像表示手段34の画面上にアキシャル画像72を表示するためのWL及びWWを示すパターン特性82も図示されている。すなわち、ヒストグラム80中、CT値=40をWLに設定し、CT値=0〜80をWWに設定し、CT値が0以下の領域は、ディスプレイ(画像表示手段34の画面)の256階調の0(白)に設定し、80以上の領域は、256(黒)に設定している。白、黒及びグレー(CT値=0〜80)の範囲は、表示バー84において、医師に視認されやすいように表示されている。また、パターン特性82に示すWWは、医師がマウス等により操作バー86を操作することで調整可能である。   In this case, the axial image 72 is displayed on the display frame 64 with WL = 40 and WW = 80. The window 62 also shows a pattern characteristic 82 indicating WL and WW for displaying the axial image 72 on the screen of the image display means 34 with respect to the histogram 80 indicating the CT value of the CT image. That is, in the histogram 80, CT value = 40 is set to WL, CT value = 0 to 80 is set to WW, and the region where the CT value is 0 or less is 256 gradations of the display (screen of the image display means 34). Is set to 0 (white), and the area of 80 or more is set to 256 (black). A range of white, black, and gray (CT value = 0 to 80) is displayed on the display bar 84 so as to be easily recognized by a doctor. The WW shown in the pattern characteristic 82 can be adjusted by the doctor operating the operation bar 86 with a mouse or the like.

一方、図6において、画像表示手段34の画面上には、MR画像を表示するウィンドウ90と、MR画像のヒストグラム110等を表示するウィンドウ92とが表示されている。ウィンドウ90は、頭部のアキシャル画像102を表示する表示フレーム94と、3D画像108を表示する表示フレーム96と、サジタル画像104を表示する表示フレーム98と、コロナル画像106を表示する表示フレーム100とから構成される。   On the other hand, in FIG. 6, a window 90 for displaying the MR image and a window 92 for displaying the histogram 110 of the MR image are displayed on the screen of the image display means 34. The window 90 includes a display frame 94 that displays the axial image 102 of the head, a display frame 96 that displays the 3D image 108, a display frame 98 that displays the sagittal image 104, and a display frame 100 that displays the coronal image 106. Consists of

この場合、アキシャル画像102は、WL=546、WW=1049で表示フレーム94に表示されている。ウィンドウ92には、MR画像の数値を示すヒストグラム110に対して、画像表示手段34の画面上にアキシャル画像102を表示するためのWL及びWWを示すパターン特性112も図示されている。すなわち、ヒストグラム110中、数値=546をWLに設定し、数値=21〜1070をWWに設定し、21以下の数値は、ディスプレイ(画像表示手段34の画面)の256階調の0(白)に設定し、1070以上の領域は、256(黒)に設定している。白、黒及びグレー(数値=21〜1070)の範囲は、表示バー114において、医師に視認されやすいように表示されている。また、パターン特性112に示すWWは、医師がマウス等により操作バー116を操作することで調整可能である。   In this case, the axial image 102 is displayed on the display frame 94 with WL = 546 and WW = 1049. The window 92 also shows a pattern characteristic 112 showing WL and WW for displaying the axial image 102 on the screen of the image display means 34 with respect to the histogram 110 showing the numerical value of the MR image. That is, in the histogram 110, the numerical value = 546 is set to WL, the numerical value = 21 to 1070 is set to WW, and the numerical value of 21 or less is 0 (white) of 256 gradations of the display (screen of the image display means 34). The area of 1070 or more is set to 256 (black). The range of white, black, and gray (numerical value = 21 to 1070) is displayed on the display bar 114 so as to be easily recognized by a doctor. The WW shown in the pattern characteristic 112 can be adjusted by the doctor operating the operation bar 116 with a mouse or the like.

次のステップS2(指定ステップ)において、医師は、指定手段36を操作して、画像表示手段34に表示されたCT画像(アキシャル画像72)及びMR画像(アキシャル画像102)に共通して含まれる所定部位を指定する。例えば、医師は、アキシャル画像72、102中、脳実質を所定部位として指定する。   In the next step S2 (designation step), the doctor operates the designation means 36 to be included in common in the CT image (axial image 72) and MR image (axial image 102) displayed on the image display means 34. Designate a predetermined part. For example, the doctor designates the brain parenchyma as a predetermined part in the axial images 72 and 102.

次のステップS3(位置合わせステップ)において、位置合わせ手段48は、アキシャル画像72、102のうち、少なくとも一方の入力画像の画面上での位置を調整し、2つのアキシャル画像72、102の所定部位の位置を相対的に位置合わせする。例えば、アキシャル画像72、102については、アキシャル画像72が表示フレーム64の略中央に表示される一方で、アキシャル画像102が表示フレーム94からはみ出すように表示されているので、位置合わせ手段48は、アキシャル画像72の表示位置に合わせるように、アキシャル画像102の表示位置を調整する。   In the next step S3 (alignment step), the alignment means 48 adjusts the position on the screen of at least one input image of the axial images 72 and 102, and predetermined portions of the two axial images 72 and 102. The positions of are relatively aligned. For example, with respect to the axial images 72 and 102, the axial image 72 is displayed at substantially the center of the display frame 64, while the axial image 102 is displayed so as to protrude from the display frame 94. The display position of the axial image 102 is adjusted to match the display position of the axial image 72.

次のステップS4(ウィンドウ処理条件決定ステップ)において、処理条件決定手段50は、図4の濃淡パターンテーブル46を参照し、医師が指定手段36により指定した脳実質に応じた濃淡パターン(WL/WW)を検索して、検索した濃淡パターンに応じた2つの画像に対するウィンドウ処理条件を決定する。   In the next step S4 (window processing condition determining step), the processing condition determining means 50 refers to the light / dark pattern table 46 of FIG. 4, and the light / dark pattern (WL / WW) corresponding to the brain parenchyma designated by the doctor 36 by the specifying means 36. ) To determine window processing conditions for two images according to the searched shading pattern.

例えば、CT画像(アキシャル画像72)のウィンドウ処理条件を決定する場合、処理条件決定手段50は、図4を参照して、頭部(脳実質)及びCT(HU)に該当する「60/350」を検索し、検索した濃淡パターンに基づいてアキシャル画像72のウィンドウ処理条件を設定する。また、MR画像(アキシャル画像102)のウィンドウ処理条件を決定する場合、処理条件決定手段50は、図4を参照して、頭部(脳実質)及びMR(T1)に該当する「1000/2000」を検索するか、あるいは、頭部(脳実質)及びMR(T2)に該当する「400/500」を検索し、検索した濃淡パターンに基づいてアキシャル画像102のウィンドウ処理条件を設定する。   For example, when determining the window processing conditions of the CT image (axial image 72), the processing condition determining means 50 refers to FIG. 4 and “60/350 corresponding to the head (brain parenchyma) and CT (HU)”. ”And the window processing condition of the axial image 72 is set based on the searched shading pattern. Further, when determining the window processing conditions of the MR image (axial image 102), the processing condition determining means 50 refers to FIG. 4 and “1000/2000” corresponding to the head (brain parenchyma) and MR (T1). Or “400/500” corresponding to the head (brain parenchyma) and MR (T2), and the window processing condition of the axial image 102 is set based on the searched shading pattern.

次のステップS5(ウィンドウ処理ステップ)において、処理手段52は、アキシャル画像72、102のWL及びWWを、処理条件決定手段50で決定されたウィンドウ処理条件に基づくWL及びWWに調整する。   In the next step S5 (window processing step), the processing means 52 adjusts WL and WW of the axial images 72 and 102 to WL and WW based on the window processing condition determined by the processing condition determination means 50.

図7は、処理条件決定手段50での処理後に表示手段40に表示されたMR画像を図示している。つまり、図5のCT画像の見え方に合わせるように、図6のMR画像を調整することで、図7のMR画像が生成され、表示手段40に表示された場合を図示している。   FIG. 7 illustrates an MR image displayed on the display unit 40 after processing by the processing condition determination unit 50. That is, the MR image of FIG. 7 is generated by adjusting the MR image of FIG. 6 so as to match the appearance of the CT image of FIG. 5 and displayed on the display means 40.

この場合、図7においては、図6と同様に、画像表示手段34の画面上に、MR画像を表示するウィンドウ120と、MR画像のヒストグラム140等を表示するウィンドウ122とが表示されている。ウィンドウ120は、ウィンドウ処理後のアキシャル画像132を表示する表示フレーム124と、3D画像138を表示する表示フレーム126と、サジタル画像134を表示する表示フレーム128と、コロナル画像136を表示する表示フレーム130とから構成される。   In this case, in FIG. 7, as in FIG. 6, a window 120 for displaying the MR image and a window 122 for displaying the histogram 140 of the MR image are displayed on the screen of the image display means 34. The window 120 includes a display frame 124 that displays the axial image 132 after window processing, a display frame 126 that displays the 3D image 138, a display frame 128 that displays the sagittal image 134, and a display frame 130 that displays the coronal image 136. It consists of.

この場合、アキシャル画像132は、ステップS5の処理によって、WL=1366、WW=2716で表示フレーム124に表示される。ウィンドウ122には、ヒストグラム140とパターン特性142とが表示されている。ヒストグラム140中、数値=1366をWLに設定し、数値=7〜2723をWWに設定し、7以下の数値は、ディスプレイ(表示手段40の画面)の256階調の0(白)に設定し、2723以上の領域は、256(黒)に設定している。白、黒及びグレー(7〜2723)の範囲は、表示バー144において、医師に視認されやすいように表示されている。また、パターン特性142に示すWWは、医師がマウス等により操作バー146を操作することで調整可能である。   In this case, the axial image 132 is displayed on the display frame 124 with WL = 1366 and WW = 2716 by the process of step S5. In the window 122, a histogram 140 and a pattern characteristic 142 are displayed. In the histogram 140, the numerical value = 1366 is set to WL, the numerical value = 7 to 2723 is set to WW, and the numerical values of 7 or less are set to 0 (white) of 256 gradations of the display (screen of the display means 40). , 2723 and above are set to 256 (black). The range of white, black, and gray (7 to 2723) is displayed on the display bar 144 so as to be easily recognized by a doctor. The WW shown in the pattern characteristic 142 can be adjusted by the doctor operating the operation bar 146 with a mouse or the like.

このように、CT画像とMR画像とが同じ見え方に調整された後のステップS6(表示ステップ)において、比較画像表示手段42は、図8に示すように、ウィンドウ処理後の2つのアキシャル画像72、132を画面上のウィンドウ150に比較表示する。この場合、左側の表示フレーム152にアキシャル画像72が表示されると共に、右側の表示フレーム154にアキシャル画像132が表示される。これにより、医師は、同じ見え方の2つのアキシャル画像72、132を比較しながら、患者の脳実体に対する読影診断を容易に行うことができる。   In this way, in step S6 (display step) after the CT image and MR image are adjusted to the same appearance, the comparison image display means 42, as shown in FIG. 8, displays two axial images after the window processing. 72 and 132 are compared and displayed in a window 150 on the screen. In this case, the axial image 72 is displayed on the left display frame 152 and the axial image 132 is displayed on the right display frame 154. Thus, the doctor can easily perform an image interpretation diagnosis on the brain entity of the patient while comparing the two axial images 72 and 132 having the same appearance.

なお、上記の説明では、一例として、医師が脳実体を所定部位として指定し、この指定に従って、脳実体の濃淡パターンを濃淡パターンテーブル46から読み出し、ウィンドウ処理条件を設定する場合について説明した。   In the above description, as an example, a case has been described in which a doctor designates a brain entity as a predetermined part, reads the shade pattern of the brain entity from the shade pattern table 46 according to this designation, and sets the window processing conditions.

本実施形態では、この説明に限定されることはなく、例えば、血管(冠動脈)を所定部位として指定し、この指定に従って、血管の濃淡パターンを濃淡パターンテーブル46から読み出してもよい。   In the present embodiment, the description is not limited to this. For example, a blood vessel (coronary artery) may be designated as a predetermined portion, and the blood vessel shade pattern may be read from the shade pattern table 46 in accordance with this designation.

また、上述したウィンドウ処理条件の設定及びウィンドウ処理は、下記のように変更してもよい(実施例1及び実施例2)。   Further, the setting of the window processing conditions and the window processing described above may be changed as follows (Example 1 and Example 2).

[実施例1]
処理手段52は、一方の入力画像のWL及びWWを変更した場合、他方の入力画像のWL及びWWを自動的に変更してもよい。すなわち、2つの入力画像のうち、一方の入力画像の所定部位のみについて濃淡パターンを濃淡パターンテーブル46から読み出し、読み出した濃淡パターンに基づき一方の入力画像のウィンドウ処理条件を設定し、該ウィンドウ処理条件に従って一方の入力画像のウィンドウ処理を行う。次に、一方の入力画像のウィンドウ処理の結果に基づいて、他方の入力画像のウィンドウ処理を行う。
[Example 1]
When the processing unit 52 changes the WL and WW of one input image, the processing unit 52 may automatically change the WL and WW of the other input image. That is, the gray pattern is read from the gray pattern table 46 for only a predetermined part of one input image of the two input images, the window processing condition of one input image is set based on the read gray pattern, and the window processing condition The window processing of one input image is performed according to Next, based on the result of the window processing of one input image, the window processing of the other input image is performed.

具体的に、脳実質等の注目する所定部位のヒストグラムが正規分布であると仮定した場合、例えば、一方の入力画像のヒストグラムの正規分布の標準偏差SDに対して、当該入力画像のWWを4SD(−2SD〜+2SD)分と規定しておく。これに従って、一方の入力画像のWL及びWWを変更した後に、2つの入力画像の双方の分布について、変更量が一致するように他方の入力画像のWL及びWWを変更する。   Specifically, when it is assumed that the histogram of a predetermined region of interest such as the brain parenchyma is a normal distribution, for example, the WW of the input image is set to 4SD with respect to the standard deviation SD of the normal distribution of the histogram of one input image. It is defined as (−2SD to + 2SD) minutes. Accordingly, after changing the WL and WW of one input image, the WL and WW of the other input image are changed so that the change amounts coincide with each other in the distributions of the two input images.

ここで、具体的な数値を掲げて説明する。   Here, specific numerical values will be described.

一方の入力画像が脳実質のCT画像であり、他方の画像が脳実質のMR画像である場合、図4を参照すれば、CT画像の濃淡パターンは、「60/350」であり、MR画像の濃淡パターンは、「1000/2000」である。そこで、先ず、CT画像及びMR画像に対して、これらの値を一旦適用する。   When one input image is a CT image of the brain parenchyma and the other image is an MR image of the brain parenchyma, referring to FIG. 4, the density pattern of the CT image is “60/350”, and the MR image The shading pattern is “1000/2000”. Therefore, first, these values are once applied to the CT image and the MR image.

次に、医師がマウス等で、CT画像のWL及びWWを「60/350」から「120/700」に変更する微補正を行う。   Next, a doctor performs fine correction with a mouse or the like to change the WL and WW of the CT image from “60/350” to “120/700”.

次に、他方の入力画像について、一方の入力画像の微補正の結果に基づいてWL及びWWを自動的に補正する。具体的に、MR画像のWL及びWWは、下記(1)式及び(2)式のように決定される。
WL=1000+(120−60)×2000/350
≒1342.85 (1)
WW=2000×700/350=4000 (2)
Next, for the other input image, WL and WW are automatically corrected based on the result of fine correction of the one input image. Specifically, the WL and WW of the MR image are determined as in the following equations (1) and (2).
WL = 1000 + (120-60) × 2000/350
≈ 1342.85 (1)
WW = 2000 × 700/350 = 4000 (2)

なお、医師がマウス等を用いて連続的に変化させる場合は、直前のWL/WWの値を用いて、上記の計算方法で他の入力画像のWLの値を変更することが望ましい。   In the case where the doctor continuously changes using a mouse or the like, it is desirable to change the WL value of another input image by the above calculation method using the previous WL / WW value.

[実施例2]
脳実質や血管等、医師が指定した注目領域(マウス等でクリックした入力画像中の任意の点から半径数十ピクセルの範囲程度)のヒストグラムを解析することにより、2つの入力画像のWL/WWを一致させてもよい。
[Example 2]
Analyzing the histogram of the region of interest specified by the doctor (such as the brain parenchyma and blood vessels) (the range of several tens of pixels from any point in the input image clicked with the mouse or the like), the two input images WL / WW May be matched.

この場合、ウィンドウ処理条件の設定前に、予め2つの入力画像の間において位置合わせが既になされているため、一方の入力画像において医師が任意の位置を指定すると、他方の入力画像における同一位置のピクセルが分かる。そのため、その周辺の注目領域のヒストグラムを取得することができる。従って、2つの入力画像の正規分布上でのWL/WWが同じような傾向となるように、他方の入力画像のWL/WWを変化させる。   In this case, since the alignment between the two input images has already been made in advance before setting the window processing condition, if the doctor designates an arbitrary position in one input image, the same position in the other input image is set. I know the pixel. Therefore, a histogram of the attention area around it can be acquired. Therefore, the WL / WW of the other input image is changed so that the WL / WW on the normal distribution of the two input images tend to have the same tendency.

ここで、具体的な数値を掲げて説明する。   Here, specific numerical values will be described.

CT画像で目的部位(所定部位付近、又は、所定部位そのもの)のヒストグラムについて、中心を100とし、標準偏差SDを50とする。一方、MR画像について、目的部位(所定部位付近、又は、所定部位そのもの)のヒストグラムについて、中心を3000とし、標準偏差SDを1000とする。   With respect to the histogram of the target site (near the predetermined site or the predetermined site itself) in the CT image, the center is 100 and the standard deviation SD is 50. On the other hand, regarding the MR image, the center of the histogram of the target part (near the predetermined part or the predetermined part itself) is set to 3000, and the standard deviation SD is set to 1000.

この目的部位に対して、CT画像でWL=120及びWW=100が適用された場合、他方のMR画像のWL及びWWは、以下の(3)式及び(4)式のように計算されるのが望ましい。
WL=3000+(120−100)×1000/50=3400 (3)
WW=1000×100/50=2000 (4)
When WL = 120 and WW = 100 are applied to the target region in the CT image, WL and WW of the other MR image are calculated as in the following equations (3) and (4). Is desirable.
WL = 3000 + (120−100) × 1000/50 = 3400 (3)
WW = 1000 × 100/50 = 2000 (4)

[本実施形態の効果]
以上説明したように、本実施形態では、モダリティ12及び撮影方法に応じた所定部位の濃淡パターンを格納した濃淡パターンテーブル46を参照して、モダリティ12の種類及び/又は撮影方法の異なる少なくとも2つの入力画像の示す所定部位に応じた濃淡パターン(WL/WW)を検索し、検索した濃淡パターンに応じた2つの入力画像に対するウィンドウ処理条件(WL/WW)を決定する。
[Effect of this embodiment]
As described above, in the present embodiment, at least two different types of modality 12 and / or imaging methods are referred to with reference to the shading pattern table 46 storing the shading pattern of a predetermined part corresponding to the modality 12 and the imaging method. A light / dark pattern (WL / WW) corresponding to a predetermined portion indicated by the input image is searched, and window processing conditions (WL / WW) for two input images corresponding to the searched light / dark pattern are determined.

従って、決定したウィンドウ処理条件に従って2つの入力画像に対するウィンドウ処理を行い、ウィンドウ処理後の2つの入力画像を比較画像表示手段42で比較表示させれば、モダリティ12の種類及び撮影方法の違いに関わりなく、2つの入力画像を同じ見え方で表示させることができる。   Accordingly, if window processing is performed on two input images in accordance with the determined window processing conditions, and the two input images after the window processing are compared and displayed on the comparison image display means 42, the type of modality 12 and the difference in photographing method are related. In addition, two input images can be displayed in the same way.

このように、2つの入力画像が同じ見え方となるように自動的に調整されるので、医師による2つの入力画像に対する微調整の作業が不要となり、該医師の作業負担を軽減することができる。また、2つの入力画像が同じ見え方に調整されるので、2つの入力画像に共通して存在する所定部位の形状の異同を比較及び視認することが容易となり、該2つの入力画像に対する読影診断を容易に且つ効率よく行うことができる。   As described above, since the two input images are automatically adjusted so as to have the same appearance, the fine adjustment work for the two input images by the doctor becomes unnecessary, and the work load on the doctor can be reduced. . Also, since the two input images are adjusted to have the same appearance, it becomes easy to compare and visually recognize the difference in the shape of a predetermined portion that exists in common in the two input images. Can be easily and efficiently performed.

また、指定手段36は、医師の指定した部位を所定部位として選択するので、該医師の所望する2つの画像を同じ見え方で比較画像表示手段42に比較表示させることができる。なお、比較画像表示手段42で比較表示される部位を含む画像が予め決まっている場合に、指定手段36は、予め定められた部位を所定部位として自動的に選択してもよい。この場合でも、2つの入力画像を比較画像表示手段42に確実に且つ効率よく比較表示することができる。   Moreover, since the designation | designated means 36 selects the site | part designated by the doctor as a predetermined site | part, it can compare-display the two images which the doctor desires on the comparison image display means 42 by the same appearance. In addition, when the image including the site | part compared and displayed by the comparison image display means 42 is decided beforehand, the designation | designated means 36 may select a predetermined site | part automatically as a predetermined site | part. Even in this case, the two input images can be reliably and efficiently compared and displayed on the comparison image display means 42.

また、処理手段52は、2つの入力画像のうち、一方の入力画像のWL及びWWを調整した場合、その調整結果に基づいて他方の入力画像のWL及びWWも調整してもよい。これにより、2つの入力画像に対するウィンドウ処理を容易にうことができる。   In addition, when the processing unit 52 adjusts the WL and WW of one of the two input images, the processing unit 52 may also adjust the WL and WW of the other input image based on the adjustment result. Thereby, the window processing for the two input images can be easily performed.

なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, it can change freely in the range which does not deviate from the main point of this invention.

12…モダリティ 14…読影ワークステーション
30…画像選択手段 32…画像情報取得手段
34…画像表示手段 36…指定手段
38…比較画像決定手段 42…比較画像表示手段
46…濃淡パターンテーブル 48…位置合わせ手段
50…処理条件決定手段 52…処理手段
72、102、132…アキシャル画像
80、110、140…ヒストグラム
82、112、142…パターン特性
DESCRIPTION OF SYMBOLS 12 ... Modality 14 ... Interpretation workstation 30 ... Image selection means 32 ... Image information acquisition means 34 ... Image display means 36 ... Designation means 38 ... Comparison image determination means 42 ... Comparison image display means 46 ... Shading pattern table 48 ... Positioning means 50: Processing condition determining means 52 ... Processing means 72, 102, 132 ... Axial images 80, 110, 140 ... Histograms 82, 112, 142 ... Pattern characteristics

Claims (6)

異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された、少なくとも2つの入力画像を取得する画像取得手段と、
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段と、
を有することを特徴とする画像処理装置。
Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
Display means for comparing and displaying the two input images processed by the window processing means;
An image processing apparatus comprising:
請求項1記載の画像処理装置において、
前記指定手段は、予め定められた部位を前記所定部位として選択するか、あるいは、ユーザの指定した部位を前記所定部位として選択することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus characterized in that the specifying means selects a predetermined part as the predetermined part or selects a part specified by a user as the predetermined part.
請求項1又は2記載の画像処理装置において、
前記ウィンドウ処理手段は、前記2つの入力画像のうち、一方の入力画像のウィンドウレベル及びウィンドウ幅を調整すれば、予め定められた条件に基づいて他方の入力画像のウィンドウレベル及びウィンドウ幅も調整することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
If the window level and the window width of one of the two input images are adjusted, the window processing unit also adjusts the window level and the window width of the other input image based on a predetermined condition. An image processing apparatus.
請求項1〜3のいずれか1項に記載の画像処理装置において、
前記モダリティは、MRI装置、CT装置又はPET装置であることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The modality is an MRI apparatus, a CT apparatus, or a PET apparatus.
異なるモダリティにより撮影され、及び/又は、異なる撮影方法で撮影された少なくとも2つの入力画像を取得する取得ステップと、
前記2つの入力画像に共通して含まれる所定部位を指定する指定ステップと、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせステップと、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定ステップと、
決定した前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理ステップと、
前記ウィンドウ処理ステップで処理した前記2つの入力画像を比較表示する表示ステップと、
を有することを特徴とする画像処理方法。
Acquiring at least two input images taken with different modalities and / or taken with different imaging methods;
A designation step for designating a predetermined part commonly included in the two input images;
An alignment step of relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
With reference to the shading pattern table storing the shading pattern of the predetermined part corresponding to the modality and the imaging method, the shading pattern corresponding to the predetermined part of the two input images is searched, and according to the searched shading pattern A window processing condition determining step for determining window processing conditions for the two input images;
A window processing step for performing window processing on the two input images based on the determined window processing conditions;
A display step for comparing and displaying the two input images processed in the window processing step;
An image processing method comprising:
コンピュータを、
異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された、少なくとも2つの入力画像を取得する画像取得手段と、
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段と、
して機能させることを特徴とするプログラム。
Computer
Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
Display means for comparing and displaying the two input images processed by the window processing means;
A program characterized by making it function.
JP2012085470A 2012-04-04 2012-04-04 Image processing apparatus, image processing method, and program Active JP6063142B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012085470A JP6063142B2 (en) 2012-04-04 2012-04-04 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012085470A JP6063142B2 (en) 2012-04-04 2012-04-04 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2013215221A true JP2013215221A (en) 2013-10-24
JP6063142B2 JP6063142B2 (en) 2017-01-18

Family

ID=49588132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012085470A Active JP6063142B2 (en) 2012-04-04 2012-04-04 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6063142B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104720835A (en) * 2013-12-20 2015-06-24 Ge医疗系统环球技术有限公司 Display device, image displaying method and computerized tomography apparatus
CN111991018A (en) * 2019-05-27 2020-11-27 上海西门子医疗器械有限公司 Method of displaying tomographic image, method and apparatus for indicating range of CT value of tomographic image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58152905U (en) * 1982-04-01 1983-10-13 株式会社日立メデイコ Medical image analysis processing device
JPS63121986A (en) * 1986-11-12 1988-05-26 Hitachi Medical Corp Image work station
JPH06177A (en) * 1992-06-18 1994-01-11 Toshiba Corp Ct device
JPH06215108A (en) * 1992-11-27 1994-08-05 Fuji Photo Film Co Ltd Positioning method for radiation picture
JP2006095279A (en) * 2004-08-30 2006-04-13 Toshiba Corp Medical image display apparatus
JP2006102044A (en) * 2004-10-04 2006-04-20 Konica Minolta Medical & Graphic Inc Medical image processing system and medical image processing method
JP2008000536A (en) * 2006-06-26 2008-01-10 Fujifilm Corp Image display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58152905U (en) * 1982-04-01 1983-10-13 株式会社日立メデイコ Medical image analysis processing device
JPS63121986A (en) * 1986-11-12 1988-05-26 Hitachi Medical Corp Image work station
JPH06177A (en) * 1992-06-18 1994-01-11 Toshiba Corp Ct device
JPH06215108A (en) * 1992-11-27 1994-08-05 Fuji Photo Film Co Ltd Positioning method for radiation picture
JP2006095279A (en) * 2004-08-30 2006-04-13 Toshiba Corp Medical image display apparatus
JP2006102044A (en) * 2004-10-04 2006-04-20 Konica Minolta Medical & Graphic Inc Medical image processing system and medical image processing method
JP2008000536A (en) * 2006-06-26 2008-01-10 Fujifilm Corp Image display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104720835A (en) * 2013-12-20 2015-06-24 Ge医疗系统环球技术有限公司 Display device, image displaying method and computerized tomography apparatus
CN111991018A (en) * 2019-05-27 2020-11-27 上海西门子医疗器械有限公司 Method of displaying tomographic image, method and apparatus for indicating range of CT value of tomographic image

Also Published As

Publication number Publication date
JP6063142B2 (en) 2017-01-18

Similar Documents

Publication Publication Date Title
JP6438395B2 (en) Automatic detection and retrieval of previous annotations associated with image material for effective display and reporting
US7912268B2 (en) Image processing device and method
US20060146071A1 (en) Content based hanging protocols facilitated by rules based system
US11093699B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP2011092682A (en) Medical image display device, method, and program
US9996971B2 (en) System providing companion images
JPWO2007000940A1 (en) Abnormal shadow candidate detection method, abnormal shadow candidate detection device
JP2016101297A (en) Ophthalmologic information processing system and ophthalmologic information processing method
WO2014156160A1 (en) Graph display device, operating method for graph display device, and graph display program
WO2014148242A1 (en) Image display device and method
JP2010257210A (en) Apparatus and method for processing of photographic information, and program
JP2016202721A (en) Medical image display apparatus and program
US20190005354A1 (en) Learning data generation support apparatus, operation method of learning data generation support apparatus, and learning data generation support program
US8892577B2 (en) Apparatus and method for storing medical information
JP2007190125A (en) Medical image diagnostic apparatus
CN106333698A (en) Operating An X-Ray System For Examining An Object
JP5317558B2 (en) Medical information creation device
JP6063142B2 (en) Image processing apparatus, image processing method, and program
JP5042533B2 (en) Medical image display device
JP2020081280A (en) Image display control system, image display system, and image analyzing device
JP2021182403A (en) Converter, method for conversion, and program
JP7433750B2 (en) Video clip selector used for medical image creation and diagnosis
US20070286525A1 (en) Generation of imaging filters based on image analysis
JP2004160171A (en) Method and system for processing image, and image generating apparatus installed with the method and system
JP2019141642A (en) Ophthalmologic information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160906

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161216

R150 Certificate of patent or registration of utility model

Ref document number: 6063142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250