JP2013215221A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2013215221A JP2013215221A JP2012085470A JP2012085470A JP2013215221A JP 2013215221 A JP2013215221 A JP 2013215221A JP 2012085470 A JP2012085470 A JP 2012085470A JP 2012085470 A JP2012085470 A JP 2012085470A JP 2013215221 A JP2013215221 A JP 2013215221A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input images
- window processing
- window
- shading pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 17
- 210000004556 brain Anatomy 0.000 description 12
- 238000003745 diagnosis Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 210000004351 coronary vessel Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
本発明は、異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された少なくとも2つの入力画像を比較表示させるための画像処理装置及び画像処理方法、並びに、該画像処理装置を動作させるためのプログラムに関する。 The present invention relates to an image processing apparatus and an image processing method for comparing and displaying at least two input images photographed with different modalities and / or photographed with different photographing methods, and to operate the image processing apparatus. Related to the program.
近年、同一人物に対する検査(例えば、同一の患者に対する画像撮影)を行うにあたり、異なるモダリティで撮影し、あるいは、同じモダリティでも撮影プロトコル(撮影方法)を変えて撮影する場合がある。この場合、異なる種類のモダリティ及び/又は異なる撮影方法により撮影された、同一人物に対する少なくとも2つの画像は、表示装置で比較表示される(特許文献1参照)。 In recent years, when performing an examination on the same person (for example, photographing an image of the same patient), photographing may be performed with different modalities, or even with the same modality, photographing may be performed with different photographing protocols (imaging methods). In this case, at least two images of the same person captured by different types of modalities and / or different imaging methods are compared and displayed on the display device (see Patent Document 1).
このように、異なる種類のモダリティにより撮影された2つの画像や、同じモダリティでも異なる撮影方法で撮影された2つの画像を、表示装置で比較表示した場合、同一人物に対する画像でありながら、一見すると異なるように見えることがある。そのため、例えば、同じ病変箇所を比較観察したい場合、医師は、読影診断時に、これらの画像のウィンドウ幅(WW)及びウィンドウレベル(WL)を微調整する必要があった。しかしながら、医師にとって、WW及びWLの微調整は、煩雑な作業である。 In this way, when two images shot with different types of modalities or two images shot with different shooting methods with the same modality are compared and displayed on a display device, it is an image of the same person but at first glance. It may look different. For this reason, for example, when it is desired to perform comparative observation of the same lesion site, a doctor needs to finely adjust the window width (WW) and window level (WL) of these images at the time of interpretation diagnosis. However, for the doctor, fine adjustment of WW and WL is a complicated operation.
また、異なる時期に撮影された2つの画像であっても、同じCT装置で撮影された2つのCT画像であれば、CT値に意味があるので、上記の微調整の作業を比較的容易に行うことが可能である。しかしながら、他のモダリティ(例えば、MRI装置)で撮影された2つの画像については、該2つの画像の数値自体に意味がない場合もあり得る。そのため、前記2つの画像を同じ見え方に自動的に調整することが困難となる。このような場合、医師は、前記2つの画像に対して、煩雑な微調整の作業を行わざるを得ない。 Further, even if two images are taken at different times, the CT value is meaningful as long as the two CT images are taken with the same CT apparatus. Is possible. However, for two images taken with other modalities (for example, an MRI apparatus), the numerical values of the two images may not be meaningful. Therefore, it becomes difficult to automatically adjust the two images to the same appearance. In such a case, the doctor is forced to perform complicated fine adjustment operations on the two images.
本発明は、上記した問題を解決するためになされたもので、モダリティの種類及び撮影方法の違いに関わりなく、取得された少なくとも2つの画像に対して、同じ見え方となるように自動的に調整することが可能となる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and automatically obtains the same appearance for at least two acquired images regardless of differences in the types of modality and the photographing method. An object is to provide an image processing apparatus, an image processing method, and a program that can be adjusted.
本発明に係る画像処理装置は、
異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された、少なくとも2つの入力画像を取得する画像取得手段と、
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段と、
を有することを特徴とする。
An image processing apparatus according to the present invention includes:
Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
Display means for comparing and displaying the two input images processed by the window processing means;
It is characterized by having.
また、本発明に係る画像処理方法は、
異なるモダリティにより撮影され、及び/又は、異なる撮影方法で撮影された少なくとも2つの入力画像を取得する取得ステップと、
前記2つの入力画像に共通して含まれる所定部位を指定する指定ステップと、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせステップと、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定ステップと、
決定した前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理ステップと、
前記ウィンドウ処理ステップで処理した前記2つの入力画像を比較表示する表示ステップと、
を有することを特徴とする。
The image processing method according to the present invention includes:
Acquiring at least two input images taken with different modalities and / or taken with different imaging methods;
A designation step for designating a predetermined part commonly included in the two input images;
An alignment step of relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
With reference to the shading pattern table storing the shading pattern of the predetermined part corresponding to the modality and the imaging method, the shading pattern corresponding to the predetermined part of the two input images is searched, and according to the searched shading pattern A window processing condition determining step for determining window processing conditions for the two input images;
A window processing step for performing window processing on the two input images based on the determined window processing conditions;
A display step for comparing and displaying the two input images processed in the window processing step;
It is characterized by having.
また、本発明に係るプログラムは、コンピュータを、
異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された、少なくとも2つの入力画像を取得する画像取得手段と、
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段として機能させることを特徴とする。
Further, a program according to the present invention provides a computer,
Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
It is made to function as a display means for comparing and displaying the two input images processed by the window processing means.
このように、本発明では、モダリティ及び撮影方法に応じた所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、モダリティの種類及び/又は撮影方法の異なる少なくとも2つの入力画像の示す所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定する。 As described above, in the present invention, with reference to the shading pattern table storing the shading pattern of the predetermined portion corresponding to the modality and the photographing method, the predetermined portion indicated by at least two input images having different types of modality and / or photographing methods. A shade pattern corresponding to the two shaded patterns is retrieved, and window processing conditions for the two input images corresponding to the retrieved shade pattern are determined.
従って、決定したウィンドウ処理条件に従って前記2つの入力画像に対するウィンドウ処理を行い、ウィンドウ処理後の前記2つの入力画像を表示手段で比較表示させれば、モダリティの種類及び撮影方法の違いに関わりなく、前記2つの入力画像を同じ見え方で表示させることができる。 Therefore, if window processing is performed on the two input images according to the determined window processing conditions, and the two input images after window processing are compared and displayed on a display unit, regardless of the type of modality and the photographing method, The two input images can be displayed in the same way.
このように、前記2つの入力画像が同じ見え方となるように自動的に調整されるので、医師による前記2つの入力画像に対する微調整の作業が不要となり、該医師の作業負担を軽減することができる。また、前記2つの入力画像が同じ見え方に調整されるので、前記2つの入力画像に共通して存在する所定部位の形状の異同を比較及び視認することが容易となり、該2つの入力画像に対する読影診断を容易に且つ効率よく行うことができる。 As described above, since the two input images are automatically adjusted so that they look the same, a fine adjustment work for the two input images by the doctor is unnecessary, and the work load on the doctor is reduced. Can do. In addition, since the two input images are adjusted to the same appearance, it becomes easy to compare and visually recognize the difference in shape of a predetermined part that is common to the two input images. Interpretation diagnosis can be performed easily and efficiently.
ここで、上記の指定手段は、予め定められた部位を前記所定部位として選択するか、あるいは、ユーザの指定した部位を前記所定部位として選択することが好ましい。予め定められた部位を所定部位として選択すれば、2つの入力画像を表示手段に確実に且つ効率よく比較表示することができる。また、ユーザ(医師)の指定した部位を所定部位として選択すれば、該医師の所望する2つの画像を同じ見え方で表示手段に比較表示させることができる。 Here, it is preferable that the designating unit selects a predetermined site as the predetermined site, or selects a user-designated site as the predetermined site. If a predetermined part is selected as a predetermined part, two input images can be reliably and efficiently displayed on the display means. Further, if a part designated by the user (doctor) is selected as a predetermined part, two images desired by the doctor can be compared and displayed on the display means with the same appearance.
また、前記ウィンドウ処理手段は、前記2つの入力画像のうち、一方の入力画像のウィンドウレベル及びウィンドウ幅を調整すれば、予め定められた条件に基づいて他方の入力画像のウィンドウレベル及びウィンドウ幅も調整することが好ましい。これにより、前記2つの入力画像に対するウィンドウ処理を容易に行うことができる。 Further, the window processing means adjusts the window level and the window width of one input image of the two input images, and also adjusts the window level and the window width of the other input image based on a predetermined condition. It is preferable to adjust. Thereby, the window processing for the two input images can be easily performed.
本発明によれば、モダリティ及び撮影方法に応じた所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、モダリティの種類及び/又は撮影方法の異なる少なくとも2つの入力画像の示す所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定する。 According to the present invention, with reference to the shading pattern table storing the shading pattern of the predetermined part corresponding to the modality and the imaging method, the at least two input images having different types of modality and / or imaging methods are used. The shade pattern is searched, and window processing conditions for the two input images corresponding to the searched shade pattern are determined.
従って、決定したウィンドウ処理条件に従って前記2つの入力画像に対するウィンドウ処理を行い、ウィンドウ処理後の前記2つの入力画像を表示手段で比較表示させれば、モダリティの種類及び撮影方法の違いに関わりなく、前記2つの入力画像を同じ見え方で表示させることができる。 Therefore, if window processing is performed on the two input images according to the determined window processing conditions, and the two input images after window processing are compared and displayed on a display unit, regardless of the type of modality and the photographing method, The two input images can be displayed in the same way.
このように、前記2つの入力画像が同じ見え方となるように自動的に調整されるので、医師による前記2つの入力画像に対する微調整の作業が不要となり、該医師の作業負担を軽減することができる。また、前記2つの入力画像が同じ見え方に調整されるので、前記2つの入力画像に共通して存在する所定部位の形状の異同を比較及び視認することが容易となり、該2つの入力画像に対する読影診断を容易に且つ効率よく行うことができる。 As described above, since the two input images are automatically adjusted so that they look the same, a fine adjustment work for the two input images by the doctor is unnecessary, and the work load on the doctor is reduced. Can do. In addition, since the two input images are adjusted to the same appearance, it becomes easy to compare and visually recognize the difference in shape of a predetermined part that is common to the two input images. Interpretation diagnosis can be performed easily and efficiently.
以下、本発明に係る画像処理装置について、画像処理方法及びプログラムとの関係において、好適な実施形態を挙げ、添付の図面を参照しながら説明する。 Hereinafter, an image processing apparatus according to the present invention will be described with reference to the accompanying drawings by giving preferred embodiments in relation to an image processing method and a program.
[画像処理装置の構成]
図1に示すように、本実施形態に係る画像処理装置が適用される医療情報システム10では、特許文献1の医療情報システムと同様に、モダリティ12、画像処理装置としての読影ワークステーション14、画像サーバ16及び画像データベース18がネットワーク22を介して、互いに通信可能な状態で接続されている。これらの各機器は、CD−ROM等の記録媒体からインストールされたプログラム、又は、インターネット等のネットワーク経由で接続されたサーバからダウンロードされた後にインストールされたプログラムによって制御される。
[Configuration of image processing apparatus]
As shown in FIG. 1, in the
モダリティ12は、同一人物(同一の患者)の検査対象部位を撮影することにより、当該部位を示す画像を取得し、前記画像に検査情報及び患者情報等の付帯情報を付加して出力する。なお、付帯情報としては、例えば、個々の画像を識別するための画像ID、患者を識別するための患者ID、検査を識別するための検査ID、画像毎に割り振られるユニークなID(UID)、その画像が生成された検査日及び検査時刻、その画像を取得するための検査で使用されたモダリティの種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の画像を取得したときのシリーズ番号又は採取番号等の情報が含まれうる。
The
このようなモダリティ12としては、例えば、CT装置、MRI装置、PET装置がある。なお、本実施形態において、モダリティ12は、CT装置、MRI装置及びPET装置のうち、2つ以上の装置を指す場合や、1つの装置のみ指す場合がある。また、モダリティ12で取得される画像は、異なる装置で取得される少なくとも2つの画像や、同じ装置であっても撮影方法が異なる少なくとも2つの画像をいう。例えば、CT装置であれば、患者の検査対象部位を表す複数の3次元画像の画像データであり、所定のスライス間隔及びスライス厚による断層画像の画像データの集合体である。
Examples of
読影ワークステーション14は、ユーザである医師が、上述の少なくとも2つの画像に含まれる同一患者の検査対象部位に対する読影診断を行い、その結果(読影レポート)を作成するために利用する装置であり、ディスプレイ等の表示手段や、キーボード及びマウス等の操作手段を備えている。この場合、読影ワークステーション14は、医師により読影対象の画像の閲覧を要求する操作(指示)が行われると、画像サーバ16に対して読影対象の画像の送信を要求し、画像サーバ16から読影に必要な所望の画像(少なくとも2つの画像)を取得する。そして、読影ワークステーション14は、医師からの要求に応じて、あるいは、自動的に、取得した少なくとも2つの画像に対して、後述するウィンドウ処理を実行する。
The
画像サーバ16は、モダリティ12から画像の登録要求を受け付けると、その画像をデータベース用のフォーマットに整えて画像データベース18に登録する。これにより、画像データベース18には、上述した3次元画像の画像データ及び付帯情報が登録される。また、画像サーバ16は、読影ワークステーション14からの閲覧要求をネットワーク22経由で受信すると、画像データベース18に登録されている各画像のうち、閲覧要求の対象とされた画像及び付帯情報を検索し、検索した画像及び付帯情報を読影ワークステーション14に送信する。
Upon receiving an image registration request from the
本実施形態に係る画像処理装置としての読影ワークステーション14は、ディスプレイ等の表示手段や、キーボード及びマウス等の操作手段を備えたコンピュータであって、所定のプログラムにより、図2に示す各構成要素を動作させることができる。
The
図2に示すように、読影ワークステーション14は、画像選択手段30、画像情報取得手段32、画像表示手段34、指定手段36、比較画像決定手段38、表示手段40及び比較画像表示手段42を有する。また、比較画像決定手段38は、濃淡パターンテーブル46、位置合わせ手段48、処理条件決定手段50及び処理手段52を備える。
As shown in FIG. 2, the
画像選択手段30は、マウス、キーボード、ペンタッチツール、タッチパネル等の入力ツールである。この場合、ディスプレイ等の表示機器である画像表示手段34には、画像データベース18に登録された画像の一覧が表示される。
The image selection means 30 is an input tool such as a mouse, a keyboard, a pen touch tool, or a touch panel. In this case, a list of images registered in the
なお、画像の一覧とは、読影ワークステーション14からの要求により、画像サーバ16が作成した、画像データベース18に登録された各画像を示す情報の一覧であり、例えば、各画像のサムネイル表示であったり、各画像を特徴付けるような情報(ファイル名等)の一覧表である。従って、医師は、画像選択手段30を操作することにより、表示された画像の一覧の中から、読影診断を行いたい少なくとも2つの画像を選択することができる。この場合、読影診断の対象となる少なくとも2つの画像は、例えば、同一患者に対して、今回の撮影により取得された画像と、以前の撮影により取得された画像とであり、これら2つの画像を比較画像表示手段42の画面上に表示させることにより、医師は、経過観察等の読影診断を行うことができる。
The image list is a list of information indicating each image registered in the
画像情報取得手段32は、医師により選択された少なくとも2つの画像や当該2つの画像の付帯情報を、画像サーバ16からネットワーク22を介して取得する。これにより、画像表示手段34には、取得した少なくとも2つの画像(以下、2つの入力画像ともいう。)や付帯情報が表示される。
The image
指定手段36は、画像選択手段30と同様の入力ツールである。この場合、医師は、画像表示手段34に表示された2つの入力画像に共通して含まれる所定部位を指定する。
The
比較画像決定手段38は、画像表示手段34に表示された2つの入力画像を比較画像表示手段42に比較表示させる際に、異なるモダリティ12により撮影され、及び/又は、同じモダリティ12であっても異なる撮影方法により撮影された、2つの入力画像が同じ見え方となるような所定の調整処理(ウィンドウ処理)を、該2つの入力画像に対して自動的に実行する。
The comparison image determination means 38 is photographed by
比較画像決定手段38の濃淡パターンテーブル46には、モダリティ及び撮影方法に応じた所定部位の濃淡パターンが格納されている。この場合、濃淡パターンテーブル46には、例えば、入力画像中の所定部位を表示手段40及び比較画像表示手段42の画面上に表示する際のウィンドウレベル(WL)及びウィンドウ幅(WW)の数値(WL/WW)が濃淡パターンとして格納されている。 The light and shade pattern table 46 of the comparison image determining means 38 stores light and shade patterns of a predetermined part corresponding to the modality and the imaging method. In this case, for example, the gray level pattern table 46 includes numerical values (for example, window level (WL) and window width (WW) when displaying predetermined portions in the input image on the screens of the display means 40 and the comparison image display means 42). WL / WW) is stored as a shading pattern.
位置合わせ手段48は、2つの入力画像のうち、少なくとも一方の入力画像の画面上での位置を調整することにより、2つの入力画像の所定部位の位置を相対的に位置合わせする。
The
処理条件決定手段50は、濃淡パターンテーブル46を参照して、医師が指定手段36により指定した所定部位に応じた濃淡パターン(WL/WW)を検索する。そして、処理条件決定手段50は、検索したWL/WWに応じた2つの入力画像に対するウィンドウ処理条件(WL/WWを調整するための条件)を決定する。
The processing
処理手段52は、2つの入力画像のウィンドウ幅及びウィンドウレベルを、処理条件決定手段50で決定されたウィンドウ処理条件に基づくウィンドウ幅及びウィンドウレベルに調整する(ウィンドウ処理を実行する)。表示手段40は、画像表示手段34と同様の表示機器であり、ウィンドウ処理後の2つの入力画像を表示する。
The
比較画像表示手段42は、画像表示手段34及び表示手段40と同様の表示機器であり、処理手段52でのウィンドウ処理後の2つの入力画像を比較表示する。
The comparison
なお、本実施形態において、画像表示手段34、表示手段40及び比較画像表示手段42は、同じ表示機器(ディスプレイ)であってもよいし、異なるディスプレイであってもよい。また、画像選択手段30及び指定手段36は、同じ入力ツールであってもよいし、異なる入力ツールであってもよい。
In the present embodiment, the
[画像処理装置の動作]
以上のように構成される読影ワークステーション14の動作(画像処理方法)について、図3〜図8を参照しながら説明する。なお、この説明では、必要に応じて、図1及び図2も参照して説明する。
[Operation of image processing apparatus]
The operation (image processing method) of the
ここでは、濃淡パターンテーブル46に図4に示すモダリティ12及び部位毎に予め定められた濃淡パターンを示すウィンドウレベル及びウィンドウ幅(WL/WW)が格納されているものとして説明する。
Here, description will be made assuming that the light and shade pattern table 46 stores the
図4は、一医療機関に所有されているモダリティ12の種類及び撮影方法に応じて、事前に作成されて、濃淡パターンテーブル46に格納された濃淡パターンを示すウィンドウレベル及びウィンドウ幅(WL/WW)のデフォルト値を示している。なお、図4において、MR(T1)は、MRI装置のT1強調画像を示し、MR(T2)は、MRI装置のT2強調画像を示し、PET(SUV)は、PET装置のSUV(standardized uptake value)画像を示す。
FIG. 4 shows a window level and a window width (WL / WW) indicating the shading pattern created in advance and stored in the shading pattern table 46 according to the type of
図3のステップS1(取得ステップ)において、先ず、読影ワークステーション14は、画像データベース18に登録されている画像の一覧を画像表示手段34に表示する。この場合、読影ワークステーション14は、自動的に、又は、医師の画像選択手段30の操作による取得要求指示に従って、ネットワーク22を介して画像サーバ16に画像の一覧の送信要求を行う。画像サーバ16は、読影ワークステーション14からの送信要求に従って、画像データベース18に登録された画像の一覧を作成し、作成した画像の一覧をネットワーク22を介して読影ワークステーション14に送信する。画像情報取得手段32は、画像の一覧を取得し、画像表示手段34に表示させる。
In step S1 (acquisition step) of FIG. 3, first, the
次に、医師は、画像選択手段30を操作して、画像の一覧の中から、比較画像表示手段42に表示したい2つの入力画像を選択する。これにより、読影ワークステーション14は、ネットワーク22を介して画像サーバ16に2つの入力画像及び付帯情報の送信を要求する。画像サーバ16は、画像選択手段30から送信要求のあった2つの入力画像及び付帯情報を、ネットワーク22を介して読影ワークステーション14に送信する。これにより、画像情報取得手段32は、2つの入力画像及び付帯情報を取得し、画像表示手段34は、取得した2つの入力画像及び付帯情報を表示することができる。
Next, the doctor operates the
例えば、画像表示手段34は、図5に示すCT画像と、図6に示すMR画像とを、画面上に別々に表示することができる。なお、図5及び図6は、同一患者に対するCT撮影及びMR撮影により取得されたCT画像及びMR画像をそれぞれ図示したものである。 For example, the image display means 34 can separately display the CT image shown in FIG. 5 and the MR image shown in FIG. 6 on the screen. 5 and 6 illustrate a CT image and an MR image acquired by CT imaging and MR imaging for the same patient, respectively.
図5において、画像表示手段34の画面上には、CT画像を表示するウィンドウ60と、CT画像のヒストグラム80等を表示するウィンドウ62とが表示されている。ウィンドウ60は、頭部のアキシャル画像72を表示する表示フレーム64と、3D画像74を表示する表示フレーム66と、サジタル画像76を表示する表示フレーム68と、コロナル画像78を表示する表示フレーム70とから構成される。
In FIG. 5, a
この場合、アキシャル画像72は、WL=40及びWW=80で表示フレーム64に表示されている。ウィンドウ62には、CT画像のCT値を示すヒストグラム80に対して、画像表示手段34の画面上にアキシャル画像72を表示するためのWL及びWWを示すパターン特性82も図示されている。すなわち、ヒストグラム80中、CT値=40をWLに設定し、CT値=0〜80をWWに設定し、CT値が0以下の領域は、ディスプレイ(画像表示手段34の画面)の256階調の0(白)に設定し、80以上の領域は、256(黒)に設定している。白、黒及びグレー(CT値=0〜80)の範囲は、表示バー84において、医師に視認されやすいように表示されている。また、パターン特性82に示すWWは、医師がマウス等により操作バー86を操作することで調整可能である。
In this case, the
一方、図6において、画像表示手段34の画面上には、MR画像を表示するウィンドウ90と、MR画像のヒストグラム110等を表示するウィンドウ92とが表示されている。ウィンドウ90は、頭部のアキシャル画像102を表示する表示フレーム94と、3D画像108を表示する表示フレーム96と、サジタル画像104を表示する表示フレーム98と、コロナル画像106を表示する表示フレーム100とから構成される。
On the other hand, in FIG. 6, a
この場合、アキシャル画像102は、WL=546、WW=1049で表示フレーム94に表示されている。ウィンドウ92には、MR画像の数値を示すヒストグラム110に対して、画像表示手段34の画面上にアキシャル画像102を表示するためのWL及びWWを示すパターン特性112も図示されている。すなわち、ヒストグラム110中、数値=546をWLに設定し、数値=21〜1070をWWに設定し、21以下の数値は、ディスプレイ(画像表示手段34の画面)の256階調の0(白)に設定し、1070以上の領域は、256(黒)に設定している。白、黒及びグレー(数値=21〜1070)の範囲は、表示バー114において、医師に視認されやすいように表示されている。また、パターン特性112に示すWWは、医師がマウス等により操作バー116を操作することで調整可能である。
In this case, the
次のステップS2(指定ステップ)において、医師は、指定手段36を操作して、画像表示手段34に表示されたCT画像(アキシャル画像72)及びMR画像(アキシャル画像102)に共通して含まれる所定部位を指定する。例えば、医師は、アキシャル画像72、102中、脳実質を所定部位として指定する。
In the next step S2 (designation step), the doctor operates the designation means 36 to be included in common in the CT image (axial image 72) and MR image (axial image 102) displayed on the image display means 34. Designate a predetermined part. For example, the doctor designates the brain parenchyma as a predetermined part in the
次のステップS3(位置合わせステップ)において、位置合わせ手段48は、アキシャル画像72、102のうち、少なくとも一方の入力画像の画面上での位置を調整し、2つのアキシャル画像72、102の所定部位の位置を相対的に位置合わせする。例えば、アキシャル画像72、102については、アキシャル画像72が表示フレーム64の略中央に表示される一方で、アキシャル画像102が表示フレーム94からはみ出すように表示されているので、位置合わせ手段48は、アキシャル画像72の表示位置に合わせるように、アキシャル画像102の表示位置を調整する。
In the next step S3 (alignment step), the alignment means 48 adjusts the position on the screen of at least one input image of the
次のステップS4(ウィンドウ処理条件決定ステップ)において、処理条件決定手段50は、図4の濃淡パターンテーブル46を参照し、医師が指定手段36により指定した脳実質に応じた濃淡パターン(WL/WW)を検索して、検索した濃淡パターンに応じた2つの画像に対するウィンドウ処理条件を決定する。
In the next step S4 (window processing condition determining step), the processing
例えば、CT画像(アキシャル画像72)のウィンドウ処理条件を決定する場合、処理条件決定手段50は、図4を参照して、頭部(脳実質)及びCT(HU)に該当する「60/350」を検索し、検索した濃淡パターンに基づいてアキシャル画像72のウィンドウ処理条件を設定する。また、MR画像(アキシャル画像102)のウィンドウ処理条件を決定する場合、処理条件決定手段50は、図4を参照して、頭部(脳実質)及びMR(T1)に該当する「1000/2000」を検索するか、あるいは、頭部(脳実質)及びMR(T2)に該当する「400/500」を検索し、検索した濃淡パターンに基づいてアキシャル画像102のウィンドウ処理条件を設定する。
For example, when determining the window processing conditions of the CT image (axial image 72), the processing
次のステップS5(ウィンドウ処理ステップ)において、処理手段52は、アキシャル画像72、102のWL及びWWを、処理条件決定手段50で決定されたウィンドウ処理条件に基づくWL及びWWに調整する。
In the next step S5 (window processing step), the processing means 52 adjusts WL and WW of the
図7は、処理条件決定手段50での処理後に表示手段40に表示されたMR画像を図示している。つまり、図5のCT画像の見え方に合わせるように、図6のMR画像を調整することで、図7のMR画像が生成され、表示手段40に表示された場合を図示している。
FIG. 7 illustrates an MR image displayed on the
この場合、図7においては、図6と同様に、画像表示手段34の画面上に、MR画像を表示するウィンドウ120と、MR画像のヒストグラム140等を表示するウィンドウ122とが表示されている。ウィンドウ120は、ウィンドウ処理後のアキシャル画像132を表示する表示フレーム124と、3D画像138を表示する表示フレーム126と、サジタル画像134を表示する表示フレーム128と、コロナル画像136を表示する表示フレーム130とから構成される。
In this case, in FIG. 7, as in FIG. 6, a
この場合、アキシャル画像132は、ステップS5の処理によって、WL=1366、WW=2716で表示フレーム124に表示される。ウィンドウ122には、ヒストグラム140とパターン特性142とが表示されている。ヒストグラム140中、数値=1366をWLに設定し、数値=7〜2723をWWに設定し、7以下の数値は、ディスプレイ(表示手段40の画面)の256階調の0(白)に設定し、2723以上の領域は、256(黒)に設定している。白、黒及びグレー(7〜2723)の範囲は、表示バー144において、医師に視認されやすいように表示されている。また、パターン特性142に示すWWは、医師がマウス等により操作バー146を操作することで調整可能である。
In this case, the
このように、CT画像とMR画像とが同じ見え方に調整された後のステップS6(表示ステップ)において、比較画像表示手段42は、図8に示すように、ウィンドウ処理後の2つのアキシャル画像72、132を画面上のウィンドウ150に比較表示する。この場合、左側の表示フレーム152にアキシャル画像72が表示されると共に、右側の表示フレーム154にアキシャル画像132が表示される。これにより、医師は、同じ見え方の2つのアキシャル画像72、132を比較しながら、患者の脳実体に対する読影診断を容易に行うことができる。
In this way, in step S6 (display step) after the CT image and MR image are adjusted to the same appearance, the comparison image display means 42, as shown in FIG. 8, displays two axial images after the window processing. 72 and 132 are compared and displayed in a
なお、上記の説明では、一例として、医師が脳実体を所定部位として指定し、この指定に従って、脳実体の濃淡パターンを濃淡パターンテーブル46から読み出し、ウィンドウ処理条件を設定する場合について説明した。 In the above description, as an example, a case has been described in which a doctor designates a brain entity as a predetermined part, reads the shade pattern of the brain entity from the shade pattern table 46 according to this designation, and sets the window processing conditions.
本実施形態では、この説明に限定されることはなく、例えば、血管(冠動脈)を所定部位として指定し、この指定に従って、血管の濃淡パターンを濃淡パターンテーブル46から読み出してもよい。 In the present embodiment, the description is not limited to this. For example, a blood vessel (coronary artery) may be designated as a predetermined portion, and the blood vessel shade pattern may be read from the shade pattern table 46 in accordance with this designation.
また、上述したウィンドウ処理条件の設定及びウィンドウ処理は、下記のように変更してもよい(実施例1及び実施例2)。 Further, the setting of the window processing conditions and the window processing described above may be changed as follows (Example 1 and Example 2).
[実施例1]
処理手段52は、一方の入力画像のWL及びWWを変更した場合、他方の入力画像のWL及びWWを自動的に変更してもよい。すなわち、2つの入力画像のうち、一方の入力画像の所定部位のみについて濃淡パターンを濃淡パターンテーブル46から読み出し、読み出した濃淡パターンに基づき一方の入力画像のウィンドウ処理条件を設定し、該ウィンドウ処理条件に従って一方の入力画像のウィンドウ処理を行う。次に、一方の入力画像のウィンドウ処理の結果に基づいて、他方の入力画像のウィンドウ処理を行う。
[Example 1]
When the
具体的に、脳実質等の注目する所定部位のヒストグラムが正規分布であると仮定した場合、例えば、一方の入力画像のヒストグラムの正規分布の標準偏差SDに対して、当該入力画像のWWを4SD(−2SD〜+2SD)分と規定しておく。これに従って、一方の入力画像のWL及びWWを変更した後に、2つの入力画像の双方の分布について、変更量が一致するように他方の入力画像のWL及びWWを変更する。 Specifically, when it is assumed that the histogram of a predetermined region of interest such as the brain parenchyma is a normal distribution, for example, the WW of the input image is set to 4SD with respect to the standard deviation SD of the normal distribution of the histogram of one input image. It is defined as (−2SD to + 2SD) minutes. Accordingly, after changing the WL and WW of one input image, the WL and WW of the other input image are changed so that the change amounts coincide with each other in the distributions of the two input images.
ここで、具体的な数値を掲げて説明する。 Here, specific numerical values will be described.
一方の入力画像が脳実質のCT画像であり、他方の画像が脳実質のMR画像である場合、図4を参照すれば、CT画像の濃淡パターンは、「60/350」であり、MR画像の濃淡パターンは、「1000/2000」である。そこで、先ず、CT画像及びMR画像に対して、これらの値を一旦適用する。 When one input image is a CT image of the brain parenchyma and the other image is an MR image of the brain parenchyma, referring to FIG. 4, the density pattern of the CT image is “60/350”, and the MR image The shading pattern is “1000/2000”. Therefore, first, these values are once applied to the CT image and the MR image.
次に、医師がマウス等で、CT画像のWL及びWWを「60/350」から「120/700」に変更する微補正を行う。 Next, a doctor performs fine correction with a mouse or the like to change the WL and WW of the CT image from “60/350” to “120/700”.
次に、他方の入力画像について、一方の入力画像の微補正の結果に基づいてWL及びWWを自動的に補正する。具体的に、MR画像のWL及びWWは、下記(1)式及び(2)式のように決定される。
WL=1000+(120−60)×2000/350
≒1342.85 (1)
WW=2000×700/350=4000 (2)
Next, for the other input image, WL and WW are automatically corrected based on the result of fine correction of the one input image. Specifically, the WL and WW of the MR image are determined as in the following equations (1) and (2).
WL = 1000 + (120-60) × 2000/350
≈ 1342.85 (1)
WW = 2000 × 700/350 = 4000 (2)
なお、医師がマウス等を用いて連続的に変化させる場合は、直前のWL/WWの値を用いて、上記の計算方法で他の入力画像のWLの値を変更することが望ましい。 In the case where the doctor continuously changes using a mouse or the like, it is desirable to change the WL value of another input image by the above calculation method using the previous WL / WW value.
[実施例2]
脳実質や血管等、医師が指定した注目領域(マウス等でクリックした入力画像中の任意の点から半径数十ピクセルの範囲程度)のヒストグラムを解析することにより、2つの入力画像のWL/WWを一致させてもよい。
[Example 2]
Analyzing the histogram of the region of interest specified by the doctor (such as the brain parenchyma and blood vessels) (the range of several tens of pixels from any point in the input image clicked with the mouse or the like), the two input images WL / WW May be matched.
この場合、ウィンドウ処理条件の設定前に、予め2つの入力画像の間において位置合わせが既になされているため、一方の入力画像において医師が任意の位置を指定すると、他方の入力画像における同一位置のピクセルが分かる。そのため、その周辺の注目領域のヒストグラムを取得することができる。従って、2つの入力画像の正規分布上でのWL/WWが同じような傾向となるように、他方の入力画像のWL/WWを変化させる。 In this case, since the alignment between the two input images has already been made in advance before setting the window processing condition, if the doctor designates an arbitrary position in one input image, the same position in the other input image is set. I know the pixel. Therefore, a histogram of the attention area around it can be acquired. Therefore, the WL / WW of the other input image is changed so that the WL / WW on the normal distribution of the two input images tend to have the same tendency.
ここで、具体的な数値を掲げて説明する。 Here, specific numerical values will be described.
CT画像で目的部位(所定部位付近、又は、所定部位そのもの)のヒストグラムについて、中心を100とし、標準偏差SDを50とする。一方、MR画像について、目的部位(所定部位付近、又は、所定部位そのもの)のヒストグラムについて、中心を3000とし、標準偏差SDを1000とする。 With respect to the histogram of the target site (near the predetermined site or the predetermined site itself) in the CT image, the center is 100 and the standard deviation SD is 50. On the other hand, regarding the MR image, the center of the histogram of the target part (near the predetermined part or the predetermined part itself) is set to 3000, and the standard deviation SD is set to 1000.
この目的部位に対して、CT画像でWL=120及びWW=100が適用された場合、他方のMR画像のWL及びWWは、以下の(3)式及び(4)式のように計算されるのが望ましい。
WL=3000+(120−100)×1000/50=3400 (3)
WW=1000×100/50=2000 (4)
When WL = 120 and WW = 100 are applied to the target region in the CT image, WL and WW of the other MR image are calculated as in the following equations (3) and (4). Is desirable.
WL = 3000 + (120−100) × 1000/50 = 3400 (3)
WW = 1000 × 100/50 = 2000 (4)
[本実施形態の効果]
以上説明したように、本実施形態では、モダリティ12及び撮影方法に応じた所定部位の濃淡パターンを格納した濃淡パターンテーブル46を参照して、モダリティ12の種類及び/又は撮影方法の異なる少なくとも2つの入力画像の示す所定部位に応じた濃淡パターン(WL/WW)を検索し、検索した濃淡パターンに応じた2つの入力画像に対するウィンドウ処理条件(WL/WW)を決定する。
[Effect of this embodiment]
As described above, in the present embodiment, at least two different types of
従って、決定したウィンドウ処理条件に従って2つの入力画像に対するウィンドウ処理を行い、ウィンドウ処理後の2つの入力画像を比較画像表示手段42で比較表示させれば、モダリティ12の種類及び撮影方法の違いに関わりなく、2つの入力画像を同じ見え方で表示させることができる。
Accordingly, if window processing is performed on two input images in accordance with the determined window processing conditions, and the two input images after the window processing are compared and displayed on the comparison image display means 42, the type of
このように、2つの入力画像が同じ見え方となるように自動的に調整されるので、医師による2つの入力画像に対する微調整の作業が不要となり、該医師の作業負担を軽減することができる。また、2つの入力画像が同じ見え方に調整されるので、2つの入力画像に共通して存在する所定部位の形状の異同を比較及び視認することが容易となり、該2つの入力画像に対する読影診断を容易に且つ効率よく行うことができる。 As described above, since the two input images are automatically adjusted so as to have the same appearance, the fine adjustment work for the two input images by the doctor becomes unnecessary, and the work load on the doctor can be reduced. . Also, since the two input images are adjusted to have the same appearance, it becomes easy to compare and visually recognize the difference in the shape of a predetermined portion that exists in common in the two input images. Can be easily and efficiently performed.
また、指定手段36は、医師の指定した部位を所定部位として選択するので、該医師の所望する2つの画像を同じ見え方で比較画像表示手段42に比較表示させることができる。なお、比較画像表示手段42で比較表示される部位を含む画像が予め決まっている場合に、指定手段36は、予め定められた部位を所定部位として自動的に選択してもよい。この場合でも、2つの入力画像を比較画像表示手段42に確実に且つ効率よく比較表示することができる。 Moreover, since the designation | designated means 36 selects the site | part designated by the doctor as a predetermined site | part, it can compare-display the two images which the doctor desires on the comparison image display means 42 by the same appearance. In addition, when the image including the site | part compared and displayed by the comparison image display means 42 is decided beforehand, the designation | designated means 36 may select a predetermined site | part automatically as a predetermined site | part. Even in this case, the two input images can be reliably and efficiently compared and displayed on the comparison image display means 42.
また、処理手段52は、2つの入力画像のうち、一方の入力画像のWL及びWWを調整した場合、その調整結果に基づいて他方の入力画像のWL及びWWも調整してもよい。これにより、2つの入力画像に対するウィンドウ処理を容易にうことができる。
In addition, when the
なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。 In addition, this invention is not limited to embodiment mentioned above, Of course, it can change freely in the range which does not deviate from the main point of this invention.
12…モダリティ 14…読影ワークステーション
30…画像選択手段 32…画像情報取得手段
34…画像表示手段 36…指定手段
38…比較画像決定手段 42…比較画像表示手段
46…濃淡パターンテーブル 48…位置合わせ手段
50…処理条件決定手段 52…処理手段
72、102、132…アキシャル画像
80、110、140…ヒストグラム
82、112、142…パターン特性
DESCRIPTION OF
Claims (6)
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段と、
を有することを特徴とする画像処理装置。 Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
Display means for comparing and displaying the two input images processed by the window processing means;
An image processing apparatus comprising:
前記指定手段は、予め定められた部位を前記所定部位として選択するか、あるいは、ユーザの指定した部位を前記所定部位として選択することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image processing apparatus characterized in that the specifying means selects a predetermined part as the predetermined part or selects a part specified by a user as the predetermined part.
前記ウィンドウ処理手段は、前記2つの入力画像のうち、一方の入力画像のウィンドウレベル及びウィンドウ幅を調整すれば、予め定められた条件に基づいて他方の入力画像のウィンドウレベル及びウィンドウ幅も調整することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
If the window level and the window width of one of the two input images are adjusted, the window processing unit also adjusts the window level and the window width of the other input image based on a predetermined condition. An image processing apparatus.
前記モダリティは、MRI装置、CT装置又はPET装置であることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The modality is an MRI apparatus, a CT apparatus, or a PET apparatus.
前記2つの入力画像に共通して含まれる所定部位を指定する指定ステップと、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせステップと、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定ステップと、
決定した前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理ステップと、
前記ウィンドウ処理ステップで処理した前記2つの入力画像を比較表示する表示ステップと、
を有することを特徴とする画像処理方法。 Acquiring at least two input images taken with different modalities and / or taken with different imaging methods;
A designation step for designating a predetermined part commonly included in the two input images;
An alignment step of relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
With reference to the shading pattern table storing the shading pattern of the predetermined part corresponding to the modality and the imaging method, the shading pattern corresponding to the predetermined part of the two input images is searched, and according to the searched shading pattern A window processing condition determining step for determining window processing conditions for the two input images;
A window processing step for performing window processing on the two input images based on the determined window processing conditions;
A display step for comparing and displaying the two input images processed in the window processing step;
An image processing method comprising:
異なるモダリティにより撮影され、及び/又は、異なる撮影方法により撮影された、少なくとも2つの入力画像を取得する画像取得手段と、
前記2つの入力画像に共通して含まれる所定部位を指定する指定手段と、
前記2つの入力画像のうち、少なくとも一方の入力画像を調整することにより、前記2つの入力画像の所定部位の位置を相対的に合わせる位置合わせ手段と、
前記モダリティ及び前記撮影方法に応じた前記所定部位の濃淡パターンを格納した濃淡パターンテーブルと、
前記濃淡パターンテーブルを参照して、前記2つの入力画像の所定部位に応じた濃淡パターンを検索し、検索した前記濃淡パターンに応じた前記2つの入力画像に対するウィンドウ処理条件を決定するウィンドウ処理条件決定手段と、
決定された前記ウィンドウ処理条件に基づいて前記2つの入力画像に対するウィンドウ処理を行うウィンドウ処理手段と、
前記ウィンドウ処理手段により処理された前記2つの入力画像を比較表示させる表示手段と、
して機能させることを特徴とするプログラム。 Computer
Image acquisition means for acquiring at least two input images shot by different modalities and / or shot by different shooting methods;
Designating means for designating a predetermined part commonly included in the two input images;
An alignment means for relatively aligning positions of predetermined portions of the two input images by adjusting at least one of the two input images;
A shading pattern table storing the shading pattern of the predetermined portion according to the modality and the imaging method;
Referring to the shading pattern table, a shading pattern corresponding to a predetermined part of the two input images is searched, and a window processing condition determination for determining a window processing condition for the two input images according to the searched shading pattern Means,
Window processing means for performing window processing on the two input images based on the determined window processing conditions;
Display means for comparing and displaying the two input images processed by the window processing means;
A program characterized by making it function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012085470A JP6063142B2 (en) | 2012-04-04 | 2012-04-04 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012085470A JP6063142B2 (en) | 2012-04-04 | 2012-04-04 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013215221A true JP2013215221A (en) | 2013-10-24 |
JP6063142B2 JP6063142B2 (en) | 2017-01-18 |
Family
ID=49588132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012085470A Active JP6063142B2 (en) | 2012-04-04 | 2012-04-04 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6063142B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104720835A (en) * | 2013-12-20 | 2015-06-24 | Ge医疗系统环球技术有限公司 | Display device, image displaying method and computerized tomography apparatus |
CN111991018A (en) * | 2019-05-27 | 2020-11-27 | 上海西门子医疗器械有限公司 | Method of displaying tomographic image, method and apparatus for indicating range of CT value of tomographic image |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58152905U (en) * | 1982-04-01 | 1983-10-13 | 株式会社日立メデイコ | Medical image analysis processing device |
JPS63121986A (en) * | 1986-11-12 | 1988-05-26 | Hitachi Medical Corp | Image work station |
JPH06177A (en) * | 1992-06-18 | 1994-01-11 | Toshiba Corp | Ct device |
JPH06215108A (en) * | 1992-11-27 | 1994-08-05 | Fuji Photo Film Co Ltd | Positioning method for radiation picture |
JP2006095279A (en) * | 2004-08-30 | 2006-04-13 | Toshiba Corp | Medical image display apparatus |
JP2006102044A (en) * | 2004-10-04 | 2006-04-20 | Konica Minolta Medical & Graphic Inc | Medical image processing system and medical image processing method |
JP2008000536A (en) * | 2006-06-26 | 2008-01-10 | Fujifilm Corp | Image display device |
-
2012
- 2012-04-04 JP JP2012085470A patent/JP6063142B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58152905U (en) * | 1982-04-01 | 1983-10-13 | 株式会社日立メデイコ | Medical image analysis processing device |
JPS63121986A (en) * | 1986-11-12 | 1988-05-26 | Hitachi Medical Corp | Image work station |
JPH06177A (en) * | 1992-06-18 | 1994-01-11 | Toshiba Corp | Ct device |
JPH06215108A (en) * | 1992-11-27 | 1994-08-05 | Fuji Photo Film Co Ltd | Positioning method for radiation picture |
JP2006095279A (en) * | 2004-08-30 | 2006-04-13 | Toshiba Corp | Medical image display apparatus |
JP2006102044A (en) * | 2004-10-04 | 2006-04-20 | Konica Minolta Medical & Graphic Inc | Medical image processing system and medical image processing method |
JP2008000536A (en) * | 2006-06-26 | 2008-01-10 | Fujifilm Corp | Image display device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104720835A (en) * | 2013-12-20 | 2015-06-24 | Ge医疗系统环球技术有限公司 | Display device, image displaying method and computerized tomography apparatus |
CN111991018A (en) * | 2019-05-27 | 2020-11-27 | 上海西门子医疗器械有限公司 | Method of displaying tomographic image, method and apparatus for indicating range of CT value of tomographic image |
Also Published As
Publication number | Publication date |
---|---|
JP6063142B2 (en) | 2017-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6438395B2 (en) | Automatic detection and retrieval of previous annotations associated with image material for effective display and reporting | |
US7912268B2 (en) | Image processing device and method | |
US20060146071A1 (en) | Content based hanging protocols facilitated by rules based system | |
US11093699B2 (en) | Medical image processing apparatus, medical image processing method, and medical image processing program | |
JP2011092682A (en) | Medical image display device, method, and program | |
US9996971B2 (en) | System providing companion images | |
JPWO2007000940A1 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
JP2016101297A (en) | Ophthalmologic information processing system and ophthalmologic information processing method | |
WO2014156160A1 (en) | Graph display device, operating method for graph display device, and graph display program | |
WO2014148242A1 (en) | Image display device and method | |
JP2010257210A (en) | Apparatus and method for processing of photographic information, and program | |
JP2016202721A (en) | Medical image display apparatus and program | |
US20190005354A1 (en) | Learning data generation support apparatus, operation method of learning data generation support apparatus, and learning data generation support program | |
US8892577B2 (en) | Apparatus and method for storing medical information | |
JP2007190125A (en) | Medical image diagnostic apparatus | |
CN106333698A (en) | Operating An X-Ray System For Examining An Object | |
JP5317558B2 (en) | Medical information creation device | |
JP6063142B2 (en) | Image processing apparatus, image processing method, and program | |
JP5042533B2 (en) | Medical image display device | |
JP2020081280A (en) | Image display control system, image display system, and image analyzing device | |
JP2021182403A (en) | Converter, method for conversion, and program | |
JP7433750B2 (en) | Video clip selector used for medical image creation and diagnosis | |
US20070286525A1 (en) | Generation of imaging filters based on image analysis | |
JP2004160171A (en) | Method and system for processing image, and image generating apparatus installed with the method and system | |
JP2019141642A (en) | Ophthalmologic information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160906 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6063142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |