JP2021097731A - Medical image processing device and medical image processing system - Google Patents
Medical image processing device and medical image processing system Download PDFInfo
- Publication number
- JP2021097731A JP2021097731A JP2019229761A JP2019229761A JP2021097731A JP 2021097731 A JP2021097731 A JP 2021097731A JP 2019229761 A JP2019229761 A JP 2019229761A JP 2019229761 A JP2019229761 A JP 2019229761A JP 2021097731 A JP2021097731 A JP 2021097731A
- Authority
- JP
- Japan
- Prior art keywords
- cross
- image processing
- image
- image data
- sectional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 188
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims abstract description 8
- 230000029058 respiratory gaseous exchange Effects 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 186
- 238000010586 diagram Methods 0.000 description 12
- 210000004072 lung Anatomy 0.000 description 12
- 210000004197 pelvis Anatomy 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- 238000002591 computed tomography Methods 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、医用画像処理装置、及び医用画像処理システムに関する。 Embodiments of the present invention relate to a medical image processing apparatus and a medical image processing system.
従来、経過観察等において、CTやMRI等が取得した今回の3次元情報に含まれる被検体と、過去の3次元情報に含まれる被検体との同一位置の断面画像を並べて表示する場合がある。3次元情報間で被検体の位置を合わせる場合、医用画像処理装置は、骨盤等の剛体部位から抽出した特徴点に基づいて3次元情報間での位置合わせを行う。そして、医師等は、診断したい部位まで断面位置を移動させることで、診断したい部位の断面画像を並べて表示させる。 Conventionally, in follow-up observation or the like, a cross-sectional image of a subject included in the current 3D information acquired by CT, MRI, etc. and a subject included in the past 3D information may be displayed side by side at the same position. .. When aligning the position of the subject between the three-dimensional information, the medical image processing device performs the alignment between the three-dimensional information based on the feature points extracted from the rigid body part such as the pelvis. Then, the doctor or the like moves the cross-sectional position to the part to be diagnosed, so that the cross-sectional images of the part to be diagnosed are displayed side by side.
しかしながら、体動や呼吸等の影響により部位の位置は変化する。そのため、医用画像処理装置は、3次元情報間の被検体の位置を剛体部位で合わせても、断面画像間で異なる部位を表示してしまう場合がある。そのため、医師等は、同一部位の断面画像を並べて表示させるために微調整を行わなければならなかった。 However, the position of the part changes due to the influence of body movement and breathing. Therefore, the medical image processing apparatus may display different parts between the cross-sectional images even if the positions of the subjects between the three-dimensional information are aligned with the rigid body parts. Therefore, doctors and the like had to make fine adjustments in order to display the cross-sectional images of the same part side by side.
本発明が解決しようとする課題は、体動や呼吸等に影響されにくい位置合わせを行うことである。 An object to be solved by the present invention is to perform alignment that is not easily affected by body movement, respiration, or the like.
実施形態の医用画像処理装置は、取得部と、抽出部と、画像処理部と、指定部と、位置合わせ部とを備える。前記取得部は、被検体の3次元画像データである第1の3次元画像データと、当該被検体の3次元画像データであって当該第1の3次元画像データとは異なる第2の3次元画像データとを取得する。前記抽出部は、前記第1の3次元画像データに含まれる前記被検体の特徴点と、前記第2の3次元画像データに含まれる前記被検体の特徴点とを抽出する。前記画像処理部は、前記第1の3次元画像データに含まれる前記被検体の断面画像である第1断面画像と、前記第2の3次元画像データに含まれる前記被検体の断面画像である第2断面画像との少なくとも一方に対して画像処理を実行する。前記指定部は、前記画像処理部が実行した前記画像処理に対応する部位を指定する。前記位置合わせ部は、前記指定部が指定した前記部位に含まれる前記特徴点に基づいて、前記第1の3次元画像データに含まれる前記被検体から前記第1断面画像を取得する位置と、前記第2の3次元画像データに含まれる前記被検体から前記第2断面画像を取得する位置とを同一の位置に合わせる。 The medical image processing apparatus of the embodiment includes an acquisition unit, an extraction unit, an image processing unit, a designated unit, and an alignment unit. The acquisition unit has a first three-dimensional image data which is the three-dimensional image data of the subject and a second three-dimensional image data which is the three-dimensional image data of the subject and is different from the first three-dimensional image data. Get image data. The extraction unit extracts the feature points of the subject included in the first three-dimensional image data and the feature points of the subject included in the second three-dimensional image data. The image processing unit is a first cross-sectional image which is a cross-sectional image of the subject included in the first three-dimensional image data, and a cross-sectional image of the subject included in the second three-dimensional image data. Image processing is performed on at least one of the second cross-sectional image. The designation unit designates a portion corresponding to the image processing executed by the image processing unit. The alignment portion includes a position at which the first cross-sectional image is acquired from the subject included in the first three-dimensional image data based on the feature points included in the portion designated by the designated portion. The position where the second cross-sectional image is acquired from the subject included in the second three-dimensional image data is aligned with the same position.
以下、添付図面を参照して、医用画像処理装置及び医用画像処理システムの実施形態について詳細に説明する。なお、本願に係る医用画像処理装置及び医用画像処理システムは、以下に示す実施形態によって限定されるものではない。 Hereinafter, embodiments of the medical image processing apparatus and the medical image processing system will be described in detail with reference to the accompanying drawings. The medical image processing apparatus and the medical image processing system according to the present application are not limited to the embodiments shown below.
図1は、本実施形態に係る医用画像処理システム1の構成の一例を示す図である。図1に示すように、医用画像処理システム1は、モダリティ10、PACS(Picture Archiving and Communication System)20、及び医用画像処理装置30を備えている。また、各システム及び各装置は、ネットワークを介して通信可能に接続されている。なお、図1に示す構成は、一例であり、各システム及び各装置の台数は任意に変更してもよい。また、図1に示されていない装置がネットワークに接続されていてもよい。
FIG. 1 is a diagram showing an example of the configuration of the medical image processing system 1 according to the present embodiment. As shown in FIG. 1, the medical image processing system 1 includes a
モダリティ10は、被検体の3次元の情報である3次元画像データを生成する。例えば、モダリティ10は、X線CT(Computed Tomography)装置や、MRI(Magnetic Resonance Imaging)装置等の画像診断装置である。モダリティ10は、指定された患者等の被検体の3次元画像データを生成する。3次元画像データとは、3次元画像データとしてのX線CT画像データや、3次元画像データとしてのMRI画像データ等である。そして、モダリティ10は、生成した3次元画像データをPACS20に送信する。
PACS20は、モダリティ10が生成した3次元画像データを保管するサーバ装置である。例えば、PACS20は、サーバやワークステーション等のコンピュータ機器によって実現される。更に詳しくは、PACS20は、モダリティ10から3次元画像データを受信する。そして、PACS20は、3次元画像データを自装置の記憶回路等に記憶する。
The PACS 20 is a server device that stores the three-dimensional image data generated by the
医用画像処理装置30は、3次元画像データからアナトミカルランドマークを抽出する。ここで、アナトミカルランドマークは、被検体の解剖学的な特徴点である。そして、医用画像処理装置30は、アナトミカルランドマークに基づいて、3次元画像データ間で位置合わせを行う。これにより、医用画像処理装置30は、複数の3次元画像データ間で同一位置の断面画像を表示する。例えば、医用画像処理装置30は、サーバやワークステーション等のコンピュータ機器によって実現される。
The medical
次に、本実施形態に係る医用画像処理装置30の構成について説明する。
Next, the configuration of the medical
図2は、本実施形態に係る医用画像処理装置30の構成の一例を示すブロック図である。図2に示すように、本実施形態に係る医用画像処理装置30は、ネットワークインタフェース310と、記憶回路320と、入力インタフェース330と、ディスプレイ340と、処理回路350とを有する。
FIG. 2 is a block diagram showing an example of the configuration of the medical
ネットワークインタフェース310は、処理回路350に接続されており、ネットワークを介して、モダリティ10、及びPACS20との間で行われる各種データの伝送及び通信を制御する。更に詳しくは、ネットワークインタフェース310は、各システムから各種の情報を受信し、受信した情報を処理回路350に出力する。例えば、ネットワークインタフェース310は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
The network interface 310 is connected to the processing circuit 350 and controls the transmission and communication of various data between the
記憶回路320は、処理回路350に接続されており、各種データを記憶する。例えば、記憶回路320は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。 The storage circuit 320 is connected to the processing circuit 350 and stores various data. For example, the storage circuit 320 is realized by a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, a hard disk, an optical disk, or the like.
入力インタフェース330は、操作者から受け付けた入力操作を電気信号に変換して処理回路350に出力する。例えば、入力インタフェース330は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力インタフェース、音声入力インタフェース等の入力装置によって実現される。なお、入力インタフェース330は、医用画像処理装置30とは別体に設けられた操作装置から操作に対応する電子信号を受け付ける接続インタフェース等の制御回路であってもよい。
The input interface 330 converts the input operation received from the operator into an electric signal and outputs it to the processing circuit 350. For example, the input interface 330 includes a trackball, a switch button, a mouse, a keyboard, a touch pad for performing input operations by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and a non-optical sensor. It is realized by an input device such as a contact input interface and a voice input interface. The input interface 330 may be a control circuit such as a connection interface that receives an electronic signal corresponding to the operation from an operation device provided separately from the medical
ディスプレイ340は、処理回路350から出力される各種情報や各種画像を表示する。例えば、ディスプレイ340は、有機EL(Electro Luminescence)モニタや、液晶モニタや、CRT(Cathode Ray Tube)モニタや、タッチパネル等の表示装置によって実現される。例えば、ディスプレイ340は、操作者の指示を受け付けるためのGUI(Graphical User Interface)や、各種の表示用の画像データ、処理回路350による各種の処理結果を表示する。 The display 340 displays various information and various images output from the processing circuit 350. For example, the display 340 is realized by a display device such as an organic EL (Electro Luminescence) monitor, a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, and a touch panel. For example, the display 340 displays a GUI (Graphical User Interface) for receiving an operator's instruction, various display image data, and various processing results by the processing circuit 350.
処理回路350は、医用画像処理装置30が有する各構成要素を制御する。例えば、処理回路350は、プロセッサによって実現される。さらに詳しくは、本実施形態に係る処理回路350は、取得機能351、抽出機能352、位置合わせ機能353、表示機能354、操作機能355、画像処理機能356、及び指定機能357を有する。
The processing circuit 350 controls each component of the medical
ここで、例えば、図2に示す処理回路350の構成要素である取得機能351、抽出機能352、位置合わせ機能353、表示機能354、操作機能355、画像処理機能356、及び指定機能357が実行する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路320に記憶されている。処理回路350は、各プログラムを記憶回路320から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路350は、図2の処理回路350内に示された各機能を有することとなる。
Here, for example, the acquisition function 351 and the extraction function 352, the alignment function 353, the display function 354, the operation function 355, the
なお、取得機能351、抽出機能352、位置合わせ機能353、表示機能354、操作機能355、画像処理機能356、及び指定機能357の全ての処理機能がコンピュータによって実行可能な1つのプログラムの形態で、記憶回路320に記録されていてもよい。例えば、このようなプログラムは、医用画像処理プログラムとも称される。この場合、処理回路350は、医用画像処理プログラムを記憶回路320から読み出し、読み出した医用画像処理プログラムを実行することで医用画像処理プログラムに対応する取得機能351、抽出機能352、位置合わせ機能353、表示機能354、操作機能355、画像処理機能356、及び指定機能357を実現する。
It should be noted that all the processing functions of the acquisition function 351 and the extraction function 352, the alignment function 353, the display function 354, the operation function 355, the
取得機能351は、取得部の一例である。取得機能351は、複数の3次元画像データをPACS20から取得する。すなわち、取得機能351は、被検体の3次元画像データである第1の3次元画像データと、同一の被検体の3次元画像データであって当該第1の3次元画像データとは異なる第2の3次元画像データとを取得する。更に詳しくは、第1の3次元画像データは、被検体の3次元画像データである。第2の3次元画像データは、第1の3次元画像データの比較対象であって、第1の3次元画像データの被検体と同一の被検体の3次元画像データである。例えば、第1の3次元画像データは、直近に取得された3次元画像データである。第2の3次元画像データは、第1の3次元画像データと同一の被検体から過去に取得された3次元画像データである。
The acquisition function 351 is an example of an acquisition unit. The acquisition function 351 acquires a plurality of three-dimensional image data from the
抽出機能352は、抽出部の一例である。抽出機能352は、第1の3次元画像データに含まれる被検体の特徴点と、第2の3次元画像データに含まれる被検体の特徴点とを抽出する。すなわち、抽出機能352は、取得機能351が取得した3次元画像データのそれぞれからアナトミカルランドマークを抽出する。 The extraction function 352 is an example of an extraction unit. The extraction function 352 extracts the feature points of the subject included in the first three-dimensional image data and the feature points of the subject included in the second three-dimensional image data. That is, the extraction function 352 extracts anatomical landmarks from each of the three-dimensional image data acquired by the acquisition function 351.
位置合わせ機能353は、位置合わせ部の一例である。位置合わせ機能353は、抽出機能352が抽出したアナトミカルランドマークに基づいて、第1の3次元画像データに含まれる被検体から断面画像を取得する位置と、第2の3次元画像データに含まれる被検体から断面画像を取得する位置とを同一の位置に合わせる。すなわち、位置合わせ機能353は、複数の3次元画像データ間の被検体の位置を合わせるレジストレーションを実行する。更に詳しくは、位置合わせ機能353は、第1の3次元画像データに含まれる被検体の骨盤等の剛体の部位である剛体部位にあるアナトミカルランドマークと、第2の3次元画像データに含まれる被検体の骨盤等の剛体の部位である剛体部位にあるアナトミカルランドマークとの位置を合わせる。これにより、位置合わせ機能353は、骨盤等の剛体の部位である剛体部位にあるアナトミカルランドマークに基づいて、第1の3次元画像データに含まれる被検体から断面画像を取得する位置と、第2の3次元画像データに含まれる被検体から断面画像を取得する位置とを同一の位置に合わせる。また、位置合わせ機能353は、後述する画像処理機能356が実行した画像処理に対応する部位を指定機能357が指定した場合に、指定機能357が指定した部位であって、第1の3次元画像データに含まれる被検体の部位にあるアナトミカルランドマークと、指定機能357が指定した部位であって、第2の3次元画像データに含まれる被検体の部位にあるアナトミカルランドマークとの位置を合わせる。これにより、位置合わせ機能353は、画像処理機能356が実行した画像処理に対応する部位を指定機能357が指定した場合に、指定機能357が指定した部位に含まれるアナトミカルランドマークに基づいて、第1の3次元画像データに含まれる被検体から断面画像を取得する位置と、第2の3次元画像データに含まれる被検体から断面画像を取得する位置とを同一の位置に合わせる。
The alignment function 353 is an example of the alignment unit. The alignment function 353 includes a position for acquiring a cross-sectional image from a subject included in the first three-dimensional image data and a second three-dimensional image data based on the anatomical landmark extracted by the extraction function 352. Align the position where the cross-sectional image is acquired from the subject with the same position. That is, the alignment function 353 executes registration for aligning the position of the subject between the plurality of three-dimensional image data. More specifically, the alignment function 353 is included in the anatomical landmark in the rigid body part which is the rigid body part such as the pelvis of the subject included in the first 3D image data, and in the second 3D image data. Align with the anatomical landmark on the rigid body part, which is the rigid body part such as the pelvis of the subject. As a result, the alignment function 353 obtains a cross-sectional image from the subject included in the first three-dimensional image data based on the anatomical landmark in the rigid body portion such as the pelvis, and the first position. The position where the cross-sectional image is acquired from the subject included in the 3D image data of 2 is adjusted to the same position. Further, the alignment function 353 is a part designated by the designated function 357 when the designated function 357 specifies a part corresponding to the image processing executed by the
表示機能354は、表示部の一例である。表示機能354は、第1の3次元画像データに含まれる被検体の断面画像である第1断面画像と、第2の3次元画像データに含まれる被検体の断面画像である第2断面画像とを表示する。 The display function 354 is an example of a display unit. The display function 354 includes a first cross-sectional image which is a cross-sectional image of the subject included in the first three-dimensional image data and a second cross-sectional image which is a cross-sectional image of the subject included in the second three-dimensional image data. Is displayed.
ここで、図3は、比較画面G1の一例を示す図である。図3に示す比較画面G1は、第1の3次元画像データの断面画像と、第2の3次元画像データの断面画像とを有している。医師等の医療従事者は、第1の3次元画像データの断面画像と、第2の3次元画像データの断面画像とを比較することで、経過観察等を行う。 Here, FIG. 3 is a diagram showing an example of the comparison screen G1. The comparison screen G1 shown in FIG. 3 has a cross-sectional image of the first three-dimensional image data and a cross-sectional image of the second three-dimensional image data. A medical worker such as a doctor performs follow-up observation or the like by comparing the cross-sectional image of the first three-dimensional image data with the cross-sectional image of the second three-dimensional image data.
また、位置合わせ機能353は、指定機能357が指定した部位に含まれるアナトミカルランドマークに基づいて、第1の3次元画像データに含まれる被検体から断面画像を取得する位置と、第2の3次元画像データに含まれる被検体から断面画像を取得する位置とを同一の位置に合わせる。そして、表示機能354は、位置合わせ機能353が複数の3次元画像データ間の被検体の位置を合わせることにより同一の断面位置となった第1断面画像と、第2断面画像とを比較画面G1に表示する。 Further, the alignment function 353 has a position of acquiring a cross-sectional image from a subject included in the first three-dimensional image data based on an anatomical landmark included in the site designated by the designated function 357, and a second 3 The position where the cross-sectional image is acquired from the subject included in the 3D image data is aligned with the same position. Then, the display function 354 compares the first cross-sectional image and the second cross-sectional image, which have the same cross-sectional position by aligning the positions of the subjects among the plurality of three-dimensional image data by the alignment function 353, with the comparison screen G1. Display in.
また、表示機能354は、3次元画像データにおける被検体の断面位置が移動された場合に、該当する断面位置の断面画像を表示する。例えば、表示機能354は、第1の3次元画像データの断面位置を移動させた場合に、第2の3次元画像データの断面位置も同様に移動する。これにより、表示機能354は、第1の3次元画像データと、第2の3次元画像データとついて同一の断面位置の断面画像を表示する。なお、表示機能354は、複数の3次元画像データを並べて表示する形態に限らず、複数の3次元画像データを重ねて表示してもよい。 In addition, the display function 354 displays a cross-sectional image of the corresponding cross-sectional position when the cross-sectional position of the subject in the three-dimensional image data is moved. For example, when the display function 354 moves the cross-sectional position of the first three-dimensional image data, the cross-sectional position of the second three-dimensional image data also moves in the same manner. As a result, the display function 354 displays the cross-sectional image at the same cross-sectional position as the first three-dimensional image data and the second three-dimensional image data. The display function 354 is not limited to displaying a plurality of three-dimensional image data side by side, and may display a plurality of three-dimensional image data in an overlapping manner.
操作機能355は、操作部の一例である。操作機能355は、入力インタフェース330を制御して、画像処理を指定する操作を受け付ける。例えば、操作機能355は、複数の部位が示された一覧から部位を選択する操作を受け付ける。ここで、部位とは、臓器、骨、血管、筋肉等の人体の部分である。これにより、操作機能355は、事前に設定された部位に応じた画像処理を指定する操作を受け付ける。 The operation function 355 is an example of an operation unit. The operation function 355 controls the input interface 330 and accepts an operation for designating image processing. For example, the operation function 355 accepts an operation of selecting a part from a list showing a plurality of parts. Here, the site is a part of the human body such as an organ, a bone, a blood vessel, and a muscle. As a result, the operation function 355 accepts an operation for designating the image processing according to the preset portion.
ここで、図4は、部位選択画像G11を有する比較画面G1の一例を示す図である。比較画面G1は、複数の部位が示された一覧から部位を選択する操作を受け付ける部位選択画像G11を有している。更に詳しくは、表示機能354は、比較画面G1において、マウスの右ボタンが押下された場合に、メニュー画像G12を表示する。そして、表示機能354は、メニュー画像G12において、コントラストの変更を意味する「階調プリセット」にマウスのカーソルが合わせられた場合に、部位選択画像G11を表示する。部位選択画像G11に含まれる各部位には、ウィンドウ設定が対応付けられている。ウィンドウ設定とは、ウィンドウレベル及びウィンドウ幅が含まれる。ウィンドウ幅は、コントラストの分解能の幅を示す設定である。ウィンドウレベルは、ウィンドウ幅の中央値を示す設定である。操作機能355は、部位選択画像G11から部位を選択する操作を受け付ける。これにより、表示機能354は、医師等が読影したい部位に応じたコントラストで断面画像を表示する。 Here, FIG. 4 is a diagram showing an example of the comparison screen G1 having the site selection image G11. The comparison screen G1 has a part selection image G11 that accepts an operation of selecting a part from a list showing a plurality of parts. More specifically, the display function 354 displays the menu image G12 when the right mouse button is pressed on the comparison screen G1. Then, the display function 354 displays the part selection image G11 when the mouse cursor is placed on the "gradation preset" which means the change of contrast in the menu image G12. A window setting is associated with each part included in the part selection image G11. Window settings include window level and window width. The window width is a setting indicating the width of the contrast resolution. The window level is a setting that indicates the median window width. The operation function 355 accepts an operation of selecting a part from the part selection image G11. As a result, the display function 354 displays the cross-sectional image with a contrast corresponding to the portion to be read by the doctor or the like.
また、操作機能355は、画像処理を指示する操作を受け付ける。例えば、操作機能355は、比較画面G1等において、マウスをドラッグする操作等によりウィンドウ設定を指定する操作を受け付ける。なお、操作機能355は、マウスをドラッグする操作に限らず、数値の入力等の他の方法によりウィンドウ設定を指定する操作を受け付けてもよい。 Further, the operation function 355 accepts an operation for instructing image processing. For example, the operation function 355 accepts an operation of designating a window setting by an operation of dragging a mouse or the like on the comparison screen G1 or the like. The operation function 355 is not limited to the operation of dragging the mouse, and may accept an operation of specifying the window setting by another method such as inputting a numerical value.
また、操作機能355は、同一の断面位置の第1断面画像と、第2断面画像とを表示させる操作を受け付ける。例えば、指定機能357が指定した部位に含まれるアナトミカルランドマークに基づいて、第1の3次元画像データに含まれる被検体から断面画像を取得する位置と、第2の3次元画像データに含まれる被検体から断面画像を取得する位置とが同一の位置に合わせられた場合に、表示機能354は、同一の断面位置を表示させるか否かを確認する確認画面を表示する。操作機能355は、確認画面において、同一の断面位置を表示させるか否かを指示する表示操作を受け付ける。表示機能354は、操作機能355が同一の断面位置を表示させる操作を受け付けたことを条件に、同一の断面位置の第1断面画像と、第2断面画像とを表示する。これにより、医師等は、同一の断面位置を表示させるか、現在の表示を維持するかを任意に選択することができる。 Further, the operation function 355 accepts an operation for displaying the first cross-sectional image and the second cross-sectional image at the same cross-sectional position. For example, a position for acquiring a cross-sectional image from a subject included in the first 3D image data and a position included in the second 3D image data based on the anatomical landmark included in the designated portion of the designated function 357. When the position for acquiring the cross-sectional image from the subject is adjusted to the same position, the display function 354 displays a confirmation screen for confirming whether or not to display the same cross-sectional position. The operation function 355 accepts a display operation instructing whether or not to display the same cross-sectional position on the confirmation screen. The display function 354 displays the first cross-sectional image and the second cross-sectional image of the same cross-sectional position on condition that the operation function 355 accepts the operation of displaying the same cross-sectional position. As a result, the doctor or the like can arbitrarily select whether to display the same cross-sectional position or to maintain the current display.
画像処理機能356は、画像処理部の一例である。画像処理機能356は、第1の3次元画像データに含まれる被検体の断面画像である第1断面画像と、第2の3次元画像データに含まれる被検体の断面画像である第2断面画像との少なくとも一方に対して画像処理を実行する。例えば、画像処理機能356は、部位選択画像G11から部位を選択する操作を操作機能355が受け付けた場合に、選択された部位に対応付けられたウィンドウ設定が示すコントラストに変更する画像処理を実行する。すなわち、画像処理機能356は、画像処理として第1断面画像と、第2断面画像とのコントラストを変更する。なお、画像処理機能356は、第1断面画像、及び第2断面画像の両方に限らず、何れか一方に対して画像処理を実行するものであってもよい。
The
また、画像処理機能356は、操作により指示された設定に表示態様を変更する画像処理を実行する。具体的には、操作機能355は、ドラッグ等の操作により、ウィンドウレベルやウィンドウ幅の具体的な数値を指定する操作を受け付ける。そこで、画像処理機能356は、ドラッグ等の操作を操作機能355が受け付けた場合に、操作により指示されたウィンドウ設定が示すコントラストに変更する画像処理を実行する。
In addition, the
また、画像処理機能356は、第1断面画像と第2断面画像とが表示された比較画面G1で受け付けられた操作により指示された画像処理を実行する。具体的には、画像処理機能356は、比較画面G1において、ドラッグ等の操作によりウィンドウレベルやウィンドウ幅等のウィンドウ設定が変更された場合に、変更後のウィンドウ設定が示すコントラストに変更する画像処理を実行する。医師等は、比較画面G1において所望の部位が明確に表示されていない場合に、ドラッグ等の操作によりウィンドウレベルやウィンドウ幅を変更することで断面画像のコントラストを変更する。これにより、医師等は、所望の部位の断面画像を表示させる。
In addition, the
なお、画像処理機能356は、コントラストに限らず、他の画像処理を実行してもよい。例えば、画像処理機能356は、エッジ強調処理であってもよいし、スムージング処理であってもよいし、擬似カラー処理であってもよいし、その他の画像処理であってもよい。エッジ強調処理は、各部位の境界の強調する処理である。スムージング処理は、周囲の情報を使用して境界を滑らかにする処理である。擬似カラー処理は、CT値等の値ごとに割り当てられた色で表示することで、擬似的なカラー画像を表示する処理である。
The
指定機能357は、指定部の一例である。指定機能357は、画像処理機能356が実行した画像処理に対応する部位を指定する。すなわち、指定機能357は、画像処理機能356が実行した画像処理に対応する部位を、位置合わせ機能353が複数の3次元画像データ間の被検体の位置を合わせるために使用するアナトミカルランドマークが含まれる部位に指定する。また、指定機能357が指定する部位は、肺等の非剛体部位であってもよい。そして、位置合わせ機能353は、第1の3次元画像データに含まれる被検体の指定された部位のアナトミカルランドマークと、第2の3次元画像データに含まれる被検体の指定された部位のアナトミカルランドマークと、第1の3次元画像データに含まれる被検体の指定機能357が指定した部位に含まれるアナトミカルランドマークとの位置を合わせる。これにより、位置合わせ機能353は、指定機能357が指定した部位に含まれるアナトミカルランドマークに基づいて、第1の3次元画像データに含まれる被検体から断面画像を取得する位置と、第2の3次元画像データに含まれる被検体から断面画像を取得する位置とを同一の位置に合わせる。
The designation function 357 is an example of a designation unit. The designation function 357 designates a portion corresponding to the image processing executed by the
ここで、位置合わせ機能353は、複数の3次元画像データ間の被検体の位置を合わせる場合に、骨盤等の形状が変化しにくい剛体部位に有るアナトミカルランドマークに基づいて、複数の3次元画像データ間の被検体から断面画像を取得する位置を合わせる。そして、表示機能354は、同一の断面位置の断面画像を表示する。ところが、剛体部位に有るアナトミカルランドマークを使用して被検体の位置合わせを行うと、表示機能354は、断面位置を場合に、同一の部位を表示することができないことがある。 Here, the alignment function 353 is based on a plurality of three-dimensional images based on anatomical landmarks in a rigid body portion such as the pelvis where the shape of the pelvis is difficult to change when the position of the subject is aligned between the plurality of three-dimensional image data. Align the position to acquire the cross-sectional image from the subject between the data. Then, the display function 354 displays a cross-sectional image of the same cross-sectional position. However, when the subject is aligned using the anatomical landmark on the rigid body part, the display function 354 may not be able to display the same part in the case of the cross-sectional position.
ここで、図5は、断面位置のずれの一例について説明する図である。また、図5は、骨盤に有るアナトミカルランドマークを使用して、3次元画像データAの被検体と、3次元画像データBの被検体との位置を合わせている。図5に示すように断面位置が骨盤の略中央にある場合、表示機能354は、3次元画像データAについては被検体の骨盤の略中央の断面画像を表示し、3次元画像データBについては被検体の骨盤の略中央の断面画像を表示する。このように、表示機能354は、被検体の同一位置の断面を表示する。 Here, FIG. 5 is a diagram illustrating an example of a deviation in the cross-sectional position. Further, in FIG. 5, the anatomical landmarks on the pelvis are used to align the subject of the three-dimensional image data A and the subject of the three-dimensional image data B. When the cross-sectional position is substantially in the center of the pelvis as shown in FIG. 5, the display function 354 displays the cross-sectional image of the substantially center of the pelvis of the subject for the three-dimensional image data A, and for the three-dimensional image data B. A cross-sectional image of the center of the pelvis of the subject is displayed. In this way, the display function 354 displays the cross section of the subject at the same position.
しかし、図5に示すように、呼吸を行った場合に横隔膜の動きに伴い肺の位置は変化する。また、呼吸に限らず、体動等の様々な要因により肺の位置は変化する。そのため、図5に示すように断面位置が肺の略中央にある場合、表示機能354は、3次元画像データAについては被検体の肺の略中央の断面画像を表示するが、3次元画像データBについては被検体の肺の略中央よりも下方の断面画像を表示する。このように、表示機能354は、骨盤にあるアナトミカルランドマークを使用して被検体の位置合わせを行うと、表示機能354は、被検体の同一の部位を表示することができない場合がある。 However, as shown in FIG. 5, when breathing, the position of the lung changes with the movement of the diaphragm. In addition, the position of the lungs changes due to various factors such as body movement as well as breathing. Therefore, when the cross-sectional position is substantially in the center of the lung as shown in FIG. 5, the display function 354 displays the cross-sectional image of the substantially center of the lung of the subject for the three-dimensional image data A, but the three-dimensional image data. For B, a cross-sectional image below the center of the subject's lung is displayed. As described above, when the display function 354 aligns the subject using the anatomical landmark on the pelvis, the display function 354 may not be able to display the same part of the subject.
ここで、図6は、断面位置の修正の一例について説明する図である。図6に示すように、骨盤にあるアナトミカルランドマークを使用して被検体の位置合わせを行うと、呼吸等により肺の位置が異なっているため、表示機能354は、肺の同一位置の断面画像を表示ことができない。 Here, FIG. 6 is a diagram illustrating an example of correction of the cross-sectional position. As shown in FIG. 6, when the subject is aligned using the anatomical landmark on the pelvis, the position of the lung is different due to breathing or the like. Therefore, the display function 354 is a cross-sectional image of the same position of the lung. Cannot be displayed.
そこで、指定機能357は、画像処理機能356が実行した画像処理に対応する部位にあるアナトミカルランドマークを使用して、複数の3次元画像データ間の被検体の位置を合わせるように位置合わせ機能353に要求する。例えば、図6に示すように、画像処理機能356が実行した画像処理により肺が特定された場合、指定機能357は、肺にあるアナトミカルランドマークを使用して、複数の3次元画像データ間の被検体の位置を合わせるように位置合わせ機能353に要求する。
Therefore, the designation function 357 uses the anatomical landmark in the portion corresponding to the image processing executed by the
位置合わせ機能353は、指定された部位にあるアナトミカルランドマークを使用して、複数の3次元画像データ間の被検体から断面画像を取得する位置を合わせる。その結果、表示機能354は、被検体の同一位置の断面画像を表示することができる。例えば、図6に示すように指定機能357は、肺にあるアナトミカルランドマークを使用して、複数の3次元画像データ間の被検体の位置を合わせる。その結果、表示機能354は、3次元画像データA及び3次元画像データBについて、肺の略同一位置の断面画像を表示することができる。以下にて、指定機能357について説明する。 The alignment function 353 aligns a position for acquiring a cross-sectional image from a subject between a plurality of three-dimensional image data by using an anatomical landmark at a designated site. As a result, the display function 354 can display a cross-sectional image of the subject at the same position. For example, as shown in FIG. 6, the designation function 357 uses anatomical landmarks in the lungs to align the subject between a plurality of 3D image data. As a result, the display function 354 can display a cross-sectional image of the three-dimensional image data A and the three-dimensional image data B at substantially the same position of the lung. The designated function 357 will be described below.
例えば、指定機能357は、部位選択画像G11から選択された部位に対応する画像処理を画像処理機能356が実行した場合に、画像処理機能356が実行した画像処理に対応する部位を指定する。すなわち、部位選択画像G11から選択された部位に対応するウィンドウ設定が示すコントラストに変更する画像処理を画像処理機能356が実行した場合に、指定機能357は、部位選択画像G11から選択された部位を指定する。ここで、医師等は、部位選択画像G11から読影対象の部位を選択する。よって、位置合わせ機能353は、読影対象の部位に含まれるアナトミカルランドマークで複数の3次元画像データ間の被検体の位置を合わせることができる。
For example, the designation function 357 specifies a part corresponding to the image processing executed by the
また、指定機能357は、操作により指示された画像処理を画像処理機能356が実行した場合に、画像処理機能356が実行した画像処理に対応する部位を指定する。すなわち、指定機能357は、ドラッグ等の操作により指示されたウィンドウ設定が示すコントラストに変更する画像処理を画像処理機能356が実行した場合に、ウィンドウ設定に対応する部位を指定する。例えば、記憶回路320は、ウィンドウ設定と、部位とが対応付けられた情報テーブルを記憶する。指定機能357は、指示されたウィンドウ設定に対応付けられた部位を情報テーブルから抽出することでウィンドウ設定に対応する部位を特定する。そして、指定機能357は、特定した部位を、位置合わせ機能353が複数の3次元画像データ間の被検体の位置を合わせるために使用するアナトミカルランドマークが含まれる部位に指定する。
Further, the designation function 357 specifies a portion corresponding to the image processing executed by the
また、指定機能357は、比較画面G1で受け付けられた操作により指示された画像処理を画像処理機能356が実行した場合に、第1断面画像、又は第2断面画像に含まれる部位であって、画像処理に対応する部位を指定する。すなわち、指定機能357は、比較画面G1で受け付けられたドラッグ等の操作により指示されたウィンドウ設定が示すコントラストに変更する画像処理を画像処理機能356が実行した場合に、第1断面画像、又は第2断面画像に含まれる部位であって、ウィンドウ設定に対応する部位を指定する。医師等は、読影対象の部位が明確に表示されていない場合に、ドラッグ等の操作により指示されたウィンドウ設定を変更して適切なコントラストにすることで、読影対象の部位が明確に表示する。すなわち、第1断面画像、又は第2断面画像に含まれる部位が読影対象の部位であると推定することができる。よって、指定機能357は、指定する部位の条件として、第1断面画像、又は第2断面画像に含まれる部位であることを加えることで、読影対象の部位であることの精度を向上させることができる。
Further, the designated function 357 is a portion included in the first cross-sectional image or the second cross-sectional image when the
次に、本実施形態に係る医用画像処理装置30が実行する表示処理について説明する。図7は、本実施形態に係る医用画像処理装置30が実行する表示処理の処理手順を示すフローチャートである。
Next, the display process executed by the medical
取得機能351は、読影対象の3次元画像データと、この3次元画像データと比較する3次元画像データとをPACS20から取得する(ステップS1)。 The acquisition function 351 acquires the three-dimensional image data to be read and the three-dimensional image data to be compared with the three-dimensional image data from the PACS 20 (step S1).
抽出機能352は、取得機能351が取得したそれぞれの3次元画像データから被検体のアナトミカルランドマークを抽出する(ステップS2)。 The extraction function 352 extracts the anatomical landmark of the subject from each of the three-dimensional image data acquired by the acquisition function 351 (step S2).
位置合わせ機能353は、抽出機能352が抽出した3次元画像データに含まれる被検体のアナトミカルランドマークを使用して、複数の3次元画像データ間の被検体の位置を合わせる(ステップS3)。 The alignment function 353 aligns the position of the subject among the plurality of three-dimensional image data by using the anatomical landmark of the subject included in the three-dimensional image data extracted by the extraction function 352 (step S3).
表示機能354は、位置合わせ機能353により合わせられた被検体の同一位置の断面画像を比較画面G1に表示する(ステップS4)。 The display function 354 displays a cross-sectional image of the same position of the subject aligned by the alignment function 353 on the comparison screen G1 (step S4).
操作機能355は、比較画面G1に表示された断面画像に対して画像処理を実行する操作を受け付けたか否かを判定する(ステップS5)。例えば、操作機能355は、3次元画像データのコントラストを変更する操作を受け付けたか否かを判定する。画像処理を実行する操作を受け付けていない場合(ステップS5;No)、表示機能354は、ステップS5において、比較画面G1の表示を継続する。 The operation function 355 determines whether or not an operation for executing image processing has been accepted for the cross-sectional image displayed on the comparison screen G1 (step S5). For example, the operation function 355 determines whether or not an operation for changing the contrast of the three-dimensional image data has been accepted. When the operation for executing the image processing is not accepted (step S5; No), the display function 354 continues the display of the comparison screen G1 in step S5.
画像処理を実行する操作を受け付けた場合(ステップS5;Yes)、画像処理機能356は、操作に対応した画像処理を実行する(ステップS6)。例えば、画像処理機能356は、受け付けた操作が示すウィンドウ設定が示すコントラストに変更する画像処理を実行する。
When the operation for executing the image processing is accepted (step S5; Yes), the
指定機能357は、画像処理機能356が実行した画像処理に対応する部位を、位置合わせ機能353が複数の3次元画像データ間の被検体の位置を合わせるために使用するアナトミカルランドマークが含まれる部位に指定する(ステップS7)。
The designation function 357 is a part including an anatomical landmark used by the alignment function 353 to align a subject between a plurality of three-dimensional image data with a part corresponding to the image processing executed by the
位置合わせ機能353は、指定された部位あるアナトミカルランドマークを使用して、複数の3次元画像データ間の被検体の位置を合わせる(ステップS8)。 The alignment function 353 aligns the subject between a plurality of three-dimensional image data by using an anatomical landmark having a designated site (step S8).
表示機能354は、被検体の同一位置の断面画像を比較画面G1に表示するかを確認する確認画面を表示する(ステップS9)。 The display function 354 displays a confirmation screen for confirming whether to display a cross-sectional image of the subject at the same position on the comparison screen G1 (step S9).
操作機能355は、確認画面において、被検体の同一位置の断面画像を比較画面G1に表示する操作を受け付けたか否かを判定する(ステップS10)。被検体の同一位置の断面画像を比較画面G1に表示する操作を受け付けていない場合(ステップS10;No)、表示機能354は、ステップS4に移行する。すなわち、表示機能354は、コントラストが変更された断面画像であって、断面位置が変更されていない断面画像を有する比較画面G1を表示する。 The operation function 355 determines on the confirmation screen whether or not the operation of displaying the cross-sectional image of the subject at the same position on the comparison screen G1 has been accepted (step S10). When the operation of displaying the cross-sectional image of the same position of the subject on the comparison screen G1 is not accepted (step S10; No), the display function 354 shifts to step S4. That is, the display function 354 displays the comparison screen G1 having the cross-sectional image whose contrast has been changed and whose cross-sectional position has not been changed.
被検体の同一位置の断面画像を比較画面G1に表示する操作を受け付けた場合(ステップS10;No)、表示機能354は、被検体の同一位置の断面画像を比較画面G1に表示する(ステップS11)。そして、医用画像処理装置30は、ステップS4に移行して、比較画面G1の表示を継続する。
When the operation of displaying the cross-sectional image of the subject at the same position on the comparison screen G1 is accepted (step S10; No), the display function 354 displays the cross-sectional image of the subject at the same position on the comparison screen G1 (step S11). ). Then, the medical
医用画像処理装置30は、比較画面G1の表示を終了する操作を受け付けた場合に、表示処理を終了する。
The medical
以上のように、本実施形態に係る医用画像処理装置30は、アナトミカルランドマークを使用して被検体の位置を合わせた第1断面画像と、第2断面画像とを表示する。また、医用画像処理装置30は、コントラストを変更する等の画像処理を実行した場合に、実行した画像処理に対応した部位を特定する。そして、医用画像処理装置30は、特定した部位にあるアナトミカルランドマークを使用して被検体の位置を合わせる。医師等は読影対象の部位に応じたコントラストで読影を行うため、医用画像処理装置30は、コントラストに対応した部位を特定することで、読影対象の部位を特定することができる。その結果、本実施形態に係る医用画像処理装置30は、読影対象の部位にあるアナトミカルランドマークで被検体の位置を合わせるため、体動や呼吸等に影響されにくい位置合わせを行うことができる。
As described above, the medical
また、上記した実施形態では、医用画像処理装置30が特徴的な機能を備えている場合を例に説明した。しかしながら、医用画像処理装置30が備えている取得機能351、抽出機能352、位置合わせ機能353、表示機能354、操作機能355、画像処理機能356、及び指定機能357等のこれらの機能の全部又は一部は、モダリティ10が備えていてもよいし、PACS20が備えていてもよいし、これら以外の装置又はシステムが備えていてもよい。
Further, in the above-described embodiment, the case where the medical
また、上述した実施形態では、単一の処理回路350によって各処理機能が実現される場合の例を説明したが、実施形態はこれに限られない。例えば、処理回路350は、複数の独立したプロセッサを組み合わせて構成され、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路350が有する各処理機能は、単一又は複数の処理回路350に適宜に分散又は統合されて実現されてもよい。 Further, in the above-described embodiment, an example in which each processing function is realized by a single processing circuit 350 has been described, but the embodiment is not limited to this. For example, the processing circuit 350 may be configured by combining a plurality of independent processors, and each processor may execute each program to realize each processing function. Further, each processing function of the processing circuit 350 may be appropriately distributed or integrated into a single or a plurality of processing circuits 350.
上述した各実施形態の説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。ここで、メモリにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合には、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。 The word "processor" used in the description of each of the above-described embodiments is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), or a programmable device. It means a circuit such as a logical device (for example, a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA)). To do. Here, instead of storing the program in the memory, the program may be configured to be directly embedded in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit. Further, each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to be configured as one processor to realize its function. Good.
ここで、プロセッサによって実行されるプログラムは、ROM(Read Only Memory)や記憶部等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)−ROM、FD(Flexible Disk)、CD−R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。 Here, the program executed by the processor is provided in advance in a ROM (Read Only Memory), a storage unit, or the like. This program is a file in a format that can be installed or executed on these devices, such as CD (Compact Disk) -ROM, FD (Flexible Disk), CD-R (Recordable), DVD (Digital Versatile Disk), etc. It may be recorded and provided on a computer-readable storage medium. Further, this program may be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network. For example, this program is composed of modules including each functional part. In actual hardware, the CPU reads a program from a storage medium such as a ROM and executes it, so that each module is loaded on the main storage device and generated on the main storage device.
以上説明した少なくとも一つの実施形態によれば、体動や呼吸等に影響されにくい位置合わせを行うことができる。 According to at least one embodiment described above, it is possible to perform alignment that is not easily affected by body movement, respiration, or the like.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.
1 医用画像処理システム
10 モダリティ
20 PACS
30 医用画像処理装置
310 ネットワークインタフェース
320 記憶回路
330 入力インタフェース
340 ディスプレイ
350 処理回路
351 取得機能
352 抽出機能
353 位置合わせ機能
354 表示機能
355 操作機能
356 画像処理機能
357 指定機能
G1 比較画面
G11 部位選択画像
G12 メニュー画像
1 Medical
30 Medical image processing device 310 Network interface 320 Storage circuit 330 Input interface 340 Display 350 Processing circuit 351 Acquisition function 352 Extraction function 353 Alignment function 354 Display function 355
Claims (9)
前記第1の3次元画像データに含まれる前記被検体の特徴点と、前記第2の3次元画像データに含まれる前記被検体の特徴点とを抽出する抽出部と、
前記第1の3次元画像データに含まれる前記被検体の断面画像である第1断面画像と、前記第2の3次元画像データに含まれる前記被検体の断面画像である第2断面画像との少なくとも一方に対して画像処理を実行する画像処理部と、
前記画像処理部が実行した前記画像処理に対応する部位を指定する指定部と、
前記指定部が指定した前記部位に含まれる前記特徴点に基づいて、前記第1の3次元画像データに含まれる前記被検体から前記第1断面画像を取得する位置と、前記第2の3次元画像データに含まれる前記被検体から前記第2断面画像を取得する位置とを同一の位置に合わせる位置合わせ部と、
を備える医用画像処理装置。 Acquire the first 3D image data which is the 3D image data of the subject and the 2nd 3D image data which is the 3D image data of the subject and is different from the 1st 3D image data. Acquisition department and
An extraction unit that extracts the feature points of the subject included in the first three-dimensional image data and the feature points of the subject included in the second three-dimensional image data.
A first cross-sectional image which is a cross-sectional image of the subject included in the first three-dimensional image data and a second cross-sectional image which is a cross-sectional image of the subject included in the second three-dimensional image data. An image processing unit that executes image processing on at least one of them,
A designated unit that specifies a part corresponding to the image processing executed by the image processing unit, and a designated unit.
A position for acquiring the first cross-sectional image from the subject included in the first three-dimensional image data and the second three-dimensional image based on the feature points included in the site designated by the designated portion. An alignment unit that aligns the position for acquiring the second cross-sectional image from the subject included in the image data to the same position.
A medical image processing device comprising.
前記指定部は、前記画像処理部が実行した前記画像処理に対応する部位を指定し、
前記位置合わせ部は、前記画像処理に対応する前記部位を前記指定部が指定した場合に、前記指定部が指定した前記部位に含まれる前記特徴点に基づいて、前記第1の3次元画像データに含まれる前記被検体から前記第1断面画像を取得する位置と、前記第2の3次元画像データに含まれる前記被検体から前記第2断面画像を取得する位置とを同一の位置に合わせる、
請求項1に記載の医用画像処理装置。 The alignment portion includes a position for acquiring the first cross-sectional image from the subject included in the first three-dimensional image data based on the feature point included in the rigid body portion which is a rigid body portion, and the positioning portion. The position for acquiring the second cross-sectional image from the subject included in the second three-dimensional image data is aligned with the same position.
The designated unit designates a portion corresponding to the image processing executed by the image processing unit.
The alignment unit is the first three-dimensional image data based on the feature points included in the part designated by the designated part when the designated part designates the part corresponding to the image processing. The position for acquiring the first cross-sectional image from the subject included in the subject and the position for acquiring the second cross-sectional image from the subject included in the second three-dimensional image data are aligned with each other.
The medical image processing apparatus according to claim 1.
前記位置合わせ部は、前記指定部が指定した前記部位に含まれる前記特徴点に基づいて、前記第1の3次元画像データに含まれる前記被検体から前記第1断面画像を取得する位置と、前記第2の3次元画像データに含まれる前記被検体から前記第2断面画像を取得する位置とを同一の位置に合わせ、
前記表示部は、前記位置合わせ部が前記被検体の位置を合わせることにより同一の断面位置となった前記第1断面画像と、前記第2断面画像とを表示する、
請求項1又は2に記載の医用画像処理装置。 A display unit for displaying the first cross-sectional image and the second cross-sectional image is further provided.
The alignment portion includes a position at which the first cross-sectional image is acquired from the subject included in the first three-dimensional image data based on the feature points included in the portion designated by the designated portion. The position for acquiring the second cross-sectional image from the subject included in the second three-dimensional image data is aligned with the same position.
The display unit displays the first cross-sectional image and the second cross-sectional image in which the alignment unit has the same cross-sectional position by aligning the positions of the subject.
The medical image processing apparatus according to claim 1 or 2.
前記指定部は、前記画像処理部が実行した前記画像処理に対応する前記部位を指定する、
請求項1から請求項3の何れか一項に記載の医用画像処理装置。 When the part is selected from the list showing the plurality of the parts, the image processing unit executes the image processing corresponding to the part.
The designation unit designates the portion corresponding to the image processing executed by the image processing unit.
The medical image processing apparatus according to any one of claims 1 to 3.
前記指定部は、前記画像処理部が実行した前記画像処理に対応する前記部位を指定する、
請求項1から請求項3の何れか一項に記載の医用画像処理装置。 The image processing unit executes the image processing instructed by the operation,
The designation unit designates the portion corresponding to the image processing executed by the image processing unit.
The medical image processing apparatus according to any one of claims 1 to 3.
前記指定部は、前記第1断面画像、又は前記第2断面画像に含まれる前記部位であって、前記画像処理に対応する前記部位を指定する、
請求項3に記載の医用画像処理装置。 The image processing unit executes the image processing instructed by the operation accepted on the screen on which the first cross-sectional image and the second cross-sectional image are displayed.
The designated portion is the portion included in the first cross-sectional image or the second cross-sectional image, and designates the portion corresponding to the image processing.
The medical image processing apparatus according to claim 3.
前記表示部は、前記操作部が同一の断面位置を表示させる操作を受け付けたことを条件に、同一の断面位置の前記第1断面画像と、前記第2断面画像とを表示する、
請求項3に記載の医用画像処理装置。 An operation unit that accepts an operation for displaying the first cross-sectional image and the second cross-sectional image at the same cross-sectional position is further provided.
The display unit displays the first cross-sectional image and the second cross-sectional image at the same cross-sectional position, provided that the operation unit accepts an operation for displaying the same cross-sectional position.
The medical image processing apparatus according to claim 3.
請求項1から請求項7の何れか一項に記載の医用画像処理装置。 The image processing unit changes the contrast between the first cross-sectional image and the second cross-sectional image as the image processing.
The medical image processing apparatus according to any one of claims 1 to 7.
前記第1の3次元画像データに含まれる前記被検体の特徴点と、前記第2の3次元画像データに含まれる前記被検体の特徴点とを抽出する抽出部と、
前記第1の3次元画像データに含まれる前記被検体の断面画像である第1断面画像と、前記第2の3次元画像データに含まれる前記被検体の断面画像である第2断面画像との少なくとも一方に対して画像処理を実行する画像処理部と、
前記画像処理部が実行した前記画像処理に対応する部位を指定する指定部と、
前記指定部が指定した前記部位に含まれる前記特徴点に基づいて、前記第1の3次元画像データに含まれる前記被検体から前記第1断面画像を取得する位置と、前記第2の3次元画像データに含まれる前記被検体から前記第2断面画像を取得する位置とを同一の位置に合わせる位置合わせ部と、
を備える医用画像処理システム。 Acquire the first 3D image data which is the 3D image data of the subject and the 2nd 3D image data which is the 3D image data of the subject and is different from the 1st 3D image data. Acquisition department and
An extraction unit that extracts the feature points of the subject included in the first three-dimensional image data and the feature points of the subject included in the second three-dimensional image data.
A first cross-sectional image which is a cross-sectional image of the subject included in the first three-dimensional image data and a second cross-sectional image which is a cross-sectional image of the subject included in the second three-dimensional image data. An image processing unit that executes image processing on at least one of them,
A designated unit that specifies a part corresponding to the image processing executed by the image processing unit, and a designated unit.
A position for acquiring the first cross-sectional image from the subject included in the first three-dimensional image data and the second three-dimensional image based on the feature points included in the site designated by the designated portion. An alignment unit that aligns the position for acquiring the second cross-sectional image from the subject included in the image data to the same position.
Medical image processing system equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019229761A JP7451168B2 (en) | 2019-12-19 | 2019-12-19 | Medical image processing devices and medical image processing systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019229761A JP7451168B2 (en) | 2019-12-19 | 2019-12-19 | Medical image processing devices and medical image processing systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021097731A true JP2021097731A (en) | 2021-07-01 |
JP7451168B2 JP7451168B2 (en) | 2024-03-18 |
Family
ID=76541566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019229761A Active JP7451168B2 (en) | 2019-12-19 | 2019-12-19 | Medical image processing devices and medical image processing systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7451168B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009219655A (en) * | 2008-03-17 | 2009-10-01 | Fujifilm Corp | Image analysis apparatus, method, and program |
US20140072196A1 (en) * | 2012-09-07 | 2014-03-13 | Korea Advanced Institute Of Science And Technology | Method and apparatus for medical image registration |
JP2015066023A (en) * | 2013-09-27 | 2015-04-13 | 富士フイルム株式会社 | Image positioning apparatus, method, and program, and three-dimensional deformation model generation method |
JP2015171437A (en) * | 2014-03-11 | 2015-10-01 | 株式会社東芝 | Medical image processing apparatus, medical image processing system, and medical image processing program |
-
2019
- 2019-12-19 JP JP2019229761A patent/JP7451168B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009219655A (en) * | 2008-03-17 | 2009-10-01 | Fujifilm Corp | Image analysis apparatus, method, and program |
US20140072196A1 (en) * | 2012-09-07 | 2014-03-13 | Korea Advanced Institute Of Science And Technology | Method and apparatus for medical image registration |
JP2015066023A (en) * | 2013-09-27 | 2015-04-13 | 富士フイルム株式会社 | Image positioning apparatus, method, and program, and three-dimensional deformation model generation method |
JP2015171437A (en) * | 2014-03-11 | 2015-10-01 | 株式会社東芝 | Medical image processing apparatus, medical image processing system, and medical image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7451168B2 (en) | 2024-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9808213B2 (en) | Image processing apparatus, image processing method, medical image diagnostic system, and storage medium | |
JP4911029B2 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
US9865059B2 (en) | Medical image processing method and apparatus for determining plane of interest | |
JP6448356B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
US11176671B2 (en) | Medical image processing apparatus, and method | |
US20130038629A1 (en) | Method and device for visualizing the registration quality of medical image datasets | |
US10223795B2 (en) | Device, system and method for segmenting an image of a subject | |
JP2016202721A (en) | Medical image display apparatus and program | |
CN107633478B (en) | Image processing apparatus, image processing method, and computer readable medium | |
JP5100041B2 (en) | Image processing apparatus and image processing program | |
US10825176B2 (en) | Medical image processing apparatus, method for processing medical image, and medical image processing system | |
US20190236783A1 (en) | Image processing apparatus, image processing method, and program | |
JP7451168B2 (en) | Medical image processing devices and medical image processing systems | |
JP2016209267A (en) | Medical image processor and program | |
US10074198B2 (en) | Methods and apparatuses for image processing and display | |
US10169868B2 (en) | Image processing apparatus and image processing method | |
JP2016106781A (en) | Image processing system, and control method and program for image processing system | |
JP2014133030A (en) | Medical image processing apparatus | |
JP7394959B2 (en) | Medical image processing device, medical image processing method and program, medical image display system | |
US9195798B2 (en) | Flexible computation of isodose lines | |
US20240071069A1 (en) | Medical image processing apparatus | |
JP6853004B2 (en) | Medical image processing equipment and mammography equipment | |
US20220044052A1 (en) | Matching apparatus, matching method, and matching program | |
JP6951116B2 (en) | Medical image processing equipment, medical diagnostic imaging equipment, and image processing methods | |
JP2017189379A (en) | Medical image processing apparatus, mammography apparatus and medical image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7451168 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |