JP7166870B2 - Image processing device and medical imaging device - Google Patents

Image processing device and medical imaging device Download PDF

Info

Publication number
JP7166870B2
JP7166870B2 JP2018195917A JP2018195917A JP7166870B2 JP 7166870 B2 JP7166870 B2 JP 7166870B2 JP 2018195917 A JP2018195917 A JP 2018195917A JP 2018195917 A JP2018195917 A JP 2018195917A JP 7166870 B2 JP7166870 B2 JP 7166870B2
Authority
JP
Japan
Prior art keywords
region
pixels
function
image processing
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018195917A
Other languages
Japanese (ja)
Other versions
JP2019075123A (en
Inventor
美沙枝 原武
敏充 金子
敦司 谷口
達也 木本
伸介 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to US16/162,986 priority Critical patent/US11138735B2/en
Publication of JP2019075123A publication Critical patent/JP2019075123A/en
Application granted granted Critical
Publication of JP7166870B2 publication Critical patent/JP7166870B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、画像処理装置及び医用画像撮像装置に関する。 TECHNICAL FIELD Embodiments of the present invention relate to an image processing apparatus and a medical imaging apparatus.

従来、被検体の呼吸時の動画像から、肺の壁側胸膜と臓側胸膜との癒着の状態を評価する医用画像撮像装置がある。 Conventionally, there is a medical imaging apparatus that evaluates the state of adhesion between the parietal pleura of the lung and the visceral pleura from a moving image of the subject's breathing.

特開2016-67832号公報JP 2016-67832 A

本発明が解決しようとする課題は、精度良く付着の状態を評価することができる画像処理装置及び医用画像撮像装置を提供することである。 A problem to be solved by the present invention is to provide an image processing apparatus and a medical imaging apparatus that can accurately evaluate the adhesion state.

実施形態の画像処理装置は、取得部と、第1の算出部とを備える。取得部は、複数の時相において被検体の対象部位を含んで撮像された複数の画像を取得する。第1の算出部は、画像における第1の領域及び第2の領域の境界を跨いで所定方向に並んだ画像の複数の画素における、複数の時相の画像間での移動情報に基づいて、第1の領域に係る第1のクラス又は第1の領域と所定方向に隣り合う第2の領域に係る第2のクラスへ複数の画素のそれぞれを分類する際の分類情報から、第1の領域に対応する被検体の第1の部位と第2の領域に対応する被検体の第2の部位との境界における付着の状態を示す指標を算出する。 An image processing apparatus according to an embodiment includes an acquisition unit and a first calculation unit. The acquiring unit acquires a plurality of images captured including a target region of the subject in a plurality of time phases. A first calculation unit, based on movement information between a plurality of temporal images in a plurality of pixels of an image arranged in a predetermined direction across a boundary between a first region and a second region in the image, From the classification information for classifying each of the plurality of pixels into a first class related to the first region or a second class related to a second region adjacent to the first region in a predetermined direction, the first region and the second region of the subject corresponding to the second region.

図1は、第1の実施形態に係るX線CT装置の構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of an X-ray CT apparatus according to the first embodiment. 図2は、第1の実施形態に係る評価処理の一例の流れを示すフローチャートである。FIG. 2 is a flowchart illustrating an example flow of evaluation processing according to the first embodiment. 図3は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図4は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図5は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図6は、第1の実施形態に係るカットラインの一例を説明するための図である。FIG. 6 is a diagram for explaining an example of cut lines according to the first embodiment. 図7は、第1の実施形態に係るカットラインの一例を説明するための図である。FIG. 7 is a diagram for explaining an example of cut lines according to the first embodiment. 図8は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図9は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図10は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図11は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図12は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 12 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図13は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 13 is a diagram for explaining an example of evaluation processing according to the first embodiment. 図14は、第1の実施形態に係る表示用の2次元画像データが示す画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of an image represented by two-dimensional image data for display according to the first embodiment. 図15は、第2の変形例に係るX線CT装置が実行する処理の一例を説明するための図である。FIG. 15 is a diagram for explaining an example of processing executed by the X-ray CT apparatus according to the second modification. 図16は、第2の変形例に係るX線CT装置が実行する処理の一例を説明するための図である。FIG. 16 is a diagram for explaining an example of processing executed by the X-ray CT apparatus according to the second modification. 図17は、第2の実施形態に係る画像処理装置を含むシステムの構成の一例を示す図である。FIG. 17 is a diagram showing an example of the configuration of a system including an image processing device according to the second embodiment.

以下、図面を参照して、実施形態に係る画像処理装置及び医用画像撮像装置を説明する。また、一つの実施形態に記載した内容は、原則として他の実施形態にも同様に適用される。 An image processing apparatus and a medical imaging apparatus according to embodiments will be described below with reference to the drawings. In addition, the contents described in one embodiment are in principle similarly applied to other embodiments.

なお、医用画像撮像装置とは、被検体を撮像して医用画像を生成する医用画像診断装置の総称である。例えば、医用画像撮像装置には、X線CT装置が含まれる。以下の実施形態では、開示の技術がX線CT装置に適用される場合を説明するが、他の医用画像撮像装置(例えば、磁気共鳴イメージング(Magnetic Resonance Imaging:MRI)装置、X線アンギオ装置、PET(Positron Emission Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置等)にも同様に適用可能である。 The medical image capturing apparatus is a general term for medical image diagnostic apparatuses that capture an image of a subject and generate a medical image. For example, medical imaging devices include X-ray CT devices. In the following embodiments, a case where the technology disclosed herein is applied to an X-ray CT apparatus will be described. It is also applicable to a PET (Positron Emission Tomography) device, a SPECT (Single Photon Emission Computed Tomography) device, etc.).

(第1の実施形態)
図1は、第1の実施形態に係るX線CT装置1の構成の一例を示す図である。図1に示すように、第1の実施形態に係るX線CT装置1は、架台装置10と、寝台装置20と、コンソール装置30とを有する。架台装置10、寝台装置20、及びコンソール装置30は、互いに通信可能に接続される。
(First embodiment)
FIG. 1 is a diagram showing an example of the configuration of an X-ray CT apparatus 1 according to the first embodiment. As shown in FIG. 1, the X-ray CT apparatus 1 according to the first embodiment has a gantry device 10, a bed device 20, and a console device 30. As shown in FIG. The gantry device 10, the bed device 20, and the console device 30 are communicably connected to each other.

なお、本実施形態では、非チルト状態での回転フレーム13の回転軸又は寝台装置20の天板23の長手方向を「Z軸方向」と定義する。また、Z軸方向に直交し、床面に対し水平である軸方向を「X軸方向」と定義する。また、Z軸方向に直交し、床面に対し垂直である軸方向を「Y軸方向」と定義する。 In this embodiment, the rotation axis of the rotating frame 13 or the longitudinal direction of the top board 23 of the bed device 20 in the non-tilt state is defined as the "Z-axis direction". Further, an axial direction perpendicular to the Z-axis direction and horizontal to the floor surface is defined as an “X-axis direction”. Further, the axial direction perpendicular to the Z-axis direction and perpendicular to the floor surface is defined as the “Y-axis direction”.

架台装置10は、被検体(患者)PにX線を照射し、被検体Pを透過したX線を検出して、コンソール装置30に出力する装置である。架台装置10は、X線管11と、X線検出器12と、回転フレーム13と、制御装置14と、ウェッジ15と、コリメータ16と、DAS(Data Acquisition System)17と、X線高電圧装置18とを有する。 The gantry device 10 is a device that irradiates an object (patient) P with X-rays, detects the X-rays that have passed through the object P, and outputs the detected X-rays to the console device 30 . The gantry device 10 includes an X-ray tube 11, an X-ray detector 12, a rotating frame 13, a control device 14, a wedge 15, a collimator 16, a DAS (Data Acquisition System) 17, and an X-ray high voltage device. 18.

X線管11は、X線高電圧装置18からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射する真空管である。X線管11は、熱電子を陽極に衝突させることにより、X線を発生させる。 The X-ray tube 11 is a vacuum tube that emits thermal electrons from a cathode (filament) toward an anode (target) by applying a high voltage from an X-ray high voltage device 18 . The X-ray tube 11 generates X-rays by colliding thermal electrons with an anode.

ウェッジ15は、X線管11から照射されたX線量を調節するためのフィルタである。具体的には、ウェッジ15は、X線管11から被検体Pへ照射されるX線の分布が、予め定められた分布になるように、X線管11から照射されたX線を透過して減衰するフィルタである。例えば、ウェッジ15は、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したフィルタである。なお、ウェッジ15は、ウェッジフィルタ(wedge filter)や、ボウタイフィルタ(bow-tie filter)とも呼ばれる。 Wedge 15 is a filter for adjusting the dose of X-rays emitted from X-ray tube 11 . Specifically, the wedge 15 transmits the X-rays emitted from the X-ray tube 11 so that the distribution of the X-rays emitted from the X-ray tube 11 to the subject P becomes a predetermined distribution. is a filter that attenuates For example, the wedge 15 is a filter made of aluminum so as to have a predetermined target angle and a predetermined thickness. The wedge 15 is also called a wedge filter or a bow-tie filter.

コリメータ16は、ウェッジ15を透過したX線の照射範囲を絞り込むための鉛板等である。コリメータ16は、複数の鉛板等を組み合わせることで、スリット状に形成される。 The collimator 16 is a lead plate or the like for narrowing down the irradiation range of the X-rays transmitted through the wedge 15 . The collimator 16 is formed in a slit shape by combining a plurality of lead plates or the like.

X線検出器12は、X線管11から照射され、被検体Pを通過したX線を検出し、当該X線量に対応した電気信号をDAS17へ出力する。X線検出器12は、例えば、X線管11の焦点を中心として1つの円弧に沿ってチャネル方向に複数のX線検出素子が配列された複数のX線検出素子列を有する。X線検出器12は、例えば、チャネル方向に複数のX線検出素子が配列されたX線検出素子列がスライス方向(列方向又はrow方向とも称される)に複数配列された構造を有する。 The X-ray detector 12 detects X-rays emitted from the X-ray tube 11 and passing through the subject P, and outputs an electrical signal corresponding to the X-ray dose to the DAS 17 . The X-ray detector 12 has, for example, a plurality of X-ray detection element arrays in which a plurality of X-ray detection elements are arranged in the channel direction along one circular arc centering on the focal point of the X-ray tube 11 . The X-ray detector 12 has, for example, a structure in which a plurality of X-ray detection element rows each having a plurality of X-ray detection elements arranged in the channel direction are arranged in the slice direction (also called row direction or row direction).

また、X線検出器12は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接変換型の検出器である。シンチレータアレイは、複数のシンチレータを有し、シンチレータは、入射X線量に応じた光子量の光を出力するシンチレータ結晶を有する。グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。光センサアレイは、シンチレータからの光量に応じた電気信号を出力する機能を有し、例えば、光電子増倍管(Photomultiplier Tube:PMT)等の光センサを有する。なお、X線検出器12は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。 Also, the X-ray detector 12 is, for example, an indirect conversion type detector having a grid, a scintillator array, and a photosensor array. The scintillator array has a plurality of scintillators, and the scintillator has a scintillator crystal that outputs a photon amount of light corresponding to the amount of incident X-rays. The grid has an X-ray shielding plate arranged on the surface of the scintillator array on the X-ray incident side and having a function of absorbing scattered X-rays. The photosensor array has a function of outputting an electric signal according to the amount of light from the scintillator, and has photosensors such as photomultiplier tubes (PMTs), for example. The X-ray detector 12 may be a direct conversion type detector having a semiconductor element that converts incident X-rays into electrical signals.

X線高電圧装置18は、変圧器(トランス)及び整流器等の電気回路を有し、X線管11に印加する高電圧を発生する機能を有する高電圧発生装置と、X線管11が照射するX線出力に応じた出力電圧の制御を行うX線制御装置とを有する。高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であっても構わない。なお、X線高電圧装置18は、後述する回転フレーム13に設けられてもよいし、架台装置10の固定フレーム(図示しない)側に設けられても構わない。なお、固定フレームは、回転フレーム13を回転可能に支持するフレームである。 The X-ray high-voltage device 18 has an electric circuit such as a transformer and a rectifier, and has a high-voltage generator function to generate a high voltage to be applied to the X-ray tube 11. and an X-ray control device for controlling an output voltage according to the X-ray output. The high voltage generator may be of a transformer type or an inverter type. Note that the X-ray high-voltage device 18 may be provided on a rotating frame 13 to be described later, or may be provided on a fixed frame (not shown) side of the gantry device 10 . Note that the fixed frame is a frame that rotatably supports the rotating frame 13 .

DAS17は、X線検出器12の各X線検出素子から出力される電気信号に対して増幅処理を行う増幅器と、電気信号をデジタル信号に変換するA/D変換器とを有し、検出データを生成する。DAS17が生成した検出データは、コンソール装置30へと転送される。 The DAS 17 has an amplifier that amplifies the electrical signal output from each X-ray detection element of the X-ray detector 12, and an A/D converter that converts the electrical signal into a digital signal. to generate Detection data generated by the DAS 17 is transferred to the console device 30 .

回転フレーム13は、X線管11とX線検出器12とを対向支持し、後述する制御装置14によってX線管11とX線検出器12とを回転させる円環状のフレームである。なお、回転フレーム13は、X線管11とX線検出器12に加えて、X線高電圧装置18やDAS17を更に備えて支持する。DAS17が生成した検出データは、回転フレーム13に設けられた発光ダイオード(light emitting diode:LED)を有する送信機から光通信によって架台装置10の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、コンソール装置30へ転送される。なお、回転フレーム13から架台装置10の非回転部分への検出データの送信方法は、前述の光通信に限らず、非接触型のデータ伝送であれば如何なる方式を採用しても構わない。 The rotating frame 13 is an annular frame that supports the X-ray tube 11 and the X-ray detector 12 so as to face each other and rotates the X-ray tube 11 and the X-ray detector 12 by means of a control device 14, which will be described later. In addition to the X-ray tube 11 and the X-ray detector 12, the rotating frame 13 further includes an X-ray high-voltage device 18 and a DAS 17 to support them. Detected data generated by the DAS 17 is transmitted by optical communication from a transmitter having a light emitting diode (LED) mounted on the rotating frame 13 to a photodiode mounted on a non-rotating portion (e.g., stationary frame) of the gantry 10. and transferred to the console device 30 . The method of transmitting the detection data from the rotating frame 13 to the non-rotating portion of the gantry 10 is not limited to the optical communication described above, and any method of non-contact data transmission may be employed.

制御装置14は、CPU(Central Processing Unit)等を有する処理回路と、モータ及びアクチュエータ等の駆動機構とを有する。制御装置14は、コンソール装置30又は架台装置10に取り付けられた入力インターフェースからの入力信号を受けて、架台装置10及び寝台装置20の動作制御を行う機能を有する。例えば、制御装置14は、入力信号を受けて回転フレーム13を回転させる制御や、架台装置10をチルトさせる制御、及び寝台装置20及び天板23を動作させる制御を行う。なお、架台装置10をチルトさせる制御は、架台装置10に取り付けられた入力インターフェースによって入力される傾斜角度(チルト角度)情報により、制御装置14がX軸方向に平行な軸を中心に回転フレーム13を回転させることによって実現される。なお、制御装置14は、架台装置10に設けられてもよいし、コンソール装置30に設けられても構わない。 The control device 14 has a processing circuit having a CPU (Central Processing Unit) and the like, and drive mechanisms such as motors and actuators. The control device 14 has a function of receiving an input signal from an input interface attached to the console device 30 or the gantry device 10 and controlling the operations of the gantry device 10 and the bed device 20 . For example, the control device 14 receives an input signal and performs control to rotate the rotating frame 13 , control to tilt the gantry device 10 , and control to operate the bed device 20 and the tabletop 23 . Note that the control for tilting the gantry device 10 is performed by the control device 14 based on the tilt angle (tilt angle) information input through the input interface attached to the gantry device 10. This is achieved by rotating the Note that the control device 14 may be provided in the gantry device 10 or may be provided in the console device 30 .

寝台装置20は、スキャン対象である被検体Pを載置、移動させる装置であり、基台21と、寝台駆動装置22と、天板23と、支持フレーム24とを備えている。基台21は、支持フレーム24を鉛直方向に移動可能に支持する筐体である。寝台駆動装置22は、被検体Pが載置された天板23を天板23の長軸方向に移動するモータあるいはアクチュエータである。支持フレーム24の上面に設けられた天板23は、被検体Pが載置される板である。なお、寝台駆動装置22は、天板23に加え、支持フレーム24を天板23の長軸方向に移動してもよい。 The bed device 20 is a device for placing and moving a subject P to be scanned, and includes a base 21 , a bed driving device 22 , a top plate 23 and a support frame 24 . The base 21 is a housing that supports the support frame 24 so as to be vertically movable. The bed driving device 22 is a motor or actuator that moves the table 23 on which the subject P is placed in the longitudinal direction of the table 23 . A top plate 23 provided on the upper surface of the support frame 24 is a plate on which the subject P is placed. Note that the bed drive device 22 may move the support frame 24 in the longitudinal direction of the top plate 23 in addition to the top plate 23 .

コンソール装置30は、操作者によるX線CT装置1の操作を受け付けるとともに、架台装置10によって収集された検出データを用いてCT画像データを再構成する装置である。コンソール装置30は、図1に示すように、メモリ31と、ディスプレイ32と、入力インターフェース33と、処理回路34とを有する。メモリ31、ディスプレイ32、入力インターフェース33、及び処理回路34は、互いに通信可能に接続される。 The console device 30 is a device that receives an operator's operation of the X-ray CT apparatus 1 and reconstructs CT image data using detection data collected by the gantry device 10 . The console device 30 has a memory 31, a display 32, an input interface 33, and a processing circuit 34, as shown in FIG. Memory 31, display 32, input interface 33, and processing circuitry 34 are communicatively connected to each other.

メモリ31は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。メモリ31は、例えば、投影データやCT画像データを記憶する。 The memory 31 is implemented by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. The memory 31 stores projection data and CT image data, for example.

ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、処理回路34によって生成された医用画像(CT画像)や、操作者からの各種操作を受け付けるためのGUI(Graphical User Interface)等を出力する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。 The display 32 displays various information. For example, the display 32 outputs a medical image (CT image) generated by the processing circuit 34, a GUI (Graphical User Interface) for accepting various operations from the operator, and the like. For example, the display 32 is a liquid crystal display or a CRT (Cathode Ray Tube) display.

入力インターフェース33は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インターフェース33は、投影データを収集する際の収集条件や、CT画像データを再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件等を操作者から受け付ける。例えば、入力インターフェース33は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック等により実現される。 The input interface 33 receives various input operations from the operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 34 . For example, the input interface 33 allows the operator to input acquisition conditions for acquiring projection data, reconstruction conditions for reconstructing CT image data, image processing conditions for generating post-processed images from CT images, and the like. accept. For example, the input interface 33 is implemented by a mouse, keyboard, trackball, switch, button, joystick, and the like.

処理回路34は、X線CT装置1全体の動作を制御する。例えば、処理回路34は、システム制御機能341、前処理機能342、再構成処理機能343、及び画像処理機能344を実行する。更に、本実施形態では、処理回路34は、セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348をも実行する。処理回路34は、プロセッサにより実現される。セグメンテーション機能345は、セグメンテーション処理部の一例である。実行機能346は、実行部及び第2の算出部の一例である。評価機能347は、評価部、算出部及び第1の算出部の一例である。 A processing circuit 34 controls the operation of the entire X-ray CT apparatus 1 . For example, processing circuitry 34 performs system control functions 341 , preprocessing functions 342 , reconstruction processing functions 343 , and image processing functions 344 . Additionally, in this embodiment, processing circuitry 34 also performs segmentation function 345 , execution function 346 , evaluation function 347 and color allocation function 348 . The processing circuitry 34 is implemented by a processor. Segmentation function 345 is an example of a segmentation processor. The execution function 346 is an example of an execution unit and a second calculation unit. The evaluation function 347 is an example of an evaluation unit, a calculation unit, and a first calculation unit.

ここで、例えば、処理回路34の構成要素であるシステム制御機能341、前処理機能342、再構成処理機能343、画像処理機能344、セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348の各機能は、コンピュータによって実行可能なプログラムの形態でメモリ31に記憶されている。処理回路34は、各プログラムをメモリ31から読み出し、読み出した各プログラムを実行することで、各機能を実現する。換言すると、各プログラムを読み出した状態の処理回路34は、図1の処理回路34内に示された各機能を有することとなる。 Here, for example, a system control function 341, a preprocessing function 342, a reconstruction processing function 343, an image processing function 344, a segmentation function 345, an execution function 346, an evaluation function 347, and a color allocation function 348, which are components of the processing circuit 34 Each function of is stored in the memory 31 in the form of a computer-executable program. The processing circuit 34 implements each function by reading each program from the memory 31 and executing each read program. In other words, the processing circuit 34 with each program read has each function shown in the processing circuit 34 of FIG.

また、単一の処理回路34にて、上述した各機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。 Further, although the description has been given assuming that each function described above is realized by the single processing circuit 34, the processing circuit 34 is configured by combining a plurality of independent processors, and each processor executes a program to function. may be realized.

また、「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、又は、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、又は、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ31に保存されたプログラムを読み出し実行することで機能を実現する。なお、メモリ31にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。更に、複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 In addition, the term "processor" is, for example, CPU (Central Processing Unit), GPU (Graphics Processing Unit), application specific integrated circuit (ASIC), or programmable logic device (e.g., simple programmable logic Devices (Simple Programmable Logic Device: SPLD), Complex Programmable Logic Device (CPLD), Field Programmable Gate Array (FPGA), and other circuits. The processor implements its functions by reading and executing programs stored in the memory 31 . Instead of storing the program in the memory 31, the program may be directly incorporated into the circuit of the processor. In this case, the processor implements its functions by reading and executing the program embedded in the circuit. It should be noted that the configuration is not limited to a single circuit for each processor, and a single processor may be configured by combining a plurality of independent circuits to realize its function. Furthermore, multiple components may be integrated into a single processor to achieve its functionality.

システム制御機能341は、入力インターフェース33を介して操作者から受け付けた入力操作に基づいて、処理回路34の各種機能を制御する。例えば、システム制御機能341は、X線CT装置1において実行されるCTスキャンを制御する。また、システム制御機能341は、前処理機能342、再構成処理機能343、及び画像処理機能344を制御することで、コンソール装置30におけるCT画像データの生成や表示を制御する。かかる表示制御を行うシステム制御機能341は、表示制御部の一例である。 The system control function 341 controls various functions of the processing circuit 34 based on input operations received from the operator via the input interface 33 . For example, the system control function 341 controls CT scans performed in the X-ray CT apparatus 1 . Also, the system control function 341 controls generation and display of CT image data in the console device 30 by controlling a preprocessing function 342 , a reconstruction processing function 343 , and an image processing function 344 . The system control function 341 that performs such display control is an example of a display control unit.

前処理機能342は、DAS17から出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を施したデータを生成する。なお、前処理前のデータ(検出データ)および前処理後のデータを総称して投影データと称する場合もある。 A preprocessing function 342 generates data by performing preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 17 . Data before preprocessing (detection data) and data after preprocessing may be collectively referred to as projection data.

再構成処理機能343は、前処理機能342にて生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行ってCT画像データ(再構成画像データ)を生成する。 The reconstruction processing function 343 performs reconstruction processing using the filtered back projection method, the iterative reconstruction method, or the like on the projection data generated by the preprocessing function 342 to obtain CT image data (reconstructed image data).

画像処理機能344は、入力インターフェース33を介して操作者から受け付けた入力操作に基づいて、再構成処理機能343によって生成されたCT画像データを公知の方法により、任意断面の断層像データや3次元画像データに変換する。なお、3次元画像データは、複数の画素(ボクセル)により構成される。 The image processing function 344 converts the CT image data generated by the reconstruction processing function 343 into tomographic image data of an arbitrary cross section or three-dimensional Convert to image data. Note that the three-dimensional image data is composed of a plurality of pixels (voxels).

また、本実施形態では、画像処理機能344は、複数の時相のCT画像データを、複数の時相の3次元画像データに変換する。このような複数の時相の3次元画像データは、いわゆる4次元画像データであり、例えば、被検体Pの対象部位を含む同一の領域を異なる時相で複数回CTスキャンされることにより得られる。 In addition, in this embodiment, the image processing function 344 converts CT image data of a plurality of phases into three-dimensional image data of a plurality of phases. Such three-dimensional image data in a plurality of time phases is so-called four-dimensional image data, and is obtained, for example, by CT scanning the same region including the target portion of the subject P multiple times at different time phases. .

なお、4次元画像データは、上述した再構成処理機能343により生成されてもよい。例えば、本実施形態に係る画像処理機能344又は再構成処理機能343は、複数の時相において被検体Pの対象部位を含んで撮像された4次元画像データを生成する。すなわち、4次元画像データは、被検体Pの対象部位が撮像されることにより得られるデータである。画像処理機能344及び再構成処理機能343は、生成部の一例である。 Note that the four-dimensional image data may be generated by the reconstruction processing function 343 described above. For example, the image processing function 344 or the reconstruction processing function 343 according to this embodiment generates four-dimensional image data captured including the target region of the subject P in a plurality of time phases. That is, the four-dimensional image data is data obtained by imaging the target site of the subject P. FIG. The image processing function 344 and the reconstruction processing function 343 are examples of a generator.

セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348の詳細については後述する。 Details of the segmentation function 345, the execution function 346, the evaluation function 347 and the color allocation function 348 will be described later.

ところで、肺癌などの腫瘍の摘出手術において、肺葉又は肺区域単位で肺野実質を切除する場合がある。この場合、肺野実質から胸膜を剥離した上で、肺野実質を切除する必要があるが、通常は、胸膜に手術具を押し当てるだけで、簡単に、肺野実質から胸膜を剥離することができる。しかしながら、肺野実質に胸膜が付着している場合、付着箇所を焼きながら、肺野実質から胸膜を剥がす必要がある。なお、「付着」は、例えば、組織と組織とがくっつくことを表す。「付着」には、一の部位を構成する組織と、他の部位を構成する組織とがくっつくこと、及び、同一の部位を構成する一の組織と他の組織とがくっつくことが含まれる。また、「付着」には、「癒着」及び「浸潤」が包含されるものとする。 By the way, in surgery to remove a tumor such as lung cancer, there is a case where the lung field parenchyma is removed in units of lung lobes or lung segments. In this case, it is necessary to remove the pleura from the lung parenchyma and then resect the lung parenchyma. can be done. However, if the pleura is attached to the lung parenchyma, it is necessary to remove the pleura from the lung parenchyma while burning the attachment site. Note that "adherence" means, for example, sticking between tissues. “Attachment” includes the sticking of a tissue forming one site to a tissue forming another site, and the sticking of a tissue forming the same site to another tissue. In addition, "adhesion" shall include "adhesion" and "infiltration".

そこで、例えば、摘出手術の直前に、超音波診断装置により、被検体の肺野及び胸膜が描出された超音波画像をリアルタイムでディスプレイに表示させることで、術者に、肺野に胸膜が付着しているか否かを判別させることが考えられる。しかしながら、この場合には、例えば、肋骨の裏側や被検体の心臓付近などの超音波が届かない範囲では、術者は、付着しているか否かを判別することが困難である。また、縦隔側に付着が存在する場合,心臓外科の応援が必要になる場合がある。しかしながら、縦隔には超音波が届きにくく、付着の程度が分からないため、心臓外科に属する医師に応援を要請するタイミングが遅くなる。 Therefore, for example, immediately before the extraction surgery, an ultrasonic diagnostic apparatus displays an ultrasonic image in which the lung field and pleura of the subject are visualized in real time on the display, so that the operator can see that the pleura is attached to the lung field. It is conceivable to determine whether or not However, in this case, it is difficult for the operator to determine whether or not there is adhesion in areas where ultrasonic waves do not reach, such as the back side of the ribs and the vicinity of the subject's heart. Cardiac surgical assistance may also be required if mediastinal attachments are present. However, it is difficult for ultrasound to reach the mediastinum, and the degree of adhesion is not known.

このような問題は、肺野に胸膜が付着している場合に限られず、他の対象部位において付着が発生している場合にも同様に起こりうる。例えば、かかる問題は、胸膜を構成する壁側胸膜に臓側胸膜が付着している場合にも、同様に起こりうる。 Such a problem is not limited to the case where the pleura adheres to the lung field, but can similarly occur when adhesion occurs at other target sites. For example, such a problem can also occur when the visceral pleura adheres to the parietal pleura that constitutes the pleura.

そこで、例えば、画像処理装置を、超音波が届かない範囲でも癒着の状態を判別することが可能なように、以下に説明するように構成することが考えられる。例えば、2つの対象部位のそれぞれに基準点を設定し、2つの基準点の移動ベクトルの差分の大きさが閾値以下である場合に、2つの対象部位が癒着していると判定するように画像処理装置を構成することが考えられる。以下、このような医用画像処理装置を比較例に係る画像処理装置として説明する。 Therefore, for example, it is conceivable to configure the image processing apparatus as described below so that the state of adhesion can be determined even in a range where ultrasonic waves do not reach. For example, a reference point is set for each of the two target parts, and if the magnitude of the difference between the movement vectors of the two reference points is equal to or less than a threshold, the image is determined to be adhered to the two target parts. It is conceivable to construct a processing unit. Hereinafter, such a medical image processing apparatus will be described as an image processing apparatus according to a comparative example.

しかしながら、被検体の呼吸量は、個人差が大きい。このため、被検体の呼吸量が比較的少ない場合には、癒着していないにもかかわらず、2つの基準点の移動ベクトルの差分の大きさが閾値以下となる場合がある。この場合には、比較例に係る画像処理装置では、癒着していると誤って判定される可能性がある。 However, the respiration volume of a subject varies greatly among individuals. Therefore, when the respiration volume of the subject is relatively small, the magnitude of the difference between the movement vectors of the two reference points may be less than or equal to the threshold even though there is no adhesion. In this case, the image processing apparatus according to the comparative example may erroneously determine adhesion.

また、例えば、2つの対象部位が1点で癒着している場合には、2つの基準点の移動ベクトルの差分の大きさが閾値より大きくなる場合がある。例えば、1点で癒着している場合には、一方の対象部位に対して他方の対象部位が振り子のように相対的に移動するため、一方の対象部位の移動の影響をほとんど受けることなく、他方の対象部位が移動する。この場合には、比較例に係る画像処理装置では、癒着しているにも関わらず、癒着していないと誤って判定される可能性がある。 Further, for example, when two target parts are attached at one point, the magnitude of the difference between the movement vectors of the two reference points may be larger than the threshold. For example, in the case of adhesion at one point, one target site moves relative to the other target site like a pendulum. The other target part moves. In this case, the image processing apparatus according to the comparative example may erroneously determine that there is no adhesion even though there is adhesion.

そこで、第1の実施形態に係るX線CT装置1は、付着の対象判定である1つ以上の部位(対象部位)の付着の状態を精度良く評価するために、以下に説明する評価処理を実行する。なお、対象部位の付着の状態とは、例えば、対象部位を構成する組織と組織とが、くっついている状態を示す。以下の説明では、付着の状態の一例として癒着の状態を評価する場合を説明するが、同様の方法で、浸潤の状態等のその他の付着の状態を評価してもよい。 Therefore, the X-ray CT apparatus 1 according to the first embodiment performs the evaluation process described below in order to accurately evaluate the state of adhesion of one or more parts (target parts) that are subject to adhesion determination. Run. In addition, the state of attachment of the target site indicates, for example, a state in which the tissues constituting the target site are attached to each other. In the following description, the evaluation of the state of adhesion will be described as an example of the state of adhesion, but other states of adhesion such as the state of infiltration may be evaluated in a similar manner.

図2は、第1の実施形態に係る評価処理の一例の流れを示すフローチャートである。評価処理は、例えば、入力インターフェース33により評価処理を実行するための指示が受け付けられた場合に、システム制御機能341、画像処理機能344、セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348により実行される。 FIG. 2 is a flowchart illustrating an example flow of evaluation processing according to the first embodiment. For example, when the input interface 33 receives an instruction to execute the evaluation process, the evaluation process includes the system control function 341, the image processing function 344, the segmentation function 345, the execution function 346, the evaluation function 347, and the color allocation function. 348.

図2に示すステップS101は、セグメンテーション機能345に対応するステップである。ステップS101は、処理回路34がメモリ31からセグメンテーション機能345に対応するプログラムを呼び出し実行することにより、セグメンテーション機能345が実現されるステップである。ステップS102~S105,S107は、実行機能346に対応するステップである。ステップS102~S105,S107は、処理回路34がメモリ31から実行機能346に対応するプログラムを呼び出し実行することにより、実行機能346が実現されるステップである。 Step S<b>101 shown in FIG. 2 is a step corresponding to the segmentation function 345 . Step S101 is a step in which the segmentation function 345 is realized by the processing circuit 34 calling and executing a program corresponding to the segmentation function 345 from the memory 31 . Steps S 102 to S 105 and S 107 are steps corresponding to the execution function 346 . Steps S102 to S105 and S107 are steps in which the execution function 346 is realized by the processing circuit 34 calling and executing a program corresponding to the execution function 346 from the memory 31 .

ステップS106は、評価機能347に対応するステップである。ステップS106は、処理回路34がメモリ31から評価機能347に対応するプログラムを呼び出し実行することにより、評価機能347が実現されるステップである。ステップS108は、色割当機能348に対応するステップである。ステップS108は、処理回路34がメモリ31から色割当機能348に対応するプログラムを呼び出し実行することにより、色割当機能348が実現されるステップである。 Step S<b>106 is a step corresponding to the evaluation function 347 . Step S106 is a step in which the evaluation function 347 is realized by the processing circuit 34 calling and executing a program corresponding to the evaluation function 347 from the memory 31 . Step S108 is a step corresponding to the color allocation function 348. FIG. Step S108 is a step in which the color allocation function 348 is realized by the processing circuit 34 calling and executing a program corresponding to the color allocation function 348 from the memory 31 .

ステップS109は、画像処理機能344に対応するステップである。ステップS109は、処理回路34がメモリ31から画像処理機能344に対応するプログラムを呼び出し実行することにより、画像処理機能344が実現されるステップである。ステップS110は、システム制御機能341に対応するステップである。ステップS110は、処理回路34がメモリ31からシステム制御機能341に対応するプログラムを呼び出し実行することにより、システム制御機能341が実現されるステップである。 Step S<b>109 is a step corresponding to the image processing function 344 . Step S<b>109 is a step in which the image processing function 344 is realized by the processing circuit 34 calling and executing a program corresponding to the image processing function 344 from the memory 31 . Step S110 is a step corresponding to the system control function 341. FIG. Step S110 is a step in which the system control function 341 is realized by the processing circuit 34 calling a program corresponding to the system control function 341 from the memory 31 and executing it.

なお、評価処理が実行される前に、癒着の判定対象である対象部位が描出された複数の時相の3次元画像データが予めメモリ31に記憶されている。また、以下の説明では、対象部位が、肺野、及び、肺野外の部位である場合を説明する。肺野外の部位は、胸膜を含む。しかしながら、対象部位は、これに限られず、例えば、対象部位は、壁側胸膜及び臓側胸膜であってもよい。また、複数の時相の3次元画像データとして、T(Tは自然数)フレーム分の3次元画像データがメモリ31に記憶されている。本実施形態では、K(K=1,・・・T)番目の時相の3次元画像データは、K番目のフレームの3次元画像データに対応する。 Note that, before the evaluation process is executed, a plurality of three-dimensional image data of a plurality of time phases depicting a target site to be determined for adhesion are stored in advance in the memory 31 . Also, in the following description, a case where the target site is the lung field and the site outside the lung will be described. Areas outside the lung include the pleura. However, the target site is not limited to this, and for example, the target site may be the parietal pleura and the visceral pleura. The memory 31 stores three-dimensional image data for T (T is a natural number) frames as three-dimensional image data of a plurality of time phases. In this embodiment, the three-dimensional image data of the Kth (K=1, . . . T) time phase corresponds to the three-dimensional image data of the Kth frame.

図2に示すように、セグメンテーション機能345は、1つの時相の3次元画像データに対して、公知のセグメンテーション処理を実行して、3次元画像データの全領域から肺野の領域及び肺野外の部位の領域を抽出する(ステップS101)。 As shown in FIG. 2, the segmentation function 345 performs a known segmentation process on the three-dimensional image data of one time phase to segment the lung field and the lung field from the entire area of the three-dimensional image data. A part region is extracted (step S101).

例えば、ステップS101では、セグメンテーション機能345は、メモリ31に記憶された複数の時相の3次元画像データを取得する。そして、セグメンテーション機能345は、複数の時相の3次元画像データのうち、所定の時相の3次元画像データを選択する。 For example, in step S<b>101 , the segmentation function 345 acquires three-dimensional image data of multiple temporal phases stored in the memory 31 . Then, the segmentation function 345 selects 3D image data of a predetermined phase from among the 3D image data of a plurality of phases.

図3は、第1の実施形態に係る評価処理の一例を説明するための図である。例えば、セグメンテーション機能345は、1番目の時相の3次元画像データ40を選択する。以下、所定の時相として1番目の時相の3次元画像データ40が選択された場合を例に挙げて説明する。そして、セグメンテーション機能345は、選択した1番目の時相の3次元画像データ40に対して、セグメンテーション処理を実行して、肺野の領域41及び肺野外の部位の領域42を抽出する。すなわち、セグメンテーション機能345は、3次元画像データ40が示す画像から肺野の領域41及び肺野外の部位の領域42を抽出するためのセグメンテーション処理を実行する。なお、肺野外の部位の領域42は、第1の領域の一例である。また、肺野の領域41は、第2の領域の一例である。また、肺野の領域41は、肺野外の部位の領域42と、境界43の法線方向に隣り合う領域である。また、肺野外の部位は、第1の部位の一例である。また、肺野は、第2の部位の一例である。 FIG. 3 is a diagram for explaining an example of evaluation processing according to the first embodiment. For example, the segmentation function 345 selects the three-dimensional image data 40 of the first phase. A case where the three-dimensional image data 40 of the first time phase is selected as the predetermined time phase will be described below as an example. Then, the segmentation function 345 performs segmentation processing on the selected three-dimensional image data 40 of the first time phase, and extracts a lung field region 41 and a lung field region 42 . That is, the segmentation function 345 executes segmentation processing for extracting the lung field region 41 and the lung field region 42 from the image indicated by the three-dimensional image data 40 . Note that the region 42 of the portion outside the lung is an example of the first region. Also, the lung field region 41 is an example of the second region. The lung field region 41 is a region adjacent to the lung field region 42 in the normal direction of the boundary 43 . Also, the part outside the lung is an example of the first part. Also, the lung field is an example of the second part.

そして、実行機能346は、肺野の領域41と肺野外の部位の領域42との間の境界43に、1次元の関心領域(Region of Interest;ROI)44を設定する(ステップS102)。具体例を挙げて説明すると、実行機能346は、境界43の法線方向に関心領域44の長手方向が沿うように、かつ、関心領域44内に境界43の一部が含まれるように、関心領域44を設定する。このように、1次元の関心領域44の長手方向と境界43とが互いに垂直になるように、関心領域44が設定される。そして、このようにして設定された関心領域44には、1次元状に並んだ複数の画素45が含まれることとなる。すなわち、3次元画像データ40が示す画像の複数の画素45は、肺野の領域41及び肺野外の部位の領域42の境界43を跨いで、境界43の法線方向に並んでいる。ここで、境界43の法線方向は、所定方向の一例である。なお、本実施形態では、実行機能346は、関心領域44の長手方向の中央部分が境界43に位置するように関心領域44を設定する。しかしながら、実行機能346は、関心領域44の長手方向の中央部分が境界43に位置しないように関心領域44を設定してもよい。 Then, the execution function 346 sets a one-dimensional region of interest (ROI) 44 on the boundary 43 between the lung field region 41 and the lung field region 42 (step S102). As a specific example, the execution function 346 aligns the longitudinal direction of the region of interest 44 with the normal direction of the boundary 43 and the region of interest 44 includes a portion of the boundary 43 . A region 44 is set. Thus, the region of interest 44 is set such that the longitudinal direction of the one-dimensional region of interest 44 and the boundary 43 are perpendicular to each other. The region of interest 44 set in this manner includes a plurality of pixels 45 arranged one-dimensionally. That is, the plurality of pixels 45 of the image represented by the three-dimensional image data 40 are aligned in the normal direction of the boundary 43 across the boundary 43 between the lung field region 41 and the lung field region 42 . Here, the normal direction of the boundary 43 is an example of a predetermined direction. Note that in the present embodiment, the execution function 346 sets the region of interest 44 such that the central portion of the region of interest 44 in the longitudinal direction is positioned at the boundary 43 . However, execution function 346 may set region of interest 44 such that the longitudinal central portion of region of interest 44 does not lie on boundary 43 .

図3に示すように、例えば、関心領域44の長手方向の長さが40mmである場合には、40mmの長さに亘って並んだ複数の画素45が関心領域44内に含まれることとなる。以下、関心領域44の長さが、40mmである場合について説明するが、40mmに限られず、他の値であってもよい。 As shown in FIG. 3, for example, when the length of the region of interest 44 in the longitudinal direction is 40 mm, the region of interest 44 includes a plurality of pixels 45 arranged over the length of 40 mm. . A case where the region of interest 44 has a length of 40 mm will be described below, but the length is not limited to 40 mm and may be other values.

そして、実行機能346は、関心領域44の全領域から、境界43を中心とする所定の領域を除去することにより、関心領域44を再定義する(ステップS103)。例えば、ステップS103では、図3に示すように、ステップS102で定義された関心領域44の全領域から、境界43を中心とする関心領域44の長手方向の10mmの範囲の領域を除去し、除去されずに残った領域を、新たな関心領域44とする。 The execution function 346 then redefines the region of interest 44 by removing a predetermined region centered on the boundary 43 from the entire region of the region of interest 44 (step S103). For example, in step S103, as shown in FIG. 3, a region of 10 mm in the longitudinal direction of the region of interest 44 centered on the boundary 43 is removed from the entire region of the region of interest 44 defined in step S102. The area left without being processed is used as a new area of interest 44 .

図3に示すように、再定義された関心領域44には、14個の画素45が含まれることとなる。以下、関心領域44に含まれる画素45の数が、14個である場合について説明するが、関心領域44に含まれる画素45の数は、これに限られない。再定義された関心領域44に含まれる画素45は、ステップS104以降での各種の処理に用いられる。 As shown in FIG. 3, the redefined region of interest 44 will include 14 pixels 45 . A case where the number of pixels 45 included in the region of interest 44 is 14 will be described below, but the number of pixels 45 included in the region of interest 44 is not limited to this. Pixels 45 included in the redefined region of interest 44 are used for various processes after step S104.

なお、実行機能346は、ステップS103での関心領域44を再定義する処理を省略してもよい。この場合、ステップS102において設定された関心領域44内の複数の画素45が、ステップS104以降での各種の処理に用いられる。 Note that the execution function 346 may omit the process of redefining the region of interest 44 in step S103. In this case, a plurality of pixels 45 within the region of interest 44 set in step S102 are used for various processes after step S104.

そして、実行機能346は、複数の画素45を複数のクラスタにクラスタリングするためのクラスタリング処理の一部の処理を実行することにより、ステップS104及びS105の各処理を実行する。なお、クラスタは、クラスとも称される。本実施形態では、実行機能346は、クラスタリング処理の一例であるグラフカット(グラフカット処理、グラフカット法)の一部の処理を実行する。 Then, the execution function 346 executes each process of steps S104 and S105 by executing part of the clustering process for clustering the plurality of pixels 45 into a plurality of clusters. A cluster is also called a class. In this embodiment, the execution function 346 executes part of the graph cut (graph cut processing, graph cut method), which is an example of clustering processing.

図4は、第1の実施形態に係る評価処理の一例を説明するための図である。具体例を挙げて説明すると、図4に示すように、実行機能346は、ノード51~66を備えるグラフ50を生成する(ステップS104)。グラフ50は、例えば、図3に示す14個の画素45のそれぞれを、14個のノード51~64のそれぞれとするグラフである。なお、図4において、14個のノード51~64のうち、8個のノード54~61の図示が省略されている。 FIG. 4 is a diagram for explaining an example of evaluation processing according to the first embodiment. As a specific example, as shown in FIG. 4, the execution function 346 generates a graph 50 having nodes 51 to 66 (step S104). The graph 50 is, for example, a graph in which each of the 14 pixels 45 shown in FIG. In FIG. 4, eight nodes 54 to 61 out of the 14 nodes 51 to 64 are omitted.

例えば、ノード51は、図3において左から1番目の画素45に対応する。他のノード52~64についても同様である。すなわち、図4において、左から右にかけて14個並んだ複数のノード51~64のうち、左からj(j=1,2,・・・14)番目のノードは、図3において左からj番目の画素45に対応する。以下の説明では、図3において左からj番目の画素45を「j番目画素」と称し、図4において複数のノード51~64のうち左からj番目のノードを「j番目ノード」と称する場合がある。 For example, node 51 corresponds to the first pixel 45 from the left in FIG. The same is true for the other nodes 52-64. That is, in FIG. 4, among the plurality of 14 nodes 51 to 64 arranged from left to right, the j-th node from the left (j=1, 2, . . . 14) is the j-th node from the left in FIG. corresponds to the pixel 45 of . In the following description, the j-th pixel 45 from the left in FIG. 3 is referred to as the "j-th pixel", and the j-th node from the left among the plurality of nodes 51 to 64 in FIG. 4 is referred to as the "j-th node". There is

ノード65は、境界43よりも外側に位置する肺野外の部位の領域42に対応する。また、ノード66は、境界43よりも内側に位置する肺野の領域41に対応する。 A node 65 corresponds to the region 42 of the lung field located outside the boundary 43 . A node 66 corresponds to the lung field region 41 located inside the boundary 43 .

また、複数のノード51~64のそれぞれと、ノード65とは、ライン(線分)で結ばれている。同様に、複数のノード51~64のそれぞれと、ノード66も、ラインで結ばれている。また、隣接する2つのノードもラインで結ばれている。ここで、隣接する2つのノードとは、例えば、n(n=1,2,・・・13)番目ノード、及び、(n+1)番目ノードを指す。 Further, each of the plurality of nodes 51 to 64 and the node 65 are connected by lines (line segments). Similarly, each of the plurality of nodes 51 to 64 and node 66 are also connected by lines. Two adjacent nodes are also connected by a line. Here, two adjacent nodes refer to, for example, the n (n=1, 2, . . . 13)-th node and the (n+1)-th node.

ステップS104では、実行機能346は、各ラインに対して重みを設定する。まず、複数のノード51~64のそれぞれと、ノード65とを結ぶラインに設定される重みP(lj_0)について説明する。重みP(lj_0)は、j番目ノードとノード65とを結ぶラインに設定される。なお、重みP(lj_0)は、後述する第1のクラスタ及び後述する第2のクラスタへ複数の画素45のそれぞれを分類する際のコストに係る値の一例である。例えば、重みP(lj_0)は、下記の式(1)で示される。 At step S104, execution function 346 sets a weight for each line. First, the weight P(l j — 0 ) set to the line connecting each of the plurality of nodes 51 to 64 and the node 65 will be described. A weight P(l j — 0 ) is set to the line connecting the jth node and node 65 . Note that the weight P(l j — 0 ) is an example of a value related to the cost when each of the plurality of pixels 45 is classified into a first cluster and a second cluster which will be described later. For example, the weight P(l j — 0 ) is given by the following equation (1).

Figure 0007166870000001
Figure 0007166870000001

ここで、式(1)において、p(l)は、例えば、「0」以上、「1」以下の値である。p(l)について具体例を挙げて説明する。上述したように、ノード65が肺野外の部位の領域42に対応する。このため、図3に示す肺野外の部位の領域42に位置する7個の画素45に対応するノード51~57のそれぞれとノード65とを結ぶラインに対して、比較的高い値が重みP(lj_0)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(1)において、p(l)に「0.001」を代入する。 Here, in Expression (1), p(l j ) is, for example, a value equal to or greater than "0" and equal to or less than "1". A specific example of p(l j ) will be described. As described above, node 65 corresponds to region 42 of the lung field. For this reason, a relatively high value is assigned to the line connecting each of the nodes 51 to 57 corresponding to the seven pixels 45 located in the region 42 outside the lung shown in FIG. l j — 0 ), execution function 346 does the following: That is, the execution function 346 substitutes "0.001" for p(l j ) in equation (1).

一方、図3に示す肺野外の部位の領域42に位置しない7個の画素45に対応するノード58~64のそれぞれとノード65とを結ぶラインに対して、比較的低い値が重みP(lj_0)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(1)において、p(l)に「0.999」を代入する。 On the other hand, a relatively low value is the weight P(l j_0 ), execution function 346 does the following: That is, the execution function 346 substitutes "0.999" for p(l j ) in equation (1).

次に、複数のノード51~64のそれぞれと、ノード66とを結ぶラインに設定される重みP(lj_1)について説明する。重みP(lj_1)は、j番目ノードとノード66とを結ぶラインに設定される。なお、重みP(lj_1)は、後述する第1のクラスタ及び後述する第2のクラスタへ複数の画素45のそれぞれを分類する際のコストに係る値の一例である。例えば、重みP(lj_1)は、下記の式(2)で示される。 Next, the weight P(l j — 1) set to the line connecting each of the plurality of nodes 51 to 64 and the node 66 will be described. A weight P(l j — 1 ) is set to the line connecting the jth node and node 66 . Note that the weight P(l j — 1 ) is an example of a value related to the cost when each of the plurality of pixels 45 is classified into a first cluster (to be described later) and a second cluster (to be described later). For example, the weight P(l j — 1) is given by Equation (2) below.

Figure 0007166870000002
Figure 0007166870000002

ここで、式(2)におけるp(l)について具体例を挙げて説明する。上述したように、ノード66が肺野の領域41に対応する。このため、図3に示す肺野の領域41に位置する7個の画素45に対応するノード58~64のそれぞれとノード66とを結ぶラインに対して、比較的高い値が重みP(lj_1)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(2)において、p(l)に「0.999」を代入する。 A specific example of p(l j ) in equation (2) will now be described. As described above, node 66 corresponds to lung field region 41 . For this reason, a relatively high value is assigned to the weight P(l j_1 ), the execution function 346 performs the following processing. That is, the execution function 346 substitutes "0.999" for p(l j ) in equation (2).

一方、図3に示す肺野の領域41に位置しない7個の画素45に対応するノード51~57のそれぞれとノード66とを結ぶラインに対して、比較的低い値が重みP(lj_1)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(2)において、p(l)に「0.001」を代入する。 On the other hand, a relatively low value is the weight P(l j — 1) for the line connecting each of the nodes 51 to 57 corresponding to the seven pixels 45 not located in the lung field region 41 shown in FIG. , the execution function 346 performs the following processing. That is, the execution function 346 substitutes "0.001" for p(l j ) in equation (2).

以上のことから、実行機能346は、j番目ノードについての重みP(lj_0)及び重みP(lj_1)を算出する際に、式(1)及び式(2)において、p(l)に共通の値を代入する。 From the above, when the execution function 346 calculates the weight P(l j_0 ) and the weight P(l j_1 ) for the j-th node, p(l j ) assign a common value to

次に、隣接する2つのノードを結ぶラインに対して設定される重みG(n,n+1)について説明する。重みG(n,n+1)は、n番目ノード及び(n+1)番目ノードを結ぶラインに設定される。例えば、重みG(n,n+1)は、下記の式(3)で示される。 Next, the weight G(n, n+1) set for the line connecting two adjacent nodes will be described. A weight G(n,n+1) is set to the line connecting the nth node and the (n+1)th node. For example, the weight G(n, n+1) is represented by the following formula (3).

Figure 0007166870000003
Figure 0007166870000003

ここで、式(3)において、「N」は、再定義された関心領域44に含まれる画素45の個数を指す。具体例を挙げると、本実施形態では、「N」の値は、「14」である。
また、式(3)におけるg(n,n+1)は、下記の式(4)で示される。
Here, in equation (3), “N” refers to the number of pixels 45 included in the redefined region of interest 44 . As a specific example, the value of "N" is "14" in this embodiment.
Also, g(n, n+1) in the formula (3) is represented by the following formula (4).

Figure 0007166870000004
Figure 0007166870000004

ここで、式(4)において、Xn_iは、n番目画素の動きベクトル(移動ベクトル)を示す。具体的には、Xn_iは、i(i=1,2,・・・T-1)番目のフレームの3次元画像データにおけるn番目画素の位置から、(i+1)番目のフレームの3次元画像データにおけるn番目画素の位置に向かうベクトルを指す。 Here, in Equation (4), X n_i indicates the motion vector (movement vector) of the n-th pixel. Specifically, X n_i is the 3D image of the (i+1)th frame from the position of the nth pixel in the 3D image data of the i (i=1, 2, . . . T−1)th frame. Points to the vector pointing to the location of the nth pixel in the data.

(n+1)_iについても同様である。具体的には、X(n+1)_iは、図3において左から(n+1)番目画素の動きベクトルを示す。例えば、X(n+1)_iは、i番目のフレームの3次元画像データにおける(n+1)番目画素の位置から、(i+1)番目のフレームの3次元画像データにおける(n+1)番目画素の位置に向かうベクトルを指す。 The same is true for X (n+1)_i . Specifically, X (n+1)_i indicates the motion vector of the (n+1)-th pixel from the left in FIG. For example, X (n+1)_i is a vector from the position of the (n+1)-th pixel in the 3-dimensional image data of the i-th frame to the position of the (n+1)-th pixel in the 3-dimensional image data of the (i+1)-th frame. point to

本実施形態では、実行機能346は、複数の画素45のそれぞれの位置を、1番目のフレームの3次元画像データからT番目のフレームの3次元画像データまで追跡することにより、上述した動きベクトルXn_i及び動きベクトルX(n+1)_iを算出することができる。このようにして、実行機能346は、複数の画素45における、複数の時相の画像間での動きベクトルXn_i及び動きベクトルX(n+1)_iを算出する。なお、動きベクトルXn_i及び動きベクトルX(n+1)_iは、移動情報の一例である。 In this embodiment, the execution function 346 traces the position of each of the plurality of pixels 45 from the 3D image data of the first frame to the 3D image data of the Tth frame to obtain the motion vector X n_i and the motion vector X (n+1)_i can be calculated. In this way, the execution function 346 calculates the motion vector X n_i and the motion vector X (n+1)_i between the images of the plurality of time phases in the plurality of pixels 45 . Note that the motion vector Xn_i and the motion vector X (n+1)_i are examples of movement information.

図5は、第1の実施形態に係る評価処理の一例を説明するための図である。図5及び式(4)に示すように、実行機能346は、時間軸上で隣接する全ての3次元画像データ間で、動きベクトルXn_iと動きベクトルX(n+1)_iとの差分ベクトル(Xn_i-X(n+1)_i)の大きさを算出する。そして、実行機能346は、式(4)に示すように、算出した複数の差分ベクトル(Xn_i-X(n+1)_i)の大きさの総和を、時間軸上で隣接する全ての3次元画像データ間の数(T-1)で除することで、g(n,n+1)を算出する。 FIG. 5 is a diagram for explaining an example of evaluation processing according to the first embodiment. As shown in FIG. 5 and equation (4), the execution function 346 calculates the difference vector (X Calculate the magnitude of n_i - X (n+1)_i ). Then, the execution function 346 calculates the sum of the magnitudes of the plurality of calculated difference vectors (X n — i −X (n+1) — i ) for all three-dimensional images adjacent on the time axis, as shown in Equation (4). g(n, n+1) is calculated by dividing by the number of data intervals (T−1).

隣接する2つの画素(n番目画素及び(n+1)番目画素)45が同じように動く場合には、g(n,n+1)の値は、比較的小さくなる。このような場合に、隣接する2つの画素45のうち一方の画素45が肺野の領域41に位置する画素であり、他方の画素45が肺野外の部位の領域42に位置する画素であると考えられる。又は、隣接する2つの画素45が、共に、肺野の領域41又は肺野外の部位の領域42に位置する画素であると考えられる。g(n,n+1)の値が比較的小さく、一方の画素45が肺野の領域41に位置し、他方の画素45が肺野外の部位の領域42に位置する場合には、被検体Pの肺野と肺野外の部位とが癒着していると考えられる。 If two adjacent pixels (nth pixel and (n+1)th pixel) 45 move in the same way, the value of g(n,n+1) will be relatively small. In such a case, it is assumed that one pixel 45 of the two adjacent pixels 45 is a pixel located in the lung field region 41 and the other pixel 45 is a pixel located in the lung field region 42 . Conceivable. Alternatively, two adjacent pixels 45 are both considered to be pixels located in the lung field region 41 or the lung field region 42 . When the value of g(n, n+1) is relatively small and one pixel 45 is located in the lung field region 41 and the other pixel 45 is located in the lung field region 42, the subject P It is considered that the lung field and the part outside the lung are adhered to each other.

一方、隣接する2つの画素45の動きが比較的大きく異なる場合には、g(n,n+1)の値は、比較的大きくなる。このような場合には、隣接する2つの画素45のうち一方の画素45が肺野の領域41に位置する画素であり、他方の画素45が肺野外の部位の領域42に位置する画素であり、肺野と肺野外の部位とが癒着していないと考えられる。 On the other hand, if the motions of two adjacent pixels 45 differ relatively greatly, the value of g(n, n+1) will be relatively large. In such a case, one pixel 45 of the two adjacent pixels 45 is a pixel located in the lung field region 41, and the other pixel 45 is a pixel located in the lung field region 42. , it is thought that there is no adhesion between the lung field and the lung field.

なお、式(3)におけるg(r,r+1)についてもg(n,n+1)と同様である。 Note that g(r, r+1) in equation (3) is the same as g(n, n+1).

ここで、一般的なグラフカット処理(グラフカット法)では、最終的に複数の画素を複数のクラスタに分類するために、複数のライン(以下、カットラインと称する)のそれぞれによりグラフがカットされ、カットライン毎にエネルギーが算出される。そして、一般的なグラフカット処理では、カットライン毎に算出されたエネルギーのうち、最小のエネルギーとなるカットラインに基づいて、各画素が各クラスタに分類されるクラスタリングが行われる。 Here, in a general graph cutting process (graph cutting method), a graph is cut by each of a plurality of lines (hereinafter referred to as cut lines) in order to finally classify a plurality of pixels into a plurality of clusters. , the energy is calculated for each cutline. Then, in general graph cut processing, clustering is performed in which each pixel is classified into each cluster based on the cutline with the minimum energy among the energies calculated for each cutline.

一方、本実施形態では、実行機能346は、グラフカット処理の一部の処理を行っているものの、最終的に各画素45を各クラスタに分類するクラスタリングを行わない。実行機能346は、下記の式(5)により、グラフ50をカットするカットラインごとに、エネルギーE(L,L,・・・,L)を算出する(ステップS105)。 On the other hand, in the present embodiment, although the execution function 346 performs part of the graph cutting process, it does not perform clustering for finally classifying each pixel 45 into each cluster. The execution function 346 calculates the energy E (L 1 , L 2 , .

Figure 0007166870000005
Figure 0007166870000005

なお、式(5)における「γ」は、正の値の係数である。 Note that “γ” in Equation (5) is a coefficient with a positive value.

また、式(5)におけるLc(c=1,2,・・・,N)には、カットラインが、c番目ノードとノード65とを結ぶラインに交差する場合には、「0」が設定される。一方、Lcには、カットラインが、c番目ノードとノード66とを結ぶラインに交差する場合には、「1」が設定される。 Also, Lc (c=1, 2, . be done. On the other hand, Lc is set to "1" when the cut line intersects the line connecting the c-th node and the node 66.

また、式(5)における「w」には、カットラインが、c番目ノードと(c+1)番目ノードとを結ぶラインと交差する場合に、「c」が設定される。また、カットラインが、複数のノード51~64のうちの隣接する2つのノードを結ぶいずれのラインに対しても交差しない場合には、「1」から「N-1」までの正の整数以外の所定値(例えば負の整数である「-1」)が設定される。 Also, "w" in equation (5) is set to "c" when the cut line intersects the line connecting the c-th node and the (c+1)-th node. If the cut line does not intersect any line connecting two adjacent nodes among the plurality of nodes 51 to 64, a positive integer other than "1" to "N-1" is set to a predetermined value (for example, "-1" which is a negative integer).

また、式(5)における「E(L,L,・・・,L)」は、下記の式(6)により示される。 Also, "E d (L 1 , L 2 , . . . , L N )" in Equation (5) is represented by Equation (6) below.

Figure 0007166870000006
Figure 0007166870000006

「E(L,L,・・・,L)」は、データ項とも称され、各画素45の画素値(CT値)に基づくエネルギーを指す。かかるエネルギーは、カットラインに基づく肺野の領域と肺野外の部位の領域との境界が、実際の被検体Pの肺野の領域と肺野外の部位の領域との境界である可能性が高いほど小さくなる。 “E d ( L 1 , L 2 , . With such energy, there is a high possibility that the boundary between the lung field region and the lung field region based on the cut line is the actual boundary between the lung field region and the lung field region of the subject P. becomes smaller.

また、式(5)における「E(w)」は、下記の式(7)により示される。 Also, "E s (w)" in Equation (5) is represented by Equation (7) below.

Figure 0007166870000007
Figure 0007166870000007

「Es(w)」は、平滑化項とも称され、上述したデータ項とは独立して、境界の滑らかさを考慮したエネルギーを指す。例えば、データ項のみではCT値しか考慮しないため、ノイズに弱く、境界が滑らかでない可能性がある。しかしながら、平滑化項の存在により、境界が滑らかになる。なお、「E(w)」において、「w」に上述した所定値、例えば、-1が設定された「E(-1)」の値は「0」となる。 "Es(w)", also referred to as a smoothing term, refers to the energy that accounts for boundary smoothness independently of the data terms described above. For example, only the data term considers only the CT value, so it is susceptible to noise and may not have smooth boundaries. However, the presence of the smoothing term smooths the boundaries. In "E s (w)", the value of "E s (-1)" in which "w" is set to the above-described predetermined value, for example, -1 becomes "0".

また、被検体Pの肺野と肺野外の部位とが癒着していると考えられる場合には、上述したように、g(n,n+1)の値は、比較的小さくなる。そして、g(n,n+1)の値が小さくなると、平滑化項の値が大きくなる。一方、被検体Pの肺野と肺野外の部位とが癒着していないと考えられる場合には、g(n,n+1)の値が比較的大きくなり、平滑化項の値が小さくなる。 Further, when it is considered that the lung field and the lung field of the subject P are adhered to each other, the value of g(n, n+1) becomes relatively small as described above. Then, as the value of g(n, n+1) decreases, the value of the smoothing term increases. On the other hand, when it is considered that the lung field and the lung field of the subject P are not adhered to each other, the value of g(n, n+1) is relatively large and the value of the smoothing term is small.

図6及び図7は、第1の実施形態に係るカットラインの一例を説明するための図である。図6に示すように、例えば、実行機能346は、グラフ50をカットライン70によりカットする。カットライン70は、肺野外の部位の領域42に対応するクラスタ(第1のクラスタ)に、1番目画素及び2番目画素が属し、かつ、肺野の領域41に対応するクラスタ(第2のクラスタ)に、3番目画素~14番目画素が属するように、14個の画素45を分類するためのラインである。なお、第1のクラスタは、第1のクラスとも称される。また、第2のクラスタは、第2のクラスとも称される。 6 and 7 are diagrams for explaining an example of cut lines according to the first embodiment. As shown in FIG. 6, for example, execution function 346 cuts graph 50 through cut line 70 . The cut line 70 is a cluster (first cluster) to which the first pixel and the second pixel belong to the cluster (first cluster) corresponding to the lung field region 42, and a cluster (second cluster ) to classify the 14 pixels 45 so that the 3rd to 14th pixels belong to the . Note that the first cluster is also called a first class. The second cluster is also referred to as the second class.

また、図7に示すように、実行機能346は、グラフ50をカットライン71によりカットする。カットライン71は、第2のクラスタに、1番目画素~14番目画素が属するように、14個の画素45を分類するためのラインである。また、実行機能346は、グラフ50をカットライン72によりカットする。カットライン72は、第1のクラスタに、1番目画素~14番目画素が属するように、14個の画素45を分類するためのラインである。図7に示すように、カットライン71及びカットライン72は、複数のノード51~64のうちの隣接する2つのノードを結ぶいずれのラインに対しても交差しない。 Also, as shown in FIG. 7, the execution function 346 cuts the graph 50 along cut lines 71 . The cut line 71 is a line for classifying the 14 pixels 45 so that the 1st to 14th pixels belong to the second cluster. The execution function 346 also cuts the graph 50 along the cut line 72 . The cut line 72 is a line for classifying the 14 pixels 45 so that the 1st to 14th pixels belong to the first cluster. As shown in FIG. 7, the cut lines 71 and 72 do not intersect any line connecting two adjacent nodes among the plurality of nodes 51-64.

本実施形態では、実行機能346は、c番目ノードと(c+1)番目ノードとを結ぶラインに交差する13本のカットライン、及び、上述した2本のカットライン71及びカットライン72の合計15本のカットラインのそれぞれで、グラフ50をカットする。 In this embodiment, the execution function 346 has 13 cutlines that intersect the line connecting the c-th node and the (c+1)th node, and the above-described two cutlines 71 and 72, for a total of 15 cutlines. cut the graph 50 at each of the cut lines.

そして、実行機能346は、カットライン毎に、式(5)により、エネルギーE(L,L,・・・,L,w)を算出する。なお、上述したように、本実施形態では、実行機能346は、カットライン毎にエネルギーE(L,L,・・・,L,w)を算出するものの、各画素45を各クラスタに分類するクラスタリングを行わない。 And the execution function 346 calculates the energy E ( L1, L2,..., LN , w) by Formula (5) for every cutline. As described above, in this embodiment, the execution function 346 calculates the energy E (L 1 , L 2 , . . . , L N , w) for each cutline, but each pixel 45 is Do not perform clustering to classify into

ステップS104,S105では、実行機能346は、対象部位における境界43を含む関心領域44内の複数の画素45のそれぞれの動きベクトルに基づいて、複数の画素45を複数のクラスタに分類するクラスタリング処理の一部の処理を実行する。例えば、実行機能346は、クラスタリング処理の一部の処理として、複数の画素45のそれぞれの動きベクトルを算出し、算出した複数の動きベクトルに基づいて、複数の画素45において、隣接する2つの画素45ごとに、当該2つの画素45の2つの動きベクトルの差分ベクトル(Xn_i-X(n+1)_i)の大きさを算出する処理を実行する。ここでいう隣接する2つの画素45は、境界43の法線方向に互いに隣り合う画素である。 In steps S104 and S105, the execution function 346 performs clustering processing for classifying the plurality of pixels 45 into a plurality of clusters based on the respective motion vectors of the plurality of pixels 45 within the region of interest 44 including the boundary 43 of the target part. Do some processing. For example, as part of the clustering process, the execution function 346 calculates motion vectors for each of the plurality of pixels 45, and based on the calculated plurality of motion vectors, in the plurality of pixels 45, two adjacent pixels 45, a process of calculating the magnitude of the difference vector (X n — i −X (n+1) — i ) between the two motion vectors of the two pixels 45 is executed. The two adjacent pixels 45 here are pixels adjacent to each other in the normal direction of the boundary 43 .

また、ステップS104,S105では、実行機能346は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づいて、肺野外の部位の領域42に係る第1のクラスタ又は肺野の領域41に係る第2のクラスタへ複数の画素45のそれぞれを分類する際のエネルギーE(L,L,・・・,L,w)を算出する。エネルギーE(L,L,・・・,L,w)は、分類情報の一例である。また、エネルギーE(L,L,・・・,L,w)は、第1のクラスタ及び第2のクラスタへ複数の画素45のそれぞれを分類する際のコストに係る値の一例でもある。 Further, in steps S104 and S105, the execution function 346 performs the first cluster related to the lung field region 42 or the lung field region 41 based on the motion vector Xn_i and the motion vector X (n+1)_i . Calculate the energy E(L 1 , L 2 , . Energy E (L 1 , L 2 , . . . , L N , w) is an example of classification information. Also, the energy E (L 1 , L 2 , . be.

そして、評価機能347は、癒着の状態を示す指標を算出する(ステップS106)。具体例を挙げて説明する。評価機能347は、例えば、下記の式(8)により、癒着の状態を示す指標として、確率pを算出する。 The evaluation function 347 then calculates an index indicating the state of adhesion (step S106). A specific example will be given for explanation. The evaluation function 347 calculates the probability p as an index indicating the state of adhesion, for example, using the following equation (8).

Figure 0007166870000008
Figure 0007166870000008

なお、式(8)における右辺の項の分母は、15本のカットラインについての15個のexp(-E(L,L,・・・,L,w))の総和を表す。 The denominator of the term on the right side of equation (8) represents the sum of 15 exp(-E(L 1 , L 2 , . . . , L N , w)) for 15 cutlines.

また、式(8)の右辺の項の分子におけるexp(-E(0,・・・,0,-1))は、上述したカットライン71のエネルギーE(L,L,・・・,L,w)であり、L=L=・・・=L=0であり、w=-1である。 Also, exp(-E ( 0 , . , L N , w), L 1 =L 2 = . . . =L N =0, and w=−1.

また、式(8)の右辺の項の分子におけるexp(-E(1,・・・,1,-1))は、上述したカットライン72のエネルギーE(L,L,・・・,L,w)であり、L=L=・・・=L=1であり、w=-1である。 Also, exp(-E ( 1 , . , L N , w), L 1 =L 2 = . . . =L N =1, and w=−1.

確率pは、「0」以上「1」以下の小さい値である。確率pは、例えば、関心領域44内の複数の画素45をクラスタリングした際に、複数の画素45が1つのクラスタ(第1のクラスタ又は第2のクラスタ)に属する確率である。このように、確率pは、対象部位である肺野に肺野外の部位が癒着している可能性を示す値である。確率pの値が「1」に近づくほど、癒着している可能性が高くなる。なお、確率pは、癒着の程度を示すものではない。 The probability p is a small value between "0" and "1". The probability p is, for example, the probability that a plurality of pixels 45 belong to one cluster (first cluster or second cluster) when clustering the plurality of pixels 45 within the region of interest 44 . In this way, the probability p is a value indicating the possibility that the part outside the lung is adhered to the lung field, which is the target part. As the value of probability p approaches “1”, the possibility of adhesion increases. Note that the probability p does not indicate the degree of adhesion.

上述したように、ステップS106では、式(8)が示すように、評価機能347は、エネルギーE(L,L,・・・,L,w)から、肺野外の部位の領域42に対応する被検体Pの肺野外の部位と、肺野の領域41に対応する被検体Pの肺野との境界43における癒着の状態を示す指標を算出する。 As described above, in step S106, as shown in equation (8), the evaluation function 347 calculates the region 42 of the region outside the lung from the energy E (L 1 , L 2 , . . . , L N , w). and the lung field of the subject P corresponding to the region 41 of the lung field.

また、ステップS106では、評価機能347は、ステップS104で算出された差分ベクトル(Xn_i-X(n+1)_i)の大きさに基づくエネルギーE(L,L,・・・,L,w)に基づいて指標を算出する。すなわち、評価機能347は、算出された差分ベクトル(Xn_i-X(n+1)_i)の大きさに基づいて、指標を算出する。 Also, in step S106 , the evaluation function 347 calculates energy E ( L 1 , L 2 , . . . , L N , w) to calculate the index. That is, the evaluation function 347 calculates an index based on the magnitude of the calculated difference vector (X n — i −X (n+1) — i ).

図8~13は、第1の実施形態に係る評価処理の一例を説明するための図である。図8~13には、肺野の領域41と肺野外の部位の領域42との境界43の一部を含むように設定された関心領域44が示されている。図8~13は、関心領域44を再定義するステップS103の処理が省略された場合を示す。すなわち、図8~13は、1つの1次元の関心領域44が設定された場合を示す。 8 to 13 are diagrams for explaining an example of evaluation processing according to the first embodiment. 8 to 13 show a region of interest 44 that is set to include part of a boundary 43 between a lung field region 41 and a lung field region 42 . 8 to 13 show the case where the process of step S103 for redefining the region of interest 44 is omitted. That is, FIGS. 8 to 13 show the case where one one-dimensional region of interest 44 is set.

図8に示す3次元画像データ40は、呼吸量が比較的多い被検体Pの肺野及び肺野外の部位を含んで撮像されたデータである。図9には、図8に示す関心領域44内の複数の画素45の動きベクトルの向き(方向)及び大きさを示す複数の矢印が示されている。図9では、複数の動きベクトルの向きが略2方向で統一されている。また、図9では、複数の動きベクトルの大きさが比較的大きい。これは、被検体Pの呼吸量が比較的多いからである。 The three-dimensional image data 40 shown in FIG. 8 is imaged data including the lung field and the lung field part of the subject P whose respiration volume is relatively large. FIG. 9 shows a plurality of arrows indicating the orientations (directions) and magnitudes of motion vectors of a plurality of pixels 45 within the region of interest 44 shown in FIG. In FIG. 9, the orientations of a plurality of motion vectors are unified in approximately two directions. Also, in FIG. 9, the magnitudes of the plurality of motion vectors are relatively large. This is because the respiration volume of the subject P is relatively large.

一方、図10に示す3次元画像データ40は、呼吸量が比較的少ない被検体Pの肺野及び肺野外の部位を含んで撮像されたデータである。図11には、図10に示す関心領域44内の複数の画素45の動きベクトルの向き及び大きさを示す複数の矢印が示されている。図11では、図9と同様に、複数の動きベクトルの向きが略2方向で統一されている。ただし、図11では、複数の動きベクトルの大きさが比較的小さい。これは、被検体Pの呼吸量が比較的少ないからである。 On the other hand, the three-dimensional image data 40 shown in FIG. 10 is imaged data including the pulmonary and pulmonary regions of the subject P whose respiratory volume is relatively small. FIG. 11 shows a plurality of arrows indicating the direction and magnitude of motion vectors of a plurality of pixels 45 within the region of interest 44 shown in FIG. In FIG. 11, similar to FIG. 9, the orientations of a plurality of motion vectors are unified in approximately two directions. However, in FIG. 11, the magnitudes of the motion vectors are relatively small. This is because the respiration volume of the subject P is relatively small.

また、図12に示す3次元画像データ40は、1点で癒着された肺野及び肺野外の部位を含んで撮像されたデータである。図13には、図12に示す関心領域44内の複数の画素45の動きベクトルの向き及び大きさを示す複数の矢印が示されている。図13では、複数の動きベクトルの向き及び大きさは、不均一である。これは、被検体Pの肺野及び肺野外の部位が1点で癒着されており、例えば、肺野に対して肺野外の部位が振り子のように相対的に移動しているからである。 Further, the three-dimensional image data 40 shown in FIG. 12 is imaged data including the lung field and the part of the lung field that are adhered at one point. FIG. 13 shows a plurality of arrows indicating the direction and magnitude of motion vectors of a plurality of pixels 45 within the region of interest 44 shown in FIG. In FIG. 13, the orientations and magnitudes of the motion vectors are non-uniform. This is because the lung field and the lung field of the subject P are fused together at one point, and the lung field moves relative to the lung field like a pendulum, for example.

本実施形態では、評価機能347が、複数の画素45の動きベクトルの類似性に基づいて、癒着している可能性を示す確率pを算出する。例えば、評価機能347は、複数の動きベクトルの向き及び大きさが、均一である場合には、肺野の領域41及び肺野外の部位の領域42が癒着して動いていると考えられるため、「1」に近い確率pを算出する。例えば、評価機能347は、複数の動きベクトルの向きが略同一(略1方向)であり、大きさが略同一である場合には、「1」に近い確率pを算出する。 In this embodiment, the evaluation function 347 calculates the probability p indicating the possibility of adhesion based on the similarity of motion vectors of a plurality of pixels 45 . For example, when the orientations and magnitudes of a plurality of motion vectors are uniform, the evaluation function 347 considers that the lung field region 41 and the lung field region 42 are moving while adhering to each other. A probability p close to "1" is calculated. For example, the evaluation function 347 calculates a probability p close to "1" when the directions of a plurality of motion vectors are substantially the same (substantially one direction) and the magnitudes are substantially the same.

また、評価機能347は、略同じ大きさの複数の動きベクトルの向きが、略2方向である場合には、肺野の領域41及び肺野外の部位の領域42が互いに独立して動いていると考えられるため、「0」に近い確率pを算出する。例えば、図9及び図10に示すように被検体Pの呼吸量が比較的多い場合にも、図11及び図12に示すように被検体Pの呼吸量が比較的少ない場合にも、評価機能347は、「0」に近い確率pを算出する。したがって、第1の実施形態によれば、呼吸量が、比較的多い場合のみならず、比較的少ない場合であっても、精度良く、癒着の状態を評価することができる。 In addition, the evaluation function 347 determines that the lung field region 41 and the lung field region 42 are moving independently of each other when the orientations of a plurality of motion vectors having substantially the same magnitude are substantially in two directions. Therefore, the probability p close to "0" is calculated. For example, when the respiration volume of the subject P is relatively large as shown in FIGS. 9 and 10, and when the respiration volume of the subject P is relatively small as shown in FIGS. 11 and 12, the evaluation function 347 computes the probability p that is close to '0'. Therefore, according to the first embodiment, the state of adhesion can be evaluated with high accuracy not only when the respiration volume is relatively large, but also when it is relatively small.

また、評価機能347は、複数の動きベクトルの向き及び大きさが、不均一である場合には、「1」に近い確率pを算出する。例えば、図12及び図13に示すように、被検体Pの肺野及び肺野外の部位が1点で癒着されている場合には、複数の動きベクトルの向き及び大きさが不均一であり、1つのクラスタに複数の画素45が属することが適切であると考えられるので、評価機能347は、「1」に近い確率pを算出する。したがって、第1の実施形態によれば、被検体Pの肺野及び肺野外の部位が1点で癒着されている場合であっても、精度良く、癒着の状態を評価することができる。 Also, the evaluation function 347 calculates a probability p close to "1" when the directions and magnitudes of a plurality of motion vectors are uneven. For example, as shown in FIGS. 12 and 13, when the lung field and the lung field part of the subject P are fused at one point, the directions and magnitudes of the plurality of motion vectors are uneven, Since it is considered appropriate for more than one pixel 45 to belong to one cluster, the evaluation function 347 calculates a probability p close to "1". Therefore, according to the first embodiment, even if the lung field and the part of the lung field of the subject P are adhered at one point, the adhesion state can be evaluated with high accuracy.

このように、ステップS106では、評価機能347は、クラスタリング処理の一部の処理の結果に基づいて、関心領域44内での対象部位の癒着の状態を評価する。また、評価機能347は、クラスタリング処理の一部の処理の結果に基づいて、複数の画素45をクラスタリングした際に、複数の画素45が1つのクラスタに属する確率pを癒着の状態を示す指標として算出する。なお、評価機能347は、クラスタリング処理の一部の処理の結果に基づいて、複数の画素45をクラスタリングした際に、複数の画素45が複数(例えば2つ)のクラスタに属する確率(1-p)を癒着の状態を示す指標として算出してもよい。すなわち、評価機能347は、2つのクラスタ(上述した第1のクラスタ及び第2のクラスタ)へ複数の画素45を分類する際に、複数の画素45が同一のクラスタに属する確率pに基づいて、指標を算出し、癒着の状態を評価してもよい。 Thus, in step S106, the evaluation function 347 evaluates the state of adhesion of the target site within the region of interest 44 based on the result of a part of the clustering process. In addition, the evaluation function 347 uses the probability p that the plurality of pixels 45 belong to one cluster when clustering the plurality of pixels 45 based on the result of a part of the clustering processing as an index indicating the adhesion state. calculate. Note that the evaluation function 347 determines the probability (1-p ) may be calculated as an index indicating the state of adhesion. That is, when the evaluation function 347 classifies the plurality of pixels 45 into two clusters (the first cluster and the second cluster described above), based on the probability p that the plurality of pixels 45 belong to the same cluster, An index may be calculated to assess the state of adhesion.

また、ステップS106では、評価機能347は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づく、重みP(lj_0)、重みP(lj_1)及びエネルギーE(L,L,・・・,L,w)により、確率pを算出し、確率pに基づいて指標を算出する。 Also, in step S106, the evaluation function 347 calculates weights P(lj_0 ) , weights P( lj_1 ) and energies E ( L1 , L2 , . . . , L N , w), the probability p is calculated, and the index is calculated based on the probability p.

また、ステップS106では、評価機能347は、ステップS104で算出された動きベクトルXn_i及び動きベクトルX(n+1)_iの差分ベクトルの大きさに基づくエネルギーE(L,L,・・・,L,w)により、指標を算出する。 Also, in step S106 , the evaluation function 347 calculates energy E(L 1 , L 2 , . . . , L N ,w) to calculate the index.

そして、評価機能347は、関心領域44内の14個の画素45に、確率pを対応付ける。例えば、評価機能347は、各画素45を識別するための識別情報と確率pとが対応付けられた対応情報を生成し、生成した対応情報をメモリ31に格納する。 The evaluation function 347 then associates the 14 pixels 45 within the region of interest 44 with the probability p. For example, the evaluation function 347 generates correspondence information in which identification information for identifying each pixel 45 is associated with the probability p, and stores the generated correspondence information in the memory 31 .

そして、実行機能346は、境界43の全部分に亘って関心領域44を設定したか否かを判定する(ステップS107)。全部分に亘って関心領域44を設定していないと判定した場合(ステップS107:No)には、実行機能346は、ステップS102に戻り、境界43の全部分のうち関心領域44を未設定の部分に、関心領域44を設定する。そして、ステップS103~S106の各処理が、境界43の全部分に亘って関心領域44を設定していると実行機能346により判定されるまで、繰り返し実行される。 The execution function 346 then determines whether or not the region of interest 44 has been set over the entire boundary 43 (step S107). If it is determined that the region of interest 44 has not been set over the entire portion (step S107: No), the execution function 346 returns to step S102 and sets the region of interest 44 out of the entire portion of the boundary 43. A region of interest 44 is set in the portion. Then, each process of steps S103 to S106 is repeatedly executed until the execution function 346 determines that the region of interest 44 has been set over the entire boundary 43 .

一方、全部分に亘って関心領域44を設定したと実行機能346により判定された場合(ステップS107:Yes)には、色割当機能348は、3次元画像データを構成する複数の画素のそれぞれに対して確率pに応じた色を割り当てる(ステップS108)。 On the other hand, if the execution function 346 determines that the region of interest 44 has been set over the entire area (step S107: Yes), the color allocation function 348 assigns A color corresponding to the probability p is assigned to it (step S108).

例えば、色割当機能348は、メモリ31に記憶された対応情報を取得する。そして、色割当機能348は、対応情報が示す識別情報と確率pとの対応関係にしたがって、各画素に色を割り当てる。具体的には、色割当機能348は、識別情報が示す画素に対して、当該画素に対応する確率pに応じた色を割り当てる。例えば、色割当機能348は、確率pが「1」に近づくほど赤色に近い色を画素に割り当て、確率pが「0」に近づくほど青色に近い色を割り当ててもよい。また、色割当機能348は、確率pが対応付けられていない画素については、所定の色を割り当ててもよい。ここで、所定の色とは、例えば、確率pに応じて画素に割り当てられる色以外の色が挙げられる。 For example, the color allocation function 348 obtains correspondence information stored in the memory 31 . Then, the color allocation function 348 allocates a color to each pixel according to the correspondence relationship between the identification information indicated by the correspondence information and the probability p. Specifically, the color allocation function 348 allocates a color according to the probability p corresponding to the pixel indicated by the identification information. For example, the color assignment function 348 may assign a color closer to red to a pixel as the probability p approaches "1", and assign a color closer to blue as the probability p approaches "0". Also, the color allocation function 348 may allocate a predetermined color to pixels that are not associated with a probability p. Here, the predetermined color is, for example, a color other than the color assigned to the pixel according to the probability p.

そして、画像処理機能344は、色が割り当てられた3次元画像データに基づいて、表示用の2次元画像データを生成する(ステップS109)。例えば、画像処理機能344は、3次元画像データに対してサーフェスレンダリングを行い、表示用の2次元画像データとしてサーフェスレンダリング画像データを生成する。 Then, the image processing function 344 generates two-dimensional image data for display based on the color-assigned three-dimensional image data (step S109). For example, the image processing function 344 performs surface rendering on three-dimensional image data to generate surface rendering image data as two-dimensional image data for display.

そして、システム制御機能341は、ディスプレイ32に表示用の2次元画像データが示す画像を表示させ(ステップS110)、評価処理を終了する。図14は、第1の実施形態に係る表示用の2次元画像データが示す画像の一例を示す図である。例えば、図14に示すように、システム制御機能341は、サーフェスレンダリング画像データが示すサーフェスレンダリング画像80をディスプレイ32に表示させる。このようにして、システム制御機能341は、評価機能347により評価された評価結果をディスプレイ32に表示させる。これにより、サーフェスレンダリング画像80を確認した操作者は、対象部位のどの部分が癒着している可能性が高いかを容易に把握することができる。 Then, the system control function 341 causes the display 32 to display an image indicated by the two-dimensional image data for display (step S110), and ends the evaluation process. FIG. 14 is a diagram illustrating an example of an image represented by two-dimensional image data for display according to the first embodiment. For example, as shown in FIG. 14, the system control function 341 causes the display 32 to display the surface rendering image 80 indicated by the surface rendering image data. In this way, the system control function 341 causes the display 32 to display the evaluation results evaluated by the evaluation function 347 . As a result, the operator who has confirmed the surface rendering image 80 can easily grasp which part of the target site is likely to be adhered.

以上、第1の実施形態に係るX線CT装置1について説明した。X線CT装置1によれば、上述したように、精度良く付着の状態を評価することができる。 The X-ray CT apparatus 1 according to the first embodiment has been described above. According to the X-ray CT apparatus 1, as described above, the state of adhesion can be evaluated with high accuracy.

(第1の実施形態の第1の変形例)
上述した第1の実施形態では、1次元の関心領域44が設定される場合について説明したが、関心領域44は、1次元でなく、例えば、2次元又は3次元であってもよい。そこで、このような変形例を第1の実施形態の第1の変形例として説明する。第1の変形例では、X線CT装置1は、2次元又は3次元の関心領域44内の画素を用いて、第1の実施形態と同様の処理を行う。
(First Modification of First Embodiment)
Although the case where the one-dimensional region of interest 44 is set has been described in the above-described first embodiment, the region of interest 44 may be, for example, two-dimensional or three-dimensional instead of one-dimensional. Therefore, such a modified example will be described as a first modified example of the first embodiment. In the first modification, the X-ray CT apparatus 1 uses pixels in the two-dimensional or three-dimensional region of interest 44 to perform the same processing as in the first embodiment.

例えば、第1の変形例では、2次元の関心領域44内には、境界43の法線方向に沿って1次元状に並ぶ複数の画素から構成される画素列が、境界43の法線方向と直交する方向に複数並んでいる。そこで、第1の変形例では、X線CT装置1は、第1の実施形態において1次元状に並んだ複数の画素45に対して行った処理と同様の処理を、複数の画素列のそれぞれに対して行う。 For example, in the first modified example, in the two-dimensional region of interest 44 , a pixel row composed of a plurality of pixels arranged one-dimensionally along the normal direction of the boundary 43 is arranged in the normal direction of the boundary 43 . are lined up in a direction perpendicular to the Therefore, in the first modification, the X-ray CT apparatus 1 performs the same processing as that performed on the plurality of pixels 45 arranged one-dimensionally in the first embodiment, on each of the plurality of pixel columns. against

また、3次元の関心領域44が設定される場合においても、実行機能346は、2次元の関心領域44が設定される場合の処理と同様の処理を行う。したがって、第1の変形例によれば、第1の実施形態と同様の効果を奏する。 Even when the three-dimensional region of interest 44 is set, the execution function 346 performs the same processing as when the two-dimensional region of interest 44 is set. Therefore, according to the first modified example, the same effects as those of the first embodiment can be obtained.

(第1の実施形態の第2の変形例)
また、上述した第1の実施形態及び第1の変形例では、実行機能346が、クラスタリング処理の一部の処理を実行する場合について説明したが、クラスタリング処理の全処理を実行してもよい。この場合、実行機能346は、15本のカットラインのそれぞれに対して算出したエネルギーE(L,L,・・・,L,w)の中から、最小のエネルギーE(L,L,・・・,L,w)に対応するカットラインにより、各画素45を各クラスタに分類するクラスタリングを行う。すなわち、実行機能346は、クラスタリング処理の全処理を実行する。
(Second Modification of First Embodiment)
Also, in the first embodiment and the first modified example described above, the case where the execution function 346 executes a part of the clustering process has been described, but the entire clustering process may be executed. In this case, the execution function 346 selects the minimum energy E ( L 1 , L 2 , . . . , L N , w) is used to classify each pixel 45 into each cluster. That is, the execution function 346 executes all clustering processing.

このように、実行機能346は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づくエネルギーE(L,L,・・・,L,w)に基づいて、第1のクラスタ又は第2のクラスタへ複数の画素45のそれぞれを分類するクラスタリング処理を実行する。すなわち、実行機能346は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づいて、クラスタリング処理を実行する。 Thus, execution function 346 selects the first cluster or the first cluster based on energy E(L 1 , L 2 , . . . , L N , w) based on motion vector Xn_i and motion vector X (n+1)_i . A clustering process is performed that classifies each of the plurality of pixels 45 into two clusters. That is, the execution function 346 executes clustering processing based on the motion vector Xn_i and the motion vector X (n+1)_i .

また、X線CT装置1は、クラスタリング処理の全処理を実行する場合には、クラスタリング処理の結果を用いて、確率pの確からしさを示す信頼度を算出してもよい。そこで、このような変形例を第1の実施形態の第2の変形例として説明する。 When the X-ray CT apparatus 1 executes all the clustering processes, the clustering process results may be used to calculate the reliability indicating the likelihood of the probability p. Therefore, such a modified example will be described as a second modified example of the first embodiment.

図15及び図16は、第2の変形例に係るX線CT装置が実行する処理の一例を説明するための図である。図15には、セグメンテーション機能345により3次元画像データ40から抽出された肺野の領域41及び肺野外の部位の領域42が示されている。また、図15には、実行機能346により第1のクラスタに分類された画素45が位置する領域82、及び、第2のクラスタに分類された画素45が位置する領域81が示されている。 15 and 16 are diagrams for explaining an example of processing executed by the X-ray CT apparatus according to the second modification. FIG. 15 shows a lung field region 41 and a lung field region 42 extracted from the three-dimensional image data 40 by the segmentation function 345 . FIG. 15 also shows a region 82 in which the pixels 45 classified into the first cluster by the execution function 346 are located, and a region 81 in which the pixels 45 classified into the second cluster are located.

そして、第2の変形例では、評価機能347は、肺野の領域41と肺野外の部位の領域42との境界43と、領域81と領域82との境界83との一致度を、確率pの確からしさを示す信頼度として算出する。なお、評価機能347は、一致度を算出する方法として、公知の技術を用いる。 Then, in the second modification, the evaluation function 347 calculates the degree of matching between the boundary 43 between the lung field region 41 and the lung field region 42 and the boundary 83 between the regions 81 and 82 with the probability p It is calculated as a reliability that indicates the certainty of Note that the evaluation function 347 uses a known technique as a method of calculating the degree of matching.

ここで、境界43と境界83との一致度が高いと、クラスタリング処理の結果とセグメンテーション処理の結果との一致度も高くなる。クラスタリング処理の結果とセグメンテーション処理の結果との一致度が高いほど、クラスタリング処理の結果の確からしさを示す信頼度が高くなる。クラスタリング処理の結果の確からしさを示す信頼度が高くなると、確率pの確からしさを示す信頼度も高くなる。 Here, when the degree of matching between the boundary 43 and the boundary 83 is high, the degree of matching between the clustering processing result and the segmentation processing result is also high. The higher the degree of matching between the result of the clustering process and the result of the segmentation process, the higher the reliability indicating the likelihood of the result of the clustering process. As the reliability indicating the certainty of the result of the clustering process increases, the reliability indicating the certainty of the probability p also increases.

そこで、第2の変形例に係る評価機能347は、境界43と境界83との一致度を、確率pの確からしさを示す信頼度として算出する。 Therefore, the evaluation function 347 according to the second modification calculates the degree of matching between the boundary 43 and the boundary 83 as the degree of reliability indicating the likelihood of the probability p.

また、実行機能346により、関心領域44内の全ての画素45が第2のクラスタに属するように画素45が分類された場合について説明する。この場合には、図16に示すように、第2のクラスタに属する画素45が位置する領域84はあるが、第1のクラスタに属する画素45が位置する領域はない。このため、領域84と第1のクラスタに属する画素45が位置する領域との境界はない。このように、境界がない場合には、評価機能347は、確率pの確からしさを示す信頼度として、所定値、例えば、「0」を算出する。同様に、評価機能347は、実行機能346により関心領域44内の全ての画素45が第1のクラスタに属するように画素45が分類された場合にも、所定値、例えば、「0」を算出する。 Also, assume that execution function 346 classifies pixels 45 such that all pixels 45 within region of interest 44 belong to the second cluster. In this case, as shown in FIG. 16, there is a region 84 where the pixels 45 belonging to the second cluster are located, but there is no region where the pixels 45 belonging to the first cluster are located. Therefore, there is no boundary between the area 84 and the area where the pixels 45 belonging to the first cluster are located. In this way, when there is no boundary, the evaluation function 347 calculates a predetermined value, for example "0", as the degree of reliability indicating the likelihood of the probability p. Similarly, evaluation function 347 also calculates a predetermined value, e.g., "0", when execution function 346 classifies pixels 45 within region of interest 44 such that all pixels 45 belong to the first cluster. do.

このようにして、評価機能347は、セグメンテーション処理の結果及びクラスタリング処理の結果に基づいて、癒着の状態の評価結果の信頼度を算出する。 In this way, the evaluation function 347 calculates the reliability of the adhesion state evaluation result based on the segmentation processing result and the clustering processing result.

そして、第2の変形例に係るシステム制御機能341は、算出した信頼度を、ディスプレイ32に表示させる。 Then, the system control function 341 according to the second modification causes the display 32 to display the calculated reliability.

以上、第2の変形例に係るX線CT装置1について説明した。第2の変形例によれば、確率pの確からしさを示す信頼度を定量的に表示することができる。このため、第2の変形例によれば、操作者に、確率pの確からしさを、より確実に把握させることができる。 The X-ray CT apparatus 1 according to the second modification has been described above. According to the second modification, it is possible to quantitatively display the reliability indicating the probability of the probability p. Therefore, according to the second modified example, it is possible for the operator to grasp the likelihood of the probability p more reliably.

(第2の実施形態)
ここで、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1の機能を、X線CT装置1とネットワークを介して接続された画像処理装置に持たせることができる。このような実施形態を第2の実施形態として、図17を用いて説明する。
(Second embodiment)
Here, the functions of the X-ray CT apparatus 1 according to the first embodiment, the first modification, or the second modification are provided to an image processing apparatus connected to the X-ray CT apparatus 1 via a network. be able to. Such an embodiment will be described as a second embodiment with reference to FIG.

図17は、第2の実施形態に係る画像処理装置を含むシステムの構成の一例を示す図である。図17の例に示すシステムは、X線CT装置600と、画像保管装置700と、画像表示装置800と、画像処理装置900とを有する。X線CT装置600と、画像保管装置700と、画像表示装置800と、画像処理装置900とは、例えば、病院内に設置された院内LAN(Local Area Network)500により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、PACS(Picture Archiving and Communication System)が導入されている場合、各装置600~900は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、画像等を相互に送受信する。 FIG. 17 is a diagram showing an example of the configuration of a system including an image processing device according to the second embodiment. The system shown in the example of FIG. 17 has an X-ray CT device 600 , an image storage device 700 , an image display device 800 and an image processing device 900 . The X-ray CT apparatus 600, the image archiving apparatus 700, the image display apparatus 800, and the image processing apparatus 900 are directly or indirectly connected by an in-hospital LAN (Local Area Network) 500 installed in the hospital, for example. can communicate with each other. For example, when PACS (Picture Archiving and Communication System) is introduced, the devices 600 to 900 mutually transmit and receive images and the like according to the DICOM (Digital Imaging and Communications in Medicine) standard.

X線CT装置600は、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1である。X線CT装置600は、4次元画像データ(Tフレーム分の3次元画像データ)を画像処理装置900に送信する。 The X-ray CT apparatus 600 is the X-ray CT apparatus 1 according to the first embodiment, the first modified example, or the second modified example. The X-ray CT apparatus 600 transmits four-dimensional image data (three-dimensional image data for T frames) to the image processing apparatus 900 .

画像保管装置700は、X線CT装置600および画像処理装置900により生成された表示用の2次元画像データを保管するデータベースである。 The image storage device 700 is a database that stores two-dimensional image data for display generated by the X-ray CT device 600 and the image processing device 900 .

画像処理装置900は、ワークステーションであり、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1の機能を有する。画像処理装置900は、X線CT装置600から送信されたTフレーム分の3次元画像データを用いて、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1が実行する処理と同様の処理を行う。 The image processing apparatus 900 is a workstation and has the functions of the X-ray CT apparatus 1 according to the first embodiment, the first modified example, or the second modified example. The image processing apparatus 900 uses T frames of three-dimensional image data transmitted from the X-ray CT apparatus 600 to perform the X-ray CT apparatus according to the first embodiment, the first modification, or the second modification. 1 performs the same processing as the processing performed by 1.

画像処理装置900は、入力インターフェース901、ディスプレイ902、メモリ903及び処理回路904を有する。 The image processing device 900 has an input interface 901 , a display 902 , a memory 903 and a processing circuit 904 .

入力インターフェース901は、操作者から各種指示及び各種情報の入力操作を受け付ける。具体的には、入力インターフェース901は、処理回路904に接続されており、操作者から受け取った入力操作を電気信号へ変換し処理回路904へと出力する。例えば、入力インターフェース901は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力インターフェース、及び音声入力インターフェース等によって実現される。なお、本明細書において、入力インターフェース901は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路904へ出力する電気信号の処理回路も入力インターフェース901の例に含まれる。 The input interface 901 receives input operations of various instructions and various information from the operator. Specifically, the input interface 901 is connected to the processing circuit 904 , converts an input operation received from the operator into an electrical signal, and outputs the electrical signal to the processing circuit 904 . For example, the input interface 901 includes a trackball, a switch button, a mouse, a keyboard, a touch pad that performs input operations by touching an operation surface, a touch screen that integrates a display screen and a touch pad, and a non-optical sensor using an optical sensor. It is realized by a contact input interface, a voice input interface, and the like. In this specification, the input interface 901 is not limited to having physical operation parts such as a mouse and a keyboard. For example, the input interface 901 also includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the apparatus and outputs the electrical signal to the processing circuit 904. .

ディスプレイ902は、各種情報及び各種画像を表示する。具体的には、ディスプレイ902は、処理回路904に接続されており、処理回路904から送られる各種情報及び各種画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ902は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。 The display 902 displays various information and various images. Specifically, the display 902 is connected to the processing circuit 904, converts various information and image data sent from the processing circuit 904 into electrical signals for display, and outputs the electrical signals. For example, the display 902 is realized by a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, a touch panel, or the like.

メモリ903は、各種データを記憶する。具体的には、メモリ903は、各種の画像を記憶する。例えば、メモリ903は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。 The memory 903 stores various data. Specifically, the memory 903 stores various images. For example, the memory 903 is implemented by a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like.

処理回路904は、画像処理装置900の全体制御を行う。例えば、処理回路904は、X線CT装置600から送信されたTフレーム分の3次元画像データを受信すると、受信した3次元画像データをメモリ903に格納する。処理回路904は、プロセッサにより実現される。処理回路904は、取得機能904a、セグメンテーション機能904b、実行機能904c、評価機能904d、色割当機能904e、表示制御機能904f及び画像処理機能904gを有する。取得機能904aは、取得部の一例である。セグメンテーション機能904bは、セグメンテーション処理部の一例である。実行機能904cは、実行部及び第2の算出部の一例である。評価機能904dは、評価部、算出部及び第1の算出部の一例である。表示制御機能904fは、表示制御部の一例である。画像処理機能904gは、生成部の一例である。 A processing circuit 904 performs overall control of the image processing apparatus 900 . For example, when receiving T frames of three-dimensional image data transmitted from the X-ray CT apparatus 600 , the processing circuit 904 stores the received three-dimensional image data in the memory 903 . Processing circuitry 904 is implemented by a processor. The processing circuitry 904 has an acquisition function 904a, a segmentation function 904b, an execution function 904c, an evaluation function 904d, a color allocation function 904e, a display control function 904f and an image processing function 904g. The acquisition function 904a is an example of an acquisition unit. The segmentation function 904b is an example of a segmentation processor. The execution function 904c is an example of an execution unit and a second calculation unit. The evaluation function 904d is an example of an evaluation unit, a calculation unit, and a first calculation unit. The display control function 904f is an example of a display control unit. The image processing function 904g is an example of a generator.

ここで、例えば、処理回路904の構成要素である取得機能904a、セグメンテーション機能904b、実行機能904c、評価機能904d、色割当機能904e、表示制御機能904f及び画像処理機能904gの各機能は、コンピュータによって実行可能なプログラムの形態でメモリ903に記憶されている。処理回路904は、各プログラムをメモリ903から読み出し、読み出した各プログラムを実行することで、各機能を実現する。換言すると、各プログラムを読み出した状態の処理回路904は、図17の処理回路904内に示された各機能を有することとなる。 Here, for example, each function of the acquisition function 904a, the segmentation function 904b, the execution function 904c, the evaluation function 904d, the color allocation function 904e, the display control function 904f, and the image processing function 904g, which are the components of the processing circuit 904, are executed by a computer. It is stored in the memory 903 in the form of an executable program. The processing circuit 904 implements each function by reading each program from the memory 903 and executing each read program. In other words, the processing circuit 904 with each program read has each function shown in the processing circuit 904 of FIG.

取得機能904aは、メモリ903に記憶されたTフレーム分の3次元画像データを取得する。すなわち、取得機能904aは、複数の時相において被検体Pの対象部位を含んで撮像された複数の3次元画像データを取得する。 The acquisition function 904 a acquires three-dimensional image data for T frames stored in the memory 903 . That is, the acquisition function 904a acquires a plurality of three-dimensional image data captured including the target region of the subject P at a plurality of time phases.

セグメンテーション機能904bは、上述したステップS101の処理と同様の処理を実行する。実行機能904cは、上述したステップS102~S105,S107の処理と同様の処理を実行する。評価機能904dは、上述したステップS106の処理と同様の処理を実行する。 The segmentation function 904b executes the same processing as the processing of step S101 described above. The execution function 904c executes the same processes as those of steps S102 to S105 and S107 described above. The evaluation function 904d executes the same processing as the processing of step S106 described above.

色割当機能904eは、上述したステップS108の処理と同様の処理を実行する。画像処理機能904gは、上述したステップS109の処理と同様の処理を実行する。表示制御機能904fは、上述したステップS110の処理と同様の処理を実行する。 The color allocation function 904e executes processing similar to the processing of step S108 described above. The image processing function 904g executes the same processing as the processing of step S109 described above. The display control function 904f executes the same processing as the processing of step S110 described above.

以上、第2の実施形態に係る画像処理装置900について説明した。画像処理装置900によれば、第1の実施形態、第1の変形例及び第2の変形例と同様に、精度良く付着の状態を評価することができる。 The image processing apparatus 900 according to the second embodiment has been described above. According to the image processing apparatus 900, similarly to the first embodiment, the first modified example, and the second modified example, it is possible to accurately evaluate the state of adhesion.

以上説明した少なくともひとつの実施形態又は変形例によれば、精度良く付着の状態を評価することができる。 According to at least one embodiment or modified example described above, the state of adhesion can be evaluated with high accuracy.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

900 画像処理装置
904a 取得機能
904d 評価機能
900 Image processing device 904a Acquisition function 904d Evaluation function

Claims (8)

複数の時相において被検体の対象部位を含んで撮像された複数の画像を取得する取得部と、
前記画像における第1の領域及び第2の領域の境界を跨いで所定方向に並んだ前記画像の複数の画素における、前記複数の時相の画像間での移動情報に基づいて、前記第1の領域に係る第1のクラス又は当該第1の領域と前記所定方向に隣り合う第2の領域に係る第2のクラスへ前記複数の画素のそれぞれを分類する際の分類情報から、前記第1の領域に対応する前記被検体の第1の部位と前記第2の領域に対応する前記被検体の第2の部位との前記境界における付着の状態を示す指標を算出する第1の算出部と、
を備える、画像処理装置。
an acquisition unit that acquires a plurality of images captured including a target region of a subject in a plurality of time phases;
Based on the movement information between the plurality of time phase images in the plurality of pixels of the image arranged in a predetermined direction across the boundary between the first region and the second region in the image, the first From classification information for classifying each of the plurality of pixels into a first class related to an area or a second class related to a second area adjacent to the first area in the predetermined direction, the first a first calculator that calculates an index indicating a state of adhesion at the boundary between a first portion of the subject corresponding to the region and a second portion of the subject corresponding to the second region;
An image processing device comprising:
前記第1の算出部は、前記第1のクラス及び前記第2のクラスへ前記複数の画素を分類する際に、当該複数の画素が同一のクラスに属する確率に基づいて、前記指標を算出し、前記付着の状態を評価する、請求項1に記載の画像処理装置。 The first calculation unit calculates the index based on a probability that the plurality of pixels belong to the same class when classifying the plurality of pixels into the first class and the second class. 2. The image processing apparatus according to claim 1, wherein said state of adhesion is evaluated. 前記第1の算出部は、前記移動情報に基づく、前記第1のクラス又は前記第2のクラスへ前記複数の画素のそれぞれを分類する際のコストに係る値により、前記確率を算出し、当該確率に基づいて前記指標を算出する、請求項2に記載の画像処理装置。 The first calculation unit calculates the probability using a value associated with a cost for classifying each of the plurality of pixels into the first class or the second class based on the movement information, 3. The image processing apparatus according to claim 2, wherein said index is calculated based on probability. 前記複数の画素のそれぞれの動きベクトルを前記移動情報として算出し、算出した複数の動きベクトルに基づいて、当該複数の画素において前記所定方向に隣り合う2つの画素ごとに、当該2つの画素の2つの動きベクトルの差分ベクトルの大きさを算出する第2の算出部を更に備え、
前記第1の算出部は、前記差分ベクトルの大きさに基づいて、前記指標を算出する、請求項1~3のいずれか1つに記載の画像処理装置。
A motion vector of each of the plurality of pixels is calculated as the movement information, and based on the plurality of calculated motion vectors, for each two pixels adjacent to each other in the predetermined direction in the plurality of pixels, 2 pixels of the two pixels are calculated. Further comprising a second calculation unit for calculating the magnitude of the difference vector of the two motion vectors,
4. The image processing device according to claim 1, wherein said first calculator calculates said index based on the magnitude of said difference vector.
前記画像から前記第1の領域及び前記第2の領域を抽出するためのセグメンテーション処理を実行するセグメンテーション処理部を更に備え、
前記第2の算出部は、前記移動情報に基づいて、前記第1のクラス又は前記第2のクラスへ前記複数の画素のそれぞれを分類するクラスタリング処理を実行し、
前記第1の算出部は、前記セグメンテーション処理の結果及び前記クラスタリング処理の結果に基づいて、前記指標の信頼度を算出する、
請求項4に記載の画像処理装置。
Further comprising a segmentation processing unit that performs segmentation processing for extracting the first region and the second region from the image,
The second calculation unit performs clustering processing for classifying each of the plurality of pixels into the first class or the second class based on the movement information,
The first calculation unit calculates the reliability of the indicator based on the result of the segmentation process and the result of the clustering process.
The image processing apparatus according to claim 4.
前記指標を表示部に表示させる表示制御部を更に備える、請求項1~5のいずれか1つに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, further comprising a display control section that displays the index on a display section. 前記信頼度を表示部に表示させる表示制御部を更に備える、請求項5に記載の画像処理装置。 6. The image processing apparatus according to claim 5, further comprising a display control section for displaying said reliability on a display section. 複数の時相において被検体の対象部位を含んで撮像された複数の画像を生成する生成部と、
前記画像上における第1の領域及び第2の領域の境界を跨いで所定方向に並んだ前記画像の複数の画素における、前記複数の時相の画像間での移動情報に基づいて、前記第1の領域に係る第1のクラス又は当該第1の領域と前記所定方向に隣り合う第2の領域に係る第2のクラスへ前記複数の画素のそれぞれを分類する際の分類情報から、前記第1の領域に対応する前記被検体の第1の部位と前記第2の領域に対応する前記被検体の第2の部位との前記境界における付着の状態を示す指標を算出する算出部と、
を備える、医用画像撮像装置。
a generation unit that generates a plurality of images captured including a target region of a subject in a plurality of time phases;
Based on the movement information between the plurality of time phase images in the plurality of pixels of the image arranged in a predetermined direction across the boundary between the first region and the second region on the image, the first from the classification information for classifying each of the plurality of pixels into a first class related to a region of or a second class related to a second region adjacent to the first region in the predetermined direction, the first a calculation unit that calculates an index indicating a state of adhesion at the boundary between a first part of the subject corresponding to the area of and a second part of the subject corresponding to the second area;
A medical imaging device comprising:
JP2018195917A 2017-10-17 2018-10-17 Image processing device and medical imaging device Active JP7166870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/162,986 US11138735B2 (en) 2017-10-17 2018-10-17 Image processing apparatus and medical image taking apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017201218 2017-10-17
JP2017201218 2017-10-17

Publications (2)

Publication Number Publication Date
JP2019075123A JP2019075123A (en) 2019-05-16
JP7166870B2 true JP7166870B2 (en) 2022-11-08

Family

ID=66544337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018195917A Active JP7166870B2 (en) 2017-10-17 2018-10-17 Image processing device and medical imaging device

Country Status (1)

Country Link
JP (1) JP7166870B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070588A1 (en) 2010-11-25 2012-05-31 株式会社日立メディコ Ultrasound moving image processing method, device and program
JP2012213604A (en) 2011-03-29 2012-11-08 Toshiba Corp X-ray ct apparatus, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070588A1 (en) 2010-11-25 2012-05-31 株式会社日立メディコ Ultrasound moving image processing method, device and program
JP2012213604A (en) 2011-03-29 2012-11-08 Toshiba Corp X-ray ct apparatus, and image processing method

Also Published As

Publication number Publication date
JP2019075123A (en) 2019-05-16

Similar Documents

Publication Publication Date Title
US10628972B2 (en) Diagnostic imaging method and apparatus, and recording medium thereof
US10638993B2 (en) Computed tomography apparatus and control method for the same
US10143433B2 (en) Computed tomography apparatus and method of reconstructing a computed tomography image by the computed tomography apparatus
US10052077B2 (en) Tomography imaging apparatus and method
US9905044B1 (en) Systems and methods for functional imaging
US9836861B2 (en) Tomography apparatus and method of reconstructing tomography image
JP7341803B2 (en) X-ray CT equipment, medical image processing equipment, and X-ray CT systems
US10339675B2 (en) Tomography apparatus and method for reconstructing tomography image thereof
US11138735B2 (en) Image processing apparatus and medical image taking apparatus
JP7262933B2 (en) Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program
US11321829B2 (en) Medical image processing apparatus, method for processing medical image, and non-transitory computer medium storing computer program
JP6526428B2 (en) Medical image processing apparatus, medical image processing method and medical image diagnostic apparatus
JP7313818B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSTIC APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
JP7166870B2 (en) Image processing device and medical imaging device
US10176568B2 (en) Tomographic apparatus and method
JP6598653B2 (en) Medical information processing apparatus and medical information processing system
US11344275B2 (en) Medical diagnostic-imaging apparatus
US20230320685A1 (en) Nuclear medicine diagnostic apparatus, nuclear medicine diagnostic method, and storage medium
US20230153945A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
JP7437887B2 (en) Medical information processing equipment and X-ray CT equipment
US20240225582A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
JP6923414B2 (en) X-ray computed tomography equipment, medical imaging equipment, and programs
US10165989B2 (en) Tomography apparatus and method of reconstructing cross-sectional image
JP2023012246A (en) Medical image processing apparatus, x-ray ct apparatus, medical image processing method and program
JP2024028194A (en) Information processing method, medical image diagnostic apparatus, and information processing system including deep learning for optimal cardiac phase selection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R150 Certificate of patent or registration of utility model

Ref document number: 7166870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150