JP2016221100A - Medical image processing apparatus, and treatment system - Google Patents

Medical image processing apparatus, and treatment system Download PDF

Info

Publication number
JP2016221100A
JP2016221100A JP2015112432A JP2015112432A JP2016221100A JP 2016221100 A JP2016221100 A JP 2016221100A JP 2015112432 A JP2015112432 A JP 2015112432A JP 2015112432 A JP2015112432 A JP 2015112432A JP 2016221100 A JP2016221100 A JP 2016221100A
Authority
JP
Japan
Prior art keywords
image
unit
processing apparatus
image feature
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015112432A
Other languages
Japanese (ja)
Other versions
JP6815586B2 (en
Inventor
幸辰 坂田
Koshin Sakata
幸辰 坂田
隆介 平井
Ryusuke Hirai
隆介 平井
安則 田口
Yasunori Taguchi
安則 田口
智行 武口
Satoyuki Takeguchi
智行 武口
矢澤 孝
Takashi Yazawa
孝 矢澤
森 慎一郎
Shinichiro Mori
慎一郎 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
National Institutes for Quantum and Radiological Science and Technology
Original Assignee
Toshiba Corp
National Institutes for Quantum and Radiological Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, National Institutes for Quantum and Radiological Science and Technology filed Critical Toshiba Corp
Priority to JP2015112432A priority Critical patent/JP6815586B2/en
Publication of JP2016221100A publication Critical patent/JP2016221100A/en
Application granted granted Critical
Publication of JP6815586B2 publication Critical patent/JP6815586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Radiation-Therapy Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a medical image processing apparatus and treatment system that are capable of improving reliability.SOLUTION: A medical image processing apparatus of an embodiment includes an image acquisition unit, image feature derivation unit, and position estimation unit. The image acquisition unit acquires a subject's perspective image picked up by an image pickup apparatus. The image feature derivation unit derives an image feature on a target area, which is part or all of the perspective image acquired by the image acquisition unit. The position estimation unit, on the basis of correspondence information showing correspondence between the image feature and a region to be searched, estimates a position of the subject's region to be searched in the perspective image from the image feature derived by the image feature derivation unit.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、医用画像処理装置、および治療システムに関する。   Embodiments described herein relate generally to a medical image processing apparatus and a treatment system.

放射線治療では、まず計画段階において患部付近のCT(Computed Tomography)画像が事前に撮影され、治療計画が立てられる。治療段階では、治療計画に沿って患部に治療ビームを照射することで、患者の治療が行われる。患者の患部は、呼吸や心拍、腸の動きなどによって移動する場合がある。これに対応する治療法として、ゲーテッド照射法や追尾照射法が知られている。これらの照射法により、治療ビームが患部以外の正常部位に照射される量を減らすことができる。   In radiation therapy, first, a CT (Computed Tomography) image near the affected area is taken in advance at the planning stage, and a treatment plan is made. In the treatment stage, the patient is treated by irradiating the affected part with a treatment beam in accordance with the treatment plan. The affected area of a patient may move due to breathing, heartbeat, intestinal movement, and the like. As a treatment method corresponding to this, a gated irradiation method and a tracking irradiation method are known. By these irradiation methods, it is possible to reduce the amount of the treatment beam irradiated to the normal site other than the affected part.

また、治療の直前に、治療計画用とは別に、様々な呼吸位相のCT画像を撮影する場合がある。この場合、様々な呼吸位相のCT画像から治療計画用CT画像と類似したものが選択される。そして、選択されたCT画像を生成するために利用した透視画像と、治療中に撮影した透視画像とで、横隔膜周辺の画像情報がほぼ一致したときに治療ビームが自動的に照射される。   In addition, CT images of various respiratory phases may be taken immediately before treatment, separately from treatment planning. In this case, a CT image similar to the treatment planning CT image is selected from CT images of various respiratory phases. The treatment beam is automatically irradiated when the fluoroscopic image used for generating the selected CT image and the fluoroscopic image taken during the treatment substantially match the image information around the diaphragm.

しかしながら、従来の自動化技術では、治療段階あるいはリハーサル段階において、患部そのものの位置を追跡して治療支援を行うものではないため、信頼性が十分でない場合があった。   However, the conventional automation technology does not provide treatment support by tracking the position of the affected part itself in the treatment stage or the rehearsal stage, and thus may not have sufficient reliability.

特開2008−154861号公報JP 2008-154861 A

Ying Cui, Jennifer G Dy, Gregory C Sharp, Brain Alexander and Steve B Jiang, “Multiple template-based fluoroscopic tracking of lung tumor mass without implanted fiducial markers,” Physics in Medicine and Biology, vol.52, no.20, pp.6229-6242, 2007.Ying Cui, Jennifer G Dy, Gregory C Sharp, Brain Alexander and Steve B Jiang, “Multiple template-based fluoroscopic tracking of lung tumor mass without implant fiducial markers,” Physics in Medicine and Biology, vol.52, no.20, pp .6229-6242, 2007.

本発明が解決しようとする課題は、信頼性を向上させることができる医用画像処理装置、および治療システムを提供することである。   The problem to be solved by the present invention is to provide a medical image processing apparatus and a treatment system capable of improving reliability.

実施形態の医用画像処理装置は、画像取得部と、画像特徴導出部と、位置推定部とを持つ。画像取得部は、撮像装置により撮像された被検体の透視画像を取得する。画像特徴導出部は、前記画像取得部により取得された透視画像の一部または全部である対象領域について画像特徴を導出する。位置推定部は、画像特徴と探索部位の位置との対応関係を示す対応情報に基づいて、前記画像特徴導出部により導出された画像特徴から前記透視画像における前記被検体の探索部位の位置を推定する。   The medical image processing apparatus according to the embodiment includes an image acquisition unit, an image feature derivation unit, and a position estimation unit. The image acquisition unit acquires a fluoroscopic image of the subject imaged by the imaging device. The image feature deriving unit derives image features for a target region that is a part or all of the fluoroscopic image acquired by the image acquiring unit. The position estimating unit estimates the position of the search part of the subject in the fluoroscopic image from the image feature derived by the image feature deriving part based on correspondence information indicating a correspondence relationship between the image feature and the position of the search part. To do.

第1の実施形態に係る医用画像処理装置100の機能構成例を示す図。1 is a diagram illustrating an example of a functional configuration of a medical image processing apparatus 100 according to a first embodiment. 対象領域の画像特徴から患部確率を導出する関数の内容を模式的に示す図。The figure which shows typically the content of the function which derives an affected part probability from the image feature of an object area | region. 対象領域の画像特徴から患部確率を導出する関数の内容の他の例を模式的に示す図。The figure which shows typically the other example of the content of the function which derives an affected part probability from the image feature of an object area | region. 対象領域の画像特徴から患部確率を導出する関数の内容の他の例を模式的に示す図。The figure which shows typically the other example of the content of the function which derives an affected part probability from the image feature of an object area | region. 画像特徴導出部112および位置推定部114による処理の内容の一例を示す図。The figure which shows an example of the content of the process by the image feature derivation | leading-out part 112 and the position estimation part 114. FIG. 第1の実施形態に係る医用画像処理装置100により実行される処理の内容の一例を示すフローチャート。6 is a flowchart showing an example of the content of processing executed by the medical image processing apparatus 100 according to the first embodiment. 第1の実施形態に係る医用画像処理装置100により実行される処理の内容の他の例を示すフローチャート。6 is a flowchart showing another example of the content of processing executed by the medical image processing apparatus 100 according to the first embodiment. 画像特徴導出部112および位置推定部114による処理の内容の一例を示す図。The figure which shows an example of the content of the process by the image feature derivation | leading-out part 112 and the position estimation part 114. FIG. 第2の実施形態に係る医用画像処理装置100Aの機能構成例を示す図。The figure which shows the function structural example of 100 A of medical image processing apparatuses which concern on 2nd Embodiment. 第2の実施形態に係る医用画像処理装置100Aにより実行される処理の流れの一例を示すフローチャート。10 is a flowchart illustrating an example of a flow of processing executed by the medical image processing apparatus 100A according to the second embodiment. 利用者による入力操作によって患部位置と対象領域が指定される際の表示画面を示す図。The figure which shows the display screen when an affected part position and an object area | region are designated by input operation by a user. 対応情報150が構築される様子を模式的に示す図。The figure which shows a mode that the corresponding | compatible information 150 is constructed | assembled. 治療装置10および医用画像処理装置100Aを含む治療システム1の構成例を示す図。The figure which shows the structural example of the treatment system 1 containing the treatment apparatus 10 and the medical image processing apparatus 100A. 治療システム1を利用して行われる治療の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the treatment performed using the treatment system. 治療計画の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of a treatment plan. 学習処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of a learning process. 一つのCT画像に対して入力された患部位置が他のCT画像に展開される様子を模式的に示す図。The figure which shows typically a mode that the affected part position input with respect to one CT image is expand | deployed to another CT image. リハーサルにおいて行われる処理の流れを示すフローチャート。The flowchart which shows the flow of the process performed in rehearsal. リハーサル段階の表示画面の一例を示す図。The figure which shows an example of the display screen of a rehearsal stage. 治療段階において行われる処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the process performed in a treatment stage. 治療段階の表示画面の一例を示す図。The figure which shows an example of the display screen of a treatment stage.

以下、実施形態の医用画像処理装置、および治療システムを、図面を参照して説明する。   Hereinafter, a medical image processing apparatus and a treatment system of an embodiment will be described with reference to the drawings.

<<医用画像処理装置>>
<第1の実施形態>
以下、第1の実施形態に係る医用画像処理装置100について説明する。図1は、第1の実施形態に係る医用画像処理装置100の機能構成例を示す図である。医用画像処理装置100は、例えば、画像取得部110と、画像特徴導出部112と、位置推定部114と、対応情報取得部116と、出力部118とを備える。
<< Medical image processing device >>
<First Embodiment>
Hereinafter, the medical image processing apparatus 100 according to the first embodiment will be described. FIG. 1 is a diagram illustrating a functional configuration example of a medical image processing apparatus 100 according to the first embodiment. The medical image processing apparatus 100 includes, for example, an image acquisition unit 110, an image feature derivation unit 112, a position estimation unit 114, a correspondence information acquisition unit 116, and an output unit 118.

これらの機能部のうち画像特徴導出部112、位置推定部114、その他の機能部は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサが記憶装置に記憶されたプログラムを実行することにより機能するソフトウェア機能部である。すなわち、医用画像処理装置100は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。画像特徴導出部112、位置推定部114、その他の機能部は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、医用画像処理装置100は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、これらの機能部のうち一部または全部は、FPGA(Field Programmable Gate Array)やLSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)などのハードウェア機能部であってもよい。   Among these functional units, the image feature deriving unit 112, the position estimating unit 114, and the other functional units are, for example, programs stored in a storage device by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). It is a software function unit that functions when executed. That is, the medical image processing apparatus 100 can be realized by using, for example, a general-purpose computer apparatus as basic hardware. The image feature deriving unit 112, the position estimating unit 114, and other functional units can be realized by causing a processor mounted on the computer device to execute a program. At this time, the medical image processing apparatus 100 may be realized by installing the above program in a computer device in advance, or may be stored in a storage medium such as a CD-ROM or the above program via a network. You may implement | achieve by distributing and installing this program in a computer apparatus suitably. Some or all of these functional units may be hardware functional units such as an FPGA (Field Programmable Gate Array), an LSI (Large Scale Integration), and an ASIC (Application Specific Integrated Circuit).

画像取得部110は、LAN(Local Area Network)やWAN(Wide Area Network)、シリアル通信線などのネットワークによって接続された治療装置(後述)から、入力画像としての透視画像を取得する。画像取得部110は、上記ネットワークに接続するための通信インターフェースを含む。透視画像は、例えば、被検体をX線で撮像した動画像である。被検体とは、人や動物などの生命体であり、治療を受ける人、すなわち「患者」と称してもよい。   The image acquisition unit 110 acquires a fluoroscopic image as an input image from a treatment device (described later) connected by a network such as a LAN (Local Area Network), a WAN (Wide Area Network), or a serial communication line. The image acquisition unit 110 includes a communication interface for connecting to the network. The fluoroscopic image is, for example, a moving image obtained by imaging a subject with X-rays. A subject is an organism such as a person or an animal, and may be referred to as a person who receives treatment, that is, a “patient”.

画像特徴導出部112は、画像取得部110によって取得された透視画像における対象領域について、対象領域内の画像の特徴を示す画像特徴を導出する。対象領域は、透視画像のうち一部である場合もあるし、透視画像の全部である場合もある。また、対象領域は、透視画像における位置が予め特定されており、その対象領域について画像特徴導出部112が画像特徴を導出するようにしてもよいし、画像特徴導出部112が対象領域を変えながら画像特徴を導出するようにしてもよい。前者の場合、例えば対応情報150に、対象領域の位置を特定する情報が含まれている。   The image feature deriving unit 112 derives, for the target region in the fluoroscopic image acquired by the image acquiring unit 110, an image feature indicating the feature of the image in the target region. The target area may be a part of the fluoroscopic image or may be the entire fluoroscopic image. In addition, the position of the target area in the fluoroscopic image is specified in advance, and the image feature deriving unit 112 may derive the image feature for the target area, or the image feature deriving unit 112 may change the target area. Image features may be derived. In the former case, for example, the correspondence information 150 includes information for specifying the position of the target region.

画像特徴は、例えば、対象領域内の各画素について輝度勾配を求め、求めた輝度勾配を配列化した情報である。輝度勾配は、SOBELフィルタなどの手法によって求めることができる。また、画像特徴は、対象領域内の各画素の画素値を配列化したものであってもよいし、対象領域内の各画素の輝度勾配や画素値などについて求めたヒストグラムを配列化した情報であってもよい。   The image feature is, for example, information obtained by obtaining a luminance gradient for each pixel in the target region and arranging the obtained luminance gradient. The luminance gradient can be obtained by a technique such as a SOBEL filter. In addition, the image feature may be an array of pixel values of each pixel in the target area, or information obtained by arraying a histogram obtained with respect to the luminance gradient, pixel value, etc. of each pixel in the target area. There may be.

なお、後述するように対応情報は、例えばDRR(Digitally Reconstructed Radiograph)を学習用画像とした学習処理によって生成される。このため、X線による透視画像とDRRの相違によって余り変化しない画像特徴を求めると好適である。前述した輝度勾配の方向は、X線による透視画像とDRRで余り変化しない傾向を有するため、医用画像処理装置100において好適に用いられるものである。   As will be described later, the correspondence information is generated by learning processing using, for example, DRR (Digitally Reconstructed Radiograph) as a learning image. For this reason, it is preferable to obtain an image feature that does not change much due to a difference between a fluoroscopic image by X-rays and DRR. The direction of the above-described luminance gradient has a tendency not to change so much between the X-ray fluoroscopic image and the DRR, and is therefore preferably used in the medical image processing apparatus 100.

以下、配列化された画像特徴をベクトル情報として扱い、画像特徴を→x=(x,x,…,x)のように表す。なお、文字の前の「→」は、続く文字がベクトルであることを示すものとする。 Hereinafter, the arrayed image features are treated as vector information, and the image features are represented as → x = (x 1 , x 2 ,..., X n ). Note that “→” in front of a character indicates that the following character is a vector.

位置推定部114は、画像特徴導出部112によって導出された画像特徴から、被検体の患部位置を推定する。被検体の患部位置は、被検体の「探索位置」の一例である。位置推定部114は、例えば、対応情報取得部116によって取得された、画像特徴と患部位置との対応関係を示す対応情報150に基づいて、被検体の患部位置を推定する。対応情報150の生成過程(学習過程)については後述する。   The position estimation unit 114 estimates the affected part position of the subject from the image feature derived by the image feature deriving unit 112. The affected part position of the subject is an example of the “search position” of the subject. For example, the position estimation unit 114 estimates the affected part position of the subject based on the correspondence information 150 obtained by the correspondence information obtaining unit 116 and indicating the correspondence between the image feature and the affected part position. The generation process (learning process) of the correspondence information 150 will be described later.

対応情報取得部116は、対応情報150を取得する。対応情報150は、例えば、医用画像処理装置100が備える記憶装置から読み込まれる。この場合、記憶装置は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリなどであり、対応情報取得部116は、位置推定部114の一機能とみなしてよい。また、対応情報150は、後述する治療装置、データサーバ、ネットワークストレージなどの外部装置からネットワークを介して取得されてもよい。この場合、対応情報取得部116は、ネットワークに接続するための通信インターフェースを含む。また、対応情報150は、CD(Compact Disc)やDVD(Digital Versatile Disc)などの記憶媒体から取得されてもよい。この場合、対応情報取得部116は、記憶媒体が装着されるドライブ装置を含む。   The correspondence information acquisition unit 116 acquires the correspondence information 150. The correspondence information 150 is read from a storage device included in the medical image processing apparatus 100, for example. In this case, the storage device is a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), a flash memory, or the like, and the correspondence information acquisition unit 116 is regarded as a function of the position estimation unit 114. It's okay. Further, the correspondence information 150 may be acquired via a network from an external device such as a treatment device, a data server, or a network storage described later. In this case, the correspondence information acquisition unit 116 includes a communication interface for connecting to a network. The correspondence information 150 may be obtained from a storage medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc). In this case, the correspondence information acquisition unit 116 includes a drive device to which a storage medium is mounted.

出力部118は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)などの表示装置を含む。この場合、出力部118は、位置推定部114により推定された被検体の患部位置を透視画像に重畳させて表示する。また、出力部118は、位置推定部114による推定結果を外部装置(例えば治療装置)に出力するための通信インターフェースを含んでもよい。この場合、出力部118は、画像取得部110と一部または全部において共通する構成となる。   The output unit 118 includes a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence). In this case, the output unit 118 displays the affected part position of the subject estimated by the position estimation unit 114 so as to be superimposed on the fluoroscopic image. The output unit 118 may include a communication interface for outputting the estimation result obtained by the position estimation unit 114 to an external device (for example, a treatment device). In this case, the output unit 118 has a configuration that is common in part or in whole with the image acquisition unit 110.

以下、画像特徴に基づく患部位置の推定について、より詳細に説明する。対応情報150は、例えば、式(1)で表される関数fを含む。式中、(u,v)は入力画像上の位置であり、l(u,v)は、位置(u,v)が患部である確率を示す出力値である。以下、出力値l(u,v)を、患部確率l(u,v)と称する。関数fは、例えば、予め求められた教師データである配列と、画像特徴導出部112によって導出された配列化された画像特徴との間の相関係数(負の場合はゼロに置換)やフィッティング率などの指標、あるいはこれらの指標を閾値と比較して離散化した値を出力する関数である。患部確率l(u,v)は、例えば0から1までの連続値で確率を表したものであってもよいし、0(患部でない)または1(患部である)の2値、或いは、0(患部でない)、0.5(患部の可能性がある)または1(患部である)といった3値以上の離散値または符号などで確率を表したものであってもよい。なお、関数は、対応情報150に含まれる導出規則の一例として例示したものであり、関数は、同等の入出力関係を有するマップやテーブルデータ、あるいはアルゴリズムなどの導出規則で置換されてもよい。以下、このことを前提として説明する。   Hereinafter, the estimation of the affected part position based on the image feature will be described in more detail. The correspondence information 150 includes, for example, a function f represented by the formula (1). In the equation, (u, v) is a position on the input image, and l (u, v) is an output value indicating the probability that the position (u, v) is an affected part. Hereinafter, the output value l (u, v) is referred to as an affected area probability l (u, v). The function f is, for example, a correlation coefficient (replaced with zero in the case of a negative value) or fitting between an array that is teacher data obtained in advance and an arrayed image feature derived by the image feature deriving unit 112 It is a function that outputs an index such as a rate, or a value obtained by discretizing these indices with a threshold value. The affected area probability l (u, v) may be expressed by, for example, a continuous value from 0 to 1, a binary value of 0 (not affected area) or 1 (affected area), or 0 The probability may be expressed by a discrete value or sign of three or more values such as (not affected), 0.5 (possibly affected), or 1 (is affected). The function is exemplified as an example of the derivation rule included in the correspondence information 150, and the function may be replaced with a derivation rule such as a map, table data, or algorithm having an equivalent input / output relationship. Hereinafter, this will be described on the assumption.

f(→x)=l(u,v) …(1)   f (→ x) = l (u, v) (1)

図2は、対象領域OAの画像特徴→xから患部確率l(u,v)を導出する関数fの内容を模式的に示す図である。図2の左図は、入力画像IMにおいて設定される対象領域OAを示している。図2の右図は、対象領域OAから導出される画像特徴→xに関数fを適用することで、患部確率l(u,v)が求められる様子を示している。図示するように、対応情報150である関数fは、入力画像IMにおける対象領域OAの画像特徴→xが入力されると、入力画像IM上の特定の位置(u,v)における患部確率l(u,v)を導出する。特定の位置(u,v)は、例えば対象領域OAの中心(例えば重心)である。また、関数fは、一点ではなく広さを持った領域の患部確率を出力するものであってもよい。   FIG. 2 is a diagram schematically showing the content of the function f for deriving the affected area probability l (u, v) from the image feature → x of the target area OA. The left diagram in FIG. 2 shows a target area OA set in the input image IM. The right diagram of FIG. 2 shows how the affected area probability l (u, v) is obtained by applying the function f to the image feature → x derived from the target area OA. As shown in the figure, the function f, which is the correspondence information 150, indicates that an affected area probability l (at a specific position (u, v) on the input image IM when the image feature → x of the target area OA in the input image IM is input. u, v) is derived. The specific position (u, v) is, for example, the center (for example, the center of gravity) of the target area OA. Further, the function f may output the affected area probability of an area having a width instead of a single point.

なお、対象領域OAが入力画像IM全体でない場合、関数fは、対象領域OAの位置に依存した患部確率l(u,v)を導出する。この場合、関数fは、式(2)で表されてもよい。式中、pは、対象領域OAの入力画像IMにおける位置情報である。   When the target area OA is not the entire input image IM, the function f derives an affected area probability l (u, v) depending on the position of the target area OA. In this case, the function f may be expressed by Expression (2). In the formula, p is position information in the input image IM of the target area OA.

f(→x,p)=l(u,v) …(2)   f (→ x, p) = l (u, v) (2)

関数fは、一つの患部確率l(u,v)を導出するものであってもよいが、複数の位置に対応した患部確率l(u,v)を出力するものであってもよい。図3は、対象領域OAの画像特徴→xから患部確率l(u,v)を導出する関数fの内容の他の例を模式的に示す図である。図3の左図は、入力画像IMにおいて設定される対象領域OAを示している。図3の右図は、対象領域OAから導出される画像特徴→xに関数fを適用することで、複数の位置(u,v)〜(u,v)に対応した患部確率l(u,v)が求められる様子を示している。図示するように、対応情報150である関数fは、入力画像IMにおける対象領域OAの画像特徴→xが入力されると、入力画像IM上の複数の(k個の)位置(u,v)〜(u,v)に対応した患部確率l(u,v)〜l(u,v)を導出する。 The function f may derive one affected part probability l (u, v), or may output the affected part probability l (u, v) corresponding to a plurality of positions. FIG. 3 is a diagram schematically illustrating another example of the content of the function f for deriving the affected area probability l (u, v) from the image feature of the target area OA → x. The left diagram in FIG. 3 shows a target area OA set in the input image IM. The right figure of FIG. 3 shows the affected area probability corresponding to a plurality of positions (u 1 , v 1 ) to (u k , v k ) by applying the function f to the image feature derived from the target area OA → x. It shows how l (u, v) is obtained. As shown in the figure, the function f, which is the correspondence information 150, has a plurality of (k) positions (u 1 , v) on the input image IM when the image feature → x of the target area OA in the input image IM is input. 1 ) to (u k , v k ) corresponding to affected area probabilities l (u 1 , v 1 ) to l (u k , v k ) are derived.

また、関数fは、入力画像IMの全体についての画像特徴→xに基づいて、入力画像IMの一つまたは複数の位置における患部確率l(u,v)を導出するものであってもよい。図4は、対象領域OAの画像特徴→xから患部確率l(u,v)を導出する関数fの内容の他の例を模式的に示す図である。図4の左図は、入力画像IMが対象領域OAと一致する様子を示している。図4の右図は、対象領域OAすなわち入力画像IMから導出される画像特徴→xに関数fを適用することで、患部確率l(u,v)が求められる様子を示している。図示するように、対応情報150である関数fは、入力画像IM(=対象領域OA)の画像特徴→xが入力されると、入力画像IM上の特定の位置(u,v)における患部確率l(u,v)を導出する。   The function f may be a function for deriving an affected area probability l (u, v) at one or a plurality of positions of the input image IM based on the image feature → x for the entire input image IM. FIG. 4 is a diagram schematically showing another example of the content of the function f for deriving the affected area probability l (u, v) from the image feature of the target area OA → x. The left diagram of FIG. 4 shows a state where the input image IM matches the target area OA. The right diagram of FIG. 4 shows how the affected area probability l (u, v) is obtained by applying the function f to the target area OA, that is, the image feature derived from the input image IM → x. As shown in the figure, the function f, which is the correspondence information 150, indicates that the affected area probability at a specific position (u, v) on the input image IM when the image feature of the input image IM (= target area OA) → x is input. l (u, v) is derived.

位置推定部114は、上記例示した種々の対応情報150を用いて、被検体の患部位置を推定する。   The position estimation unit 114 estimates the affected part position of the subject using the various correspondence information 150 exemplified above.

[対応情報が一つの関数を含む場合の処理]
画像特徴導出部112および位置推定部114は、対応情報150が一つの関数fを含む場合、例えば、入力画像IMにおいて対象領域OAの位置を変えながら、入力画像IMにおける複数の位置における患部確率l(u,v)を導出する。
[Processing when the correspondence information includes one function]
When the correspondence information 150 includes one function f, the image feature derivation unit 112 and the position estimation unit 114, for example, change the position of the target area OA in the input image IM and change the affected part probability l at a plurality of positions in the input image IM. (U, v) is derived.

図5は、画像特徴導出部112および位置推定部114による処理の内容の一例を示す図である。ここでは、関数fは、例えば0から1までの連続値で確率を表した患部確率l(u,v)を導出するものとする。また、関数fは、一つの対象領域OAに対して一つの患部確率l(u,v)を導出するものとする。図5の左図は、入力画像IMにおいて対象領域OAが順次設定される様子を示している。図5の左図に示すように、画像特徴導出部112は、入力画像IMにおける走査領域SA内で対象領域OAを移動させながら、各対象領域OAについて画像特徴→xを導出する。そして、位置推定部114は、各対象領域OAについての画像特徴→xに基づいて、複数の位置に対応した患部確率l(u,v)を導出する。図5の右図は、位置推定部114により導出された患部確率l(u,v)の分布を例示した図である。このような分布において患部確率l(u,v)が高くなった位置が、実際に被検体の患部である確率の高い位置であると判断することができる。   FIG. 5 is a diagram illustrating an example of the contents of processing performed by the image feature deriving unit 112 and the position estimating unit 114. Here, it is assumed that the function f derives an affected area probability l (u, v) representing the probability with a continuous value from 0 to 1, for example. The function f is assumed to derive one affected area probability l (u, v) for one target area OA. The left diagram in FIG. 5 illustrates a state in which the target area OA is sequentially set in the input image IM. As shown in the left diagram of FIG. 5, the image feature deriving unit 112 derives the image feature → x for each target area OA while moving the target area OA within the scanning area SA in the input image IM. Then, the position estimation unit 114 derives an affected area probability l (u, v) corresponding to a plurality of positions based on the image feature → x for each target area OA. The right diagram in FIG. 5 is a diagram illustrating the distribution of the affected area probability l (u, v) derived by the position estimation unit 114. In such a distribution, it can be determined that the position where the affected area probability l (u, v) is high is the position where the probability that the affected area is actually the affected area of the subject is high.

位置推定部114は、更に、各位置について求めた患部確率l(u,v)に基づいて、患部位置を推定する。以下に例示するような処理によって、被検体の患部位置が推定される。   The position estimation unit 114 further estimates the affected part position based on the affected part probability l (u, v) obtained for each position. The position of the affected part of the subject is estimated by the process exemplified below.

(推定処理A)
位置推定部114は、例えば、患部確率l(u,v)が最大値となる位置を、患部位置(u,v)と推定する。この場合、位置推定部114により推定される患部位置(u,v)は、例えば式(3)で表される。
(Estimation process A)
For example, the position estimation unit 114 estimates a position where the affected area probability l (u, v) is the maximum value as an affected area position (u t , v t ). In this case, the affected part position (u t , v t ) estimated by the position estimation unit 114 is expressed by, for example, Expression (3).

Figure 2016221100
Figure 2016221100

(推定処理B)
また、位置推定部114は、患部確率l(u,v)の分布の重心を、患部位置(u,v)と推定してもよい。この場合、位置推定部114により推定される患部位置(u,v)は、例えば式(4)で表される。
(Estimation process B)
The position estimation unit 114 may estimate the center of gravity of the distribution of the affected area probability l (u, v) as the affected area position (u t , v t ). In this case, the affected part position (u t , v t ) estimated by the position estimation unit 114 is expressed by, for example, Expression (4).

Figure 2016221100
Figure 2016221100

(推定処理C)
また、位置推定部114は、局所領域内における患部確率l(u,v)の合計が最大となる当該局所領域の中心(例えば重心、円や楕円の中心など)を、患部位置(u,v)と推定してもよい。この場合、位置推定部114により推定される患部位置(u,v)は、例えば式(5)で表される。
(Estimation process C)
The position estimating unit 114, a center of the local region sum of the affected probability l (u, v) is the largest in the local area (e.g. the center of gravity of a circle or ellipse center, etc.), the affected area position (u t, v t ). In this case, the affected part position (u t , v t ) estimated by the position estimation unit 114 is expressed by, for example, Expression (5).

Figure 2016221100
Figure 2016221100

なお、(推定処理A)から(推定処理C)として例示した処理の内容は、あくまで一例であり、位置推定部114は、同様の性質を有するその他の処理を行ってもよい。以下同様とする。   Note that the contents of the processes exemplified as (estimation process A) to (estimation process C) are merely examples, and the position estimation unit 114 may perform other processes having similar properties. The same shall apply hereinafter.

図6は、第1の実施形態に係る医用画像処理装置100により実行される処理の内容の一例を示すフローチャートである。本フローチャートは、図5に例示した処理が行われる場合の処理の流れを示している。   FIG. 6 is a flowchart illustrating an example of the content of processing executed by the medical image processing apparatus 100 according to the first embodiment. This flowchart shows the flow of processing when the processing illustrated in FIG. 5 is performed.

まず、対応情報取得部116が、これから患部位置を推定する対象の被検体についての対応情報を取得する(ステップS200)。   First, the correspondence information acquisition unit 116 acquires correspondence information about a subject whose target position is to be estimated from now on (step S200).

次に、画像取得部110が、動画像として入力される画像から1フレームの画像を取得し(ステップS202)、画像特徴導出部112が、対象領域OAの位置を初期設定する(ステップS204)。対象領域OAは、図5で示すように、例えば、走査領域SAのうち最も左上の領域を初期領域として設定される。   Next, the image acquisition unit 110 acquires an image of one frame from an image input as a moving image (step S202), and the image feature deriving unit 112 initializes the position of the target area OA (step S204). As shown in FIG. 5, for example, the upper left area of the scanning area SA is set as the initial area of the target area OA.

次に、画像特徴導出部112が、対象領域OAについて画像特徴→xを導出し(ステップS206)、位置推定部114が、画像特徴→xに基づいて患部確率l(u,v)を導出する(ステップS208)。そして、画像特徴導出部112が、走査領域SA内で設定可能な全ての対象領域OAについて画像特徴導出部112および位置推定部114が処理を完了したか否かを判定する(ステップS210)。全ての対象領域OAについて処理を完了していない場合、画像特徴導出部112が、対象領域OAの位置を変更し(ステップS212)、ステップS206に処理を戻す。画像特徴導出部112は、図5で示すように、画像の横方向に所定幅ずつ順に対象領域OAの位置を設定し、走査領域SAの右端に達した場合に、画像の縦方向に所定幅下げた走査領域SAの左端の位置に対象領域OAの位置を設定することを繰り返し実行する。対象領域OAが走査領域SAの最も右下の位置に到達した場合、ステップS210において「全ての対象領域OAについて処理を完了した」と判定される。   Next, the image feature deriving unit 112 derives the image feature → x for the target area OA (step S206), and the position estimating unit 114 derives the affected area probability l (u, v) based on the image feature → x. (Step S208). Then, the image feature deriving unit 112 determines whether or not the image feature deriving unit 112 and the position estimating unit 114 have completed the processing for all target areas OA that can be set in the scanning area SA (step S210). If the processing has not been completed for all target areas OA, the image feature deriving unit 112 changes the position of the target area OA (step S212), and returns the process to step S206. As shown in FIG. 5, the image feature deriving unit 112 sets the position of the target area OA in order by a predetermined width in the horizontal direction of the image, and when reaching the right end of the scanning area SA, the image feature deriving unit 112 has a predetermined width in the vertical direction of the image. Repeatedly setting the position of the target area OA at the left end position of the lowered scanning area SA. When the target area OA has reached the lowermost right position of the scanning area SA, it is determined in step S210 that “the process has been completed for all target areas OA”.

ステップS210において全ての対象領域OAについて処理を完了したと判定された場合、位置推定部114が、複数回に亘ってステップS208で導出した患部確率l(u,v)の分布から患部位置を推定する(ステップS214)。具体的には、位置推定部114は、上記例示した(推定処理A)から(推定処理C)のいずれかの処理によって被検体の患部位置を推定する。   When it is determined in step S210 that the processing has been completed for all target areas OA, the position estimation unit 114 estimates the affected part position from the distribution of the affected part probability l (u, v) derived in step S208 over a plurality of times. (Step S214). Specifically, the position estimation unit 114 estimates the position of the affected part of the subject by any one of the above-exemplified (estimation process A) to (estimation process C).

次に、出力部118が、位置推定部114により推定された被検体の患部位置を出力する(ステップS216)。そして、動画像の供給が停止したり、利用者によって終了操作がなされた場合に、本フローチャートの処理が終了する(ステップS218)。利用者とは、医師や診療放射線技師など、医用画像処理装置100を利用する者である。動画像の供給が継続している間、終了操作がなされるまで、ステップS202〜S216の処理が繰り返し実行される。   Next, the output unit 118 outputs the affected part position of the subject estimated by the position estimation unit 114 (step S216). Then, when the supply of the moving image is stopped or an end operation is performed by the user, the process of this flowchart ends (step S218). The user is a person who uses the medical image processing apparatus 100 such as a doctor or a medical radiographer. While the supply of moving images continues, the processes in steps S202 to S216 are repeatedly executed until an end operation is performed.

なお、関数fが、一つの対象領域OAに対して複数の位置に対応した患部確率l(u,v)を導出する場合、複数の位置に対応した患部確率l(u,v)に対して上記例示した(推定処理A)から(推定処理C)のうちいずれかの処理を行って、被検体の患部位置を推定してもよい。図7は、第1の実施形態に係る医用画像処理装置100により実行される処理の内容の他の例を示すフローチャートである。本フローチャートは、関数fが、一つの対象領域OAに対して複数の位置に対応した患部確率l(u,v)を導出する場合の処理の流れを示している。   When the function f derives the affected area probability l (u, v) corresponding to a plurality of positions for one target area OA, the affected area probability l (u, v) corresponding to the plurality of positions is calculated. The affected part position of the subject may be estimated by performing any one of the above-exemplified (estimation process A) to (estimation process C). FIG. 7 is a flowchart illustrating another example of the content of processing executed by the medical image processing apparatus 100 according to the first embodiment. This flowchart shows a process flow when the function f derives the affected area probability l (u, v) corresponding to a plurality of positions for one target area OA.

まず、対応情報取得部116が、これから患部位置を推定する対象の被検体についての対応情報を取得する(ステップS300)。   First, the correspondence information acquisition unit 116 acquires correspondence information about a subject whose target position is to be estimated (step S300).

次に、画像取得部110が、動画像として入力される画像から1フレームの画像を取得し(ステップS302)、画像特徴導出部112が、対象領域OAについて画像特徴→xを導出し(ステップS304)、位置推定部114が、画像特徴→xに基づいて複数の位置に対応した患部確率l(u,v)を導出する(ステップS306)。そして、位置推定部114が、ステップS306で導出した患部確率l(u,v)の分布から患部位置を推定する(ステップS308)。具体的には、位置推定部114は、上記例示した(推定処理A)から(推定処理C)のいずれかの処理によって被検体の患部位置を推定する。   Next, the image acquisition unit 110 acquires an image of one frame from the image input as a moving image (step S302), and the image feature deriving unit 112 derives the image feature → x for the target area OA (step S304). ), The position estimation unit 114 derives an affected area probability l (u, v) corresponding to a plurality of positions based on the image feature → x (step S306). Then, the position estimation unit 114 estimates the affected part position from the distribution of the affected part probability l (u, v) derived in step S306 (step S308). Specifically, the position estimation unit 114 estimates the position of the affected part of the subject by any one of the above-exemplified (estimation process A) to (estimation process C).

次に、出力部118が、位置推定部114により推定された被検体の患部位置を出力する(ステップS310)。そして、動画像の供給が停止したり、利用者によって終了操作がなされた場合に、本フローチャートの処理が終了する(ステップS312)。動画像の供給が継続している間、終了操作がなされるまで、ステップS302〜S310の処理が繰り返し実行される。   Next, the output unit 118 outputs the affected part position of the subject estimated by the position estimation unit 114 (step S310). Then, when the supply of moving images is stopped or an end operation is performed by the user, the processing of this flowchart ends (step S312). While the supply of moving images continues, the processes in steps S302 to S310 are repeatedly executed until an end operation is performed.

[対応情報が複数の関数を含む場合の処理]
対応情報取得部116により取得される対応情報150は、関数fを一つのみ含むのではなく、複数の関数fを含んでもよい。対応情報150が複数の関数fを含む場合、画像特徴導出部112および位置推定部114は、例えば以下に示す処理を行う。
[Processing when the correspondence information includes multiple functions]
The correspondence information 150 acquired by the correspondence information acquisition unit 116 may include a plurality of functions f instead of including only one function f. When the correspondence information 150 includes a plurality of functions f, the image feature deriving unit 112 and the position estimating unit 114 perform the following processing, for example.

図8は、画像特徴導出部112および位置推定部114による処理の内容の一例を示す図である。ここでは、二つの関数f、fは、それぞれ、例えば0から1までの連続値で確率を表した患部確率l(u,v)、l(u,v)を導出するものとする。また、関数f、fは、それぞれ、一つの対象領域OAに対して複数の患部確率l(u,v)、l(u,v)を導出するものとする(図3を参照)。図8の左図は、入力画像IMにおいて複数の対象領域OA、OAが設定される様子を示している。図8の右図は、対象領域OAから導出される画像特徴→xに関数fを適用することで求められる患部確率と、対象領域OAから導出される画像特徴→xに関数fを適用することで求められる患部確率とが重ね合わされた患部確率l(u,v)の分布を示している。 FIG. 8 is a diagram illustrating an example of the contents of processing performed by the image feature deriving unit 112 and the position estimating unit 114. Here, the two functions f 1 and f 2 respectively derive the affected area probabilities l 1 (u, v) and l 2 (u, v) representing the probabilities with continuous values from 0 to 1, for example. To do. Further, the functions f 1 and f 2 respectively derive a plurality of affected area probabilities l 1 (u, v) and l 2 (u, v) for one target area OA (see FIG. 3). ). The left diagram in FIG. 8 illustrates a state in which a plurality of target areas OA 1 and OA 2 are set in the input image IM. The right diagram in FIG. 8 shows the image feature derived from the target area OA 1 → the affected area probability obtained by applying the function f 1 to x 1 and the image characteristic derived from the target area OA 2 → the function to x 2 . The distribution of the affected area probability l (u, v) obtained by superimposing the affected area probability obtained by applying f 2 is shown.

画像特徴導出部112は、入力画像IMにおいて予め設定されている関数f用の対象領域OAについて画像特徴→xを導出すると共に、関数f用の対象領域OAについて画像特徴→xを導出する。位置推定部114は、対象領域OAについての画像特徴→xに基づいて患部確率l(u,v)を導出すると共に、対象領域OAについての画像特徴→xに基づいて患部確率l(u,v)を導出する。そして、位置推定部114は、患部確率l(u,v)と患部確率l(u,v)を重ね合わせて患部確率l(u,v)を導出する。以下、その重ね合わせ処理について例示する。 The image feature deriving unit 112 derives the image feature → x 1 for the target area OA 1 for the function f 1 that is set in advance in the input image IM, and also sets the image feature for the target area OA 2 for the function f 2 → x 2 is derived. The position estimation unit 114 derives the affected area probability l 1 (u, v) based on the image feature for the target area OA 1 → x 1 and also determines the affected area probability based on the image feature for the target area OA 2 → x 2. l 2 (u, v) is derived. Then, the position estimation unit 114 derives the affected part probability l (u, v) by superposing the affected part probability l 1 (u, v) and the affected part probability l 2 (u, v). Hereinafter, the overlay process will be exemplified.

(重ね合わせ処理D)
位置推定部114は、例えば、患部確率l(u,v)から患部確率l(u,v)の和(nは任意の自然数であり、関数の識別子である)を求めることで、重ね合わされた患部確率l(u,v)を導出する。この場合の重ね合わされた患部確率l(u,v)は、例えば式(6)で表される。式中、δはクロネッカーのデルタである。
(Superposition processing D)
For example, the position estimation unit 114 performs superimposition by obtaining the sum of the affected area probabilities l 1 (u, v) to the affected area probabilities l n (u, v) (n is an arbitrary natural number and is an identifier of a function). The affected part probability l (u, v) is derived. In this case, the overlapped disease part probability l (u, v) is expressed by, for example, Expression (6). Where δ is the Kronecker delta.

Figure 2016221100
Figure 2016221100

(重ね合わせ処理E)
また、位置推定部114は、患部確率l(u,v)から患部確率l(u,v)の積を求めることで、重ね合わされた患部確率l(u,v)を導出してもよい。この場合の重ね合わされた患部確率l(u,v)は、例えば式(7)で表される。
(Overlay process E)
The position estimating unit 114, the affected area probability l 1 (u, v) from by obtaining the product of the affected area probability l n (u, v), superimposed diseased probability l (u, v) be derived the Good. In this case, the overlapped disease part probability l (u, v) is expressed by, for example, Expression (7).

Figure 2016221100
Figure 2016221100

(重ね合わせ処理F)
また、位置推定部114は、カーネル密度推定によって、患部確率l(u,v)から患部確率l(u,v)を重ね合わせた患部確率l(u,v)を導出してもよい。この場合の重ね合わされた患部確率l(u,v)は、例えば式(8)で表される。式中、Kはカーネル関数であり、hはバンド幅であり、Zは標本数とバンド幅の積である。
(Overlay process F)
Further, the position estimation unit 114 may derive an affected area probability l (u, v) obtained by superimposing the affected area probability l n (u, v) from the affected area probability l 1 (u, v) by kernel density estimation. . In this case, the overlapped disease part probability l (u, v) is expressed by, for example, Expression (8). In the equation, K is a kernel function, h is a bandwidth, and Z is a product of the number of samples and the bandwidth.

Figure 2016221100
Figure 2016221100

更に、位置推定部114は、上記例示した(重ね合わせ処理D)から(重ね合わせ処理F)のうちいずれかの処理によって重ね合わせた患部確率l(u,v)に対して、上記例示した(推定処理A)から(推定処理C)のうちいずれかの処理を行って、患部位置(u,v)を推定する。 Furthermore, the position estimation unit 114 exemplifies the above for the affected part probability l (u, v) superimposed by any one of the above-exemplified (superimposition processing D) to (superimposition processing F) ( Any one of the estimation processes A) to (estimation process C) is performed to estimate the affected area position (u t , v t ).

なお、(重ね合わせ処理D)から(重ね合わせ処理F)として例示した処理の内容は、あくまで一例であり、位置推定部114は、同様の性質を有するその他の処理を行ってもよい。以下同様とする。   Note that the contents of the processes exemplified as (superimposition process D) to (superimposition process F) are merely examples, and the position estimation unit 114 may perform other processes having similar properties. The same shall apply hereinafter.

また、対応情報取得部116により取得される対応情報150が複数の関数fを含む場合においても、画像特徴導出部112および位置推定部114は、図5に示すように、走査領域SA内で対象領域OAを変えながら処理を行ってもよい。この場合も位置推定部114は、上記と同様に、複数の関数fによりそれぞれ導出される患部確率を重ね合わせる処理を行う。   Further, even when the correspondence information 150 acquired by the correspondence information acquisition unit 116 includes a plurality of functions f, the image feature deriving unit 112 and the position estimation unit 114 are within the scanning area SA as shown in FIG. Processing may be performed while changing the area OA. Also in this case, the position estimation unit 114 performs a process of superimposing the affected area probabilities derived by the plurality of functions f in the same manner as described above.

以上説明した本実施形態の医用画像処理装置100によれば、透視画像の一部または全部である対象領域OAについて画像特徴を導出し、画像特徴と探索部位の位置との対応関係を示す対応情報150に基づいて、導出された画像特徴から透視画像における被検体の患部の位置を推定することで、より正確に患部の位置を推定することができる。この結果、画像を用いた放射線などによる治療の信頼性を向上させることができる。   According to the medical image processing apparatus 100 of the present embodiment described above, the image information is derived for the target area OA that is a part or all of the fluoroscopic image, and the correspondence information indicating the correspondence between the image feature and the position of the search part. Based on 150, the position of the affected part of the subject in the fluoroscopic image is estimated from the derived image feature, so that the position of the affected part can be estimated more accurately. As a result, it is possible to improve the reliability of treatment with radiation using an image.

<第2の実施形態>
以下、第2の実施形態に係る医用画像処理装置100Aについて説明する。図9は、第2の実施形態に係る医用画像処理装置100Aの機能構成例を示す図である。第2の実施形態に係る医用画像処理装置100Aは、第1の実施形態に係る医用画像処理装置100と比較すると、対応情報学習部120と、入力部122とを更に備える点で相違する。以下、第1の実施形態との共通点については同じ符号を付して説明を省略し、相違点を中心に説明する。
<Second Embodiment>
Hereinafter, the medical image processing apparatus 100A according to the second embodiment will be described. FIG. 9 is a diagram illustrating a functional configuration example of the medical image processing apparatus 100A according to the second embodiment. The medical image processing apparatus 100A according to the second embodiment is different from the medical image processing apparatus 100 according to the first embodiment in that it further includes a correspondence information learning unit 120 and an input unit 122. Hereinafter, the same points as those in the first embodiment will be denoted by the same reference numerals, description thereof will be omitted, and differences will be mainly described.

対応情報学習部120は、医用画像処理装置100Aに入力される学習用画像に基づいて、対応情報150を学習する。学習用画像は、例えば、治療計画用の3DCT画像から生成されるDRRである。DRRの画角は、入力画像IMである透視画像と一致するように、予め計算されている。詳しくは、治療システムのところで説明する。   The correspondence information learning unit 120 learns the correspondence information 150 based on the learning image input to the medical image processing apparatus 100A. The learning image is, for example, a DRR generated from a 3DCT image for treatment planning. The angle of view of the DRR is calculated in advance so as to coincide with the fluoroscopic image that is the input image IM. Details will be described in the treatment system.

入力部122は、例えば、キーボードやマウス、タッチパネル、タッチパッド、ラジオボタンなどの入力デバイスを含む。   The input unit 122 includes input devices such as a keyboard, a mouse, a touch panel, a touch pad, and a radio button.

図10は、第2の実施形態に係る医用画像処理装置100Aにより実行される処理の流れの一例を示すフローチャートである。まず、対応情報学習部120は、学習用画像における患部位置を特定する(ステップS400)。患部位置は、例えば学習用画像を表示装置に表示させながら、利用者による入力部122に対する入力操作を受け付けることで特定される。なお、DRRにおける患部位置は、予め特定されている場合もあるし、対応情報学習部120が学習用画像を解析して患部位置を自動的に特定してもよい。   FIG. 10 is a flowchart illustrating an example of a flow of processing executed by the medical image processing apparatus 100A according to the second embodiment. First, the correspondence information learning unit 120 specifies the affected part position in the learning image (step S400). The affected part position is specified by receiving an input operation on the input unit 122 by the user while displaying a learning image on the display device, for example. The affected part position in the DRR may be specified in advance, or the correspondence information learning unit 120 may automatically specify the affected part position by analyzing the learning image.

次に、対応情報学習部120は、学習用画像において、画像特徴を導出する対象領域を決定する(ステップS402)。対象領域は、患部位置と同様、例えば学習用画像を表示装置に表示させながら、利用者による入力部122に対する入力操作を受け付けることで特定される。対象領域は、患部を含むように設定されてもよいし、患部を含まないが画像特徴が顕著に現れる位置(例えば骨や筋肉など)を含むように設定されてもよい。また、このような特徴を有する位置を、対応情報学習部120が自動的に選択してもよい。   Next, the correspondence information learning unit 120 determines a target region from which an image feature is derived in the learning image (step S402). The target area is specified by accepting an input operation on the input unit 122 by the user while displaying a learning image on the display device, for example, similarly to the affected part position. The target area may be set so as to include the affected part, or may be set so as to include a position (for example, a bone or muscle) where the image feature appears notably although the affected part is not included. Further, the correspondence information learning unit 120 may automatically select a position having such characteristics.

図11は、利用者による入力操作によって患部位置と対象領域が指定される際の表示画面を示す図である。図11の左図は患部位置の指定画面であり、図11の右図は対象領域の指定画面である。まず、患部位置の指定画面において、患部位置TPがマウス操作やタッチ操作などによって指定される。そして、確定ボタンB1が操作されると、図11の右図に示す対象領域の指定画面に遷移する。対象領域の指定画面において、例えばマウス操作やタッチパネルに対するスライド操作などによって、対角にある二つのコーナーC1およびC2が指定されると、指定されたコーナーに基づいて対象領域OAが重畳表示される。そして、確定ボタンB1が操作されると、患部位置TPと対象領域OAの指定が終了する。なお、「患部位置は対象領域の中心」というような規則が適用される場合、図11の右図では一つのコーナーを指定すれば、他のコーナーは指定されたコーナーと患部位置から算出されるため、対象領域OAの指定が完了する。更に、対象領域OAのサイズが固定である場合、患部位置TPが指定されると対象領域OAは自動的に決定されるため、図11の右図は表示されない。また、ボタンB2が操作されると、学習用画像全体が対象領域として指定される。   FIG. 11 is a diagram illustrating a display screen when an affected area position and a target area are designated by an input operation by a user. The left diagram in FIG. 11 is an affected area position designation screen, and the right diagram in FIG. 11 is a target area designation screen. First, the affected part position TP is designated by a mouse operation or a touch operation on the affected part position designation screen. Then, when the confirm button B1 is operated, a transition is made to the target area designation screen shown in the right diagram of FIG. On the target area designation screen, when two corners C1 and C2 on the opposite side are designated by, for example, a mouse operation or a slide operation on the touch panel, the target area OA is superimposed and displayed based on the designated corner. When the confirmation button B1 is operated, the specification of the affected part position TP and the target area OA is completed. When a rule such as “the affected part position is the center of the target area” is applied, if one corner is designated in the right diagram of FIG. 11, the other corners are calculated from the designated corner and the affected part position. Therefore, the designation of the target area OA is completed. Furthermore, when the size of the target area OA is fixed, the target area OA is automatically determined when the affected part position TP is designated, and therefore the right diagram of FIG. 11 is not displayed. When the button B2 is operated, the entire learning image is designated as the target area.

次に、対応情報学習部120は、対象領域における画像特徴を導出する(ステップS404)。係る処理は、対応情報学習部120の処理として実行されてもよいし、画像特徴導出部112をサブルーチンなどとして呼び出すことで実行されてもよい。   Next, the correspondence information learning unit 120 derives an image feature in the target region (step S404). Such processing may be executed as processing of the correspondence information learning unit 120, or may be executed by calling the image feature deriving unit 112 as a subroutine or the like.

次に、対応情報学習部120は、患部位置、対象領域の位置、および画像特徴に基づいて、対応情報150を構築する(ステップS406)。図12は、対応情報150が構築される様子を模式的に示す図である。対応情報150である関数fは、対象領域の画像特徴、対象領域の位置情報(例えば左上座標と右下座標)、および患部位置に基づいて、対象領域の画像特徴、対象領域と患部位置との相対位置関係、および画像特徴に対する規則を構成要素として基づいて構築される。画像特徴に対する規則とは、前述したように、配列間の相関係数やフィッティング率などの指標、あるいはこれらの指標を閾値と比較して離散化した値を出力するといった規則である。なお、画像特徴に対する規則が一律に決定されるという前提であれば、画像特徴に対する規則は、関数fの構成要素から省略されてもよい。また、患部位置が対象領域の重心に固定される前提の下では、対象領域の位置と患部位置との相対位置関係の情報は、関数fの構成要素から省略されてもよい。   Next, the correspondence information learning unit 120 constructs the correspondence information 150 based on the affected part position, the position of the target region, and the image feature (step S406). FIG. 12 is a diagram schematically showing how the correspondence information 150 is constructed. The function f as the correspondence information 150 is based on the image feature of the target area, the position information of the target area (for example, the upper left coordinates and the lower right coordinates), and the affected area position, and the image feature of the target area, the target area and the affected area position. The relative positional relationship and the rule for the image feature are constructed based on the constituent elements. As described above, the rule for the image feature is a rule that outputs an index such as a correlation coefficient between arrays or a fitting rate, or a value obtained by discretizing these indices with a threshold value. Note that the rule for the image feature may be omitted from the component of the function f as long as the rule for the image feature is determined uniformly. Also, on the assumption that the affected part position is fixed to the center of gravity of the target area, information on the relative positional relationship between the position of the target area and the affected part position may be omitted from the component of the function f.

以上説明した第2の実施形態に係る医用画像処理装置100Aによれば、DRRなどの学習用画像における対象領域OAの画像特徴と、学習用画像において特定された被検体の患部の位置とに基づいて、対応情報150を学習することにより、一人一人の被検体(患者)に適合した対応情報150を使用することができる。これによって、利便性を向上させると共に、画像を用いた放射線などによる治療の信頼性を更に向上させることができる。   According to the medical image processing apparatus 100A according to the second embodiment described above, based on the image feature of the target area OA in the learning image such as DRR and the position of the affected part of the subject specified in the learning image. Thus, by learning the correspondence information 150, the correspondence information 150 suitable for each subject (patient) can be used. This improves convenience and further improves the reliability of treatment with radiation using an image.

なお、上記第1の実施形態に係る医用画像処理装置100、または第2の実施形態に係る医用画像処理装置100Aは、呼吸位相を入力パラメータとする関数fを対応情報150として使用してもよい(式(9)参照)。式中、bは呼吸位相である。また、この前提において第2の実施形態に係る医用画像処理装置100Aは、呼吸位相毎に画像特徴と患部位置との対応情報150を学習する処理を行ってよい。   The medical image processing apparatus 100 according to the first embodiment or the medical image processing apparatus 100A according to the second embodiment may use the function f having the respiratory phase as an input parameter as the correspondence information 150. (See equation (9)). Where b is the respiratory phase. Under this assumption, the medical image processing apparatus 100A according to the second embodiment may perform processing for learning the correspondence information 150 between the image feature and the affected part position for each respiratory phase.

f(→x,b)=l(u,v) …(9) f (→ x, b) = l b (u, v) (9)

<<治療システム>>
以下、上記第2の実施形態に係る医用画像処理装置100Aの適用例について説明する。図13は、治療装置10および医用画像処理装置100Aを含む治療システム1の構成例を示す図である。
<< Treatment system >>
Hereinafter, an application example of the medical image processing apparatus 100A according to the second embodiment will be described. FIG. 13 is a diagram illustrating a configuration example of the treatment system 1 including the treatment device 10 and the medical image processing device 100A.

[治療装置]
治療装置10は、例えば、寝台11と、放射線源12−1、12−2と、放射線検出器13−1、13−2と、照射門(照射部)14と、制御部15と、入力部16と、表示部17とを備える。以下、符号におけるハイフンおよびこれに続く数字は、いずれの放射線源および放射線検出器の組による透視用の放射線、或いは透視画像であるかを示すものとする。
[Treatment device]
The treatment apparatus 10 includes, for example, a bed 11, radiation sources 12-1 and 12-2, radiation detectors 13-1 and 13-2, an irradiation gate (irradiation unit) 14, a control unit 15, and an input unit. 16 and a display unit 17. Hereinafter, the hyphen in the reference numeral and the number following it indicate which radiation source and radiation detector pair is a radiation for fluoroscopy or a fluoroscopic image.

寝台11には、治療を受ける被検体Pが固定される。放射線源12−1は、被検体Pに対して透視用の放射線r−1を照射する。放射線源12−2は、放射線源12−1とは異なる角度から、被検体Pに対して透視用の放射線r−2を照射する。透視用の放射線r−1およびr−2は、例えばX線である。   A subject P to be treated is fixed on the bed 11. The radiation source 12-1 irradiates the subject P with fluoroscopy radiation r-1. The radiation source 12-2 irradiates the subject P with radiation r-2 for fluoroscopy from an angle different from that of the radiation source 12-1. The radiations r-1 and r-2 for fluoroscopy are, for example, X-rays.

透視用の放射線r−1は放射線検出器13−1によって検出され、透視用の放射線r−2は放射線検出器13−2によって検出される。放射線検出器13−1および13−2は、例えばフラット・パネル・ディテクタ(FPD;Flat Panel Detector)、イメージインテンシファイア、またはカラーイメージインテンシファイアなどである。放射線検出器13−1は、放射線r−1のエネルギーを検出してデジタル変換し、透視画像TI−1として医用画像処理装置100に出力する。放射線検出器13−2は、放射線r−2のエネルギーを検出してデジタル変換し、透視画像TI−2として医用画像処理装置100に出力する。図13では、2組の放射線源および放射線検出器を示したが、治療装置10は、3組以上の放射線源および放射線検出器を備えてもよい。   The fluoroscopy radiation r-1 is detected by the radiation detector 13-1, and the fluoroscopy radiation r-2 is detected by the radiation detector 13-2. The radiation detectors 13-1 and 13-2 are, for example, a flat panel detector (FPD), an image intensifier, or a color image intensifier. The radiation detector 13-1 detects and converts the energy of the radiation r-1 into a digital image, and outputs it as a fluoroscopic image TI-1 to the medical image processing apparatus 100. The radiation detector 13-2 detects the energy of the radiation r-2, digitally converts it, and outputs it as a fluoroscopic image TI-2 to the medical image processing apparatus 100. Although two sets of radiation sources and radiation detectors are shown in FIG. 13, the treatment apparatus 10 may include three or more sets of radiation sources and radiation detectors.

照射門14は、治療段階において、被検体Pに対して治療ビームBを照射する。治療ビームBには、例えば、X線、γ線、電子線、陽子線、中性子線、重粒子線などが含まれる。図13では、1つの照射門14のみ示したが、治療装置10は複数の照射門を備えてもよい。図13では、被検体Pの垂直方向に照射門がある場合を示したが、治療装置10は被検体Pの水平方向に照射門を備えてもよい。   The irradiation gate 14 irradiates the subject P with the treatment beam B in the treatment stage. The therapeutic beam B includes, for example, X-rays, γ-rays, electron beams, proton beams, neutron beams, heavy particle beams, and the like. Although only one irradiation gate 14 is shown in FIG. 13, the treatment apparatus 10 may include a plurality of irradiation gates. Although FIG. 13 illustrates the case where the irradiation gate is in the vertical direction of the subject P, the treatment apparatus 10 may include the irradiation gate in the horizontal direction of the subject P.

制御部15は、例えば、治療装置10が設置される治療室内に置かれるコンピュータ装置により実現される。制御部15は、治療計画に応じて、透視用の放射線r−1およびr−2の照射を行うように放射線源12−1および12−2を制御する。入力部16は、例えば専用キーやダイヤル、タッチパネル、汎用キーボード、マウスなどの入力デバイスである。また、制御部15は、治療段階において、治療計画に基づいて治療ビームBの照射を行うように照射門14を制御する。表示部17は、医用画像処理装置100から送られる画像などを表示する。   The control unit 15 is realized by, for example, a computer device placed in a treatment room where the treatment device 10 is installed. The control unit 15 controls the radiation sources 12-1 and 12-2 so as to emit the radiations r-1 and r-2 for fluoroscopy according to the treatment plan. The input unit 16 is an input device such as a dedicated key, dial, touch panel, general-purpose keyboard, or mouse. In addition, the control unit 15 controls the irradiation gate 14 so as to irradiate the treatment beam B based on the treatment plan in the treatment stage. The display unit 17 displays an image sent from the medical image processing apparatus 100.

[医用画像処理装置]
以下、医用画像処理装置100Aの適用例について説明する。医用画像処理装置100Aは、例えば、レジストレーション部102と、DRR生成部104と、患部位置計算部106と、画像取得部110−1、110−2と、画像特徴導出部112−1、112−2と、位置推定部114−1、114−2と、出力部118と、対応情報学習部120−1、120−2と、入力部122とを備える。なお、図13では、対応情報取得部116については位置推定部114の一機能であるものとして図示を省略している。
[Medical image processing device]
Hereinafter, application examples of the medical image processing apparatus 100A will be described. The medical image processing apparatus 100A includes, for example, a registration unit 102, a DRR generation unit 104, an affected part position calculation unit 106, image acquisition units 110-1 and 110-2, and image feature derivation units 112-1 and 112-. 2, position estimation units 114-1 and 114-2, an output unit 118, correspondence information learning units 120-1 and 120-2, and an input unit 122. In FIG. 13, the correspondence information acquisition unit 116 is not shown because it is a function of the position estimation unit 114.

画像取得部110−1、110−2、画像特徴導出部112−1、112−2、位置推定部114−1、114−2、および対応情報学習部120−1、120−2は、第1または第2の実施形態において説明した各機能ブロックを、二系統で入力される透視画像TI−1およびTI−2にそれぞれ対応するものとして表現した機能ブロックであり、基本的な機能は第1または第2の実施形態で説明した通りである。従って、これらの機能ブロックの機能について再度の説明は省略する。   The image acquisition units 110-1 and 110-2, the image feature derivation units 112-1 and 112-2, the position estimation units 114-1 and 114-2, and the correspondence information learning units 120-1 and 120-2 Alternatively, each functional block described in the second embodiment is a functional block expressed as corresponding to the perspective images TI-1 and TI-2 input in two systems, and the basic function is the first or This is as described in the second embodiment. Therefore, the description of the function of these functional blocks is omitted.

医用画像処理装置100Aは、対応情報150と、計画データ152とを保持している。対応情報150および計画データ152は、RAMやHDD、フラッシュメモリなどの記憶装置により記憶される。   The medical image processing apparatus 100 </ b> A holds correspondence information 150 and plan data 152. The correspondence information 150 and the plan data 152 are stored in a storage device such as a RAM, an HDD, or a flash memory.

以下、医用画像処理装置100Aの各機能部について、治療の流れを参照しつつ説明する。図14は、治療システム1を利用して行われる治療の流れの一例を示すフローチャートである。   Hereinafter, each functional unit of the medical image processing apparatus 100A will be described with reference to the flow of treatment. FIG. 14 is a flowchart illustrating an example of a flow of treatment performed using the treatment system 1.

まず、治療が行われる前(例えば1週間程度前)に、治療計画が立てられる(ステップS500)。これについては図15を参照して説明する。図15は、治療計画の流れの一例を示すフローチャートである。   First, a treatment plan is made before treatment is performed (for example, about one week before) (step S500). This will be described with reference to FIG. FIG. 15 is a flowchart illustrating an example of the flow of a treatment plan.

治療計画段階において、まず、被検体Pの4DCT撮影が行われる(ステップS502)。次に、4DCT画像を計画データ152として記憶装置に記憶させる(ステップS504)。4DCT画像は、3次元ボリュームデータであるCT画像を時系列にn個並べたものである。このn個および時系列画像の時間間隔を乗算して求められる期間は、例えば、呼吸位相が1周期分変化する期間をカバーするように設定される。例えば、n=10である。なお、治療計画段階において用いられる画像は、4DCT画像に限られず、他の3次元ボリュームデータの動画を用いてもよい。例えば、磁気共鳴画像(MRI:Magnetic Resonance Imaging)の動画でもよい。   In the treatment planning stage, first, 4DCT imaging of the subject P is performed (step S502). Next, the 4DCT image is stored in the storage device as the plan data 152 (step S504). The 4DCT image is obtained by arranging n CT images that are three-dimensional volume data in time series. The period obtained by multiplying the time intervals of the n images and time-series images is set to cover a period in which the respiratory phase changes by one cycle, for example. For example, n = 10. The image used in the treatment planning stage is not limited to the 4DCT image, and a moving image of other three-dimensional volume data may be used. For example, it may be a moving image of magnetic resonance imaging (MRI).

次に、n個のCT画像のうち、例えば1つのCT画像を表示し、そのCT画像に対して、利用者による患部の輪郭の入力を受け付ける(ステップS506)。本ステップにおいて、医用画像処理装置100Aは、被検体Pが息を吐いた状態のCT画像における断面像を表示装置により表示する。利用者は、表示する断面を変化させながら、患部である腫瘍の輪郭や治療ビームBを照射したくない臓器の輪郭などを、入力部122を用いて入力する。   Next, of the n CT images, for example, one CT image is displayed, and the input of the contour of the affected part by the user is accepted for the CT image (step S506). In this step, the medical image processing apparatus 100A displays a cross-sectional image in the CT image in a state where the subject P exhales on the display device. Using the input unit 122, the user inputs the outline of the tumor that is the affected area, the outline of the organ that the treatment beam B is not desired to be irradiated, and the like while changing the displayed cross section.

次に、医用画像処理装置100Aは、輪郭情報を生成し、計画データ152の一部として記憶装置に記憶させる(ステップS508)。本ステップにおいて、医用画像処理装置100Aは、ステップS506で利用者が輪郭を入力したCT画像以外の(n−1)個のCT画像それぞれに対する輪郭をデフォーマブルレジストレーションによって設定する。図13において、デフォーマブルレジストレーションを実行するブロックの図示は省略している。   Next, the medical image processing apparatus 100A generates contour information and stores it in the storage device as part of the plan data 152 (step S508). In this step, the medical image processing apparatus 100A sets the contour for each of (n−1) CT images other than the CT image to which the user has input the contour in step S506 by deformable registration. In FIG. 13, illustration of a block for performing deformable registration is omitted.

次に、医用画像処理装置100Aにおいて、治療計画が立案される(ステップS510)。具体的には、ステップS506、S508において入力、生成された輪郭情報に基づいて、患部がどの位置にあるときに、どこに、どの方向から、どれだけの治療ビームBを照射するかが、ゲーテッド照射法や追尾照射法などの治療法に基づいて計画される。この計画は、医用画像処理装置100Aに記憶された治療計画プログラムによって立案される。立案された計画は、表示装置により表示され、利用者によって確認される。治療計画の情報は、例えば、治療装置10の制御部15が有する記憶部などに記憶される。図13において、計画を立案するブロックの図示は省略している。   Next, in the medical image processing apparatus 100A, a treatment plan is drawn up (step S510). Specifically, based on the contour information input and generated in steps S506 and S508, when the affected part is in which position, where and from which direction how much treatment beam B is irradiated, gated irradiation. Is planned based on therapies and treatment methods such as tracking irradiation. This plan is made by a treatment plan program stored in the medical image processing apparatus 100A. The planned plan is displayed on the display device and confirmed by the user. The treatment plan information is stored in, for example, a storage unit included in the control unit 15 of the treatment apparatus 10. In FIG. 13, illustration of a block for creating a plan is omitted.

なお、図15のフローチャートにおいて、医用画像処理装置100Aが実行する処理として説明した各種処理の一部は、外部装置によって実行されてもよい。例えば、CT画像の断面像を表示する処理や、患部の輪郭に関する利用者の入力を受理する処理、デフォーマブルレジストレーションを実行する処理、治療計画を立案する処理などは、医用画像処理装置100Aの外部の治療計画装置によって実行されてもよい。   In the flowchart of FIG. 15, some of the various processes described as the processes executed by the medical image processing apparatus 100A may be executed by an external apparatus. For example, a process of displaying a cross-sectional image of a CT image, a process of accepting a user input related to the contour of an affected area, a process of executing deformable registration, a process of creating a treatment plan, and the like are performed by the medical image processing apparatus 100A. It may be performed by an external treatment planning device.

治療計画が立てられると、医用画像処理装置100Aは、被検体Pの対象領域における画像特徴と、患部位置との対応関係を学習する学習処理を行う(ステップS600)。学習処理は、例えば、ステップS500の治療と同じ日において、ステップS700のリハーサルの直前に行われる。治療が複数日に及ぶ場合、学習は最初の治療日だけ行われてもよい。また、学習は、治療およびリハーサルとは別の日に行われてもよい。   When the treatment plan is made, the medical image processing apparatus 100A performs a learning process for learning the correspondence between the image feature in the target region of the subject P and the affected part position (step S600). The learning process is performed, for example, immediately before the rehearsal in step S700 on the same day as the treatment in step S500. If the treatment spans multiple days, learning may take place only on the first treatment day. Learning may also take place on a different day from treatment and rehearsal.

学習処理段階において、被検体Pは寝台11に寝かされ、シェルなどで固定される。そして、図16に示す流れで処理が行われる。図16は、学習処理の流れの一例を示すフローチャートである。   In the learning process stage, the subject P is laid on the bed 11 and fixed with a shell or the like. Then, processing is performed according to the flow shown in FIG. FIG. 16 is a flowchart illustrating an example of the flow of learning processing.

まず、寝台位置の粗い調整が行われる(ステップS602)。この段階において、利用者が、被検体Pの位置と姿勢を目視で確認し、照射門14からの治療ビームBが当たりそうな位置へ寝台11を動かす。これにより、寝台11の位置が粗く調整される。   First, rough adjustment of the bed position is performed (step S602). At this stage, the user visually confirms the position and posture of the subject P, and moves the bed 11 to a position where the treatment beam B from the irradiation gate 14 is likely to hit. Thereby, the position of the bed 11 is adjusted roughly.

次に、寝台位置を細かく調整するために利用する透視画像TI−1、TI−2が撮影される(ステップS604)。透視画像TI−1、TI−2は、例えば被検体Pが息を吐き切ったタイミングで、放射線源12−1および放射線検出器13−1の組と、放射線源12−2および放射線検出器13−2の組とによって、それぞれ撮影される。寝台11の位置が、ステップS602で粗く調整済みであるため、透視画像TI−1、TI−2には、被検体Pの患部付近が写る。医用画像処理装置100Aの画像取得部110−1は透視画像TI−1を、画像取得部110−2は透視画像TI−2を、それぞれ取得してレジストレーション部102に出力する(ステップS606)。   Next, fluoroscopic images TI-1 and TI-2 used to finely adjust the bed position are photographed (step S604). The fluoroscopic images TI- 1 and TI- 2 are, for example, a set of the radiation source 12-1 and the radiation detector 13-1, and the radiation source 12-2 and the radiation detector 13 at the timing when the subject P exhales. -2 sets, respectively. Since the position of the bed 11 has been roughly adjusted in step S602, the vicinity of the affected part of the subject P is shown in the fluoroscopic images TI-1 and TI-2. The image acquisition unit 110-1 of the medical image processing apparatus 100A acquires the fluoroscopic image TI-1, and the image acquisition unit 110-2 acquires the fluoroscopic image TI-2, and outputs the acquired image to the registration unit 102 (step S606).

そして、レジストレーション部102は、計画データ152から4DCT画像のうち呼気位相のCT画像を読み出し、透視画像TI−1、TI−2と比較し、3D−2Dレジストレーションにより、寝台11上の被検体Pの位置と姿勢の情報を算出する(ステップS608)。呼気位相とは、被検体Pが息を吐き切った状態の呼吸位相をいう。3D−2Dレジストレーションとは、寝台11上に仮想的にCT画像データを設置して、仮想的に生成した透視画像であるDRRの画角が、透視画像TI−1、TI−2と一致するCT画像データの位置と姿勢を計算する処理である。これにより、寝台11上の被検体Pの位置と姿勢の情報が算出される。この位置と姿勢の情報に基づいて、寝台11の位置が、自動的に或いは人の操作により精密に調整される。この調整後の位置と姿勢は、DRR生成部104と画像特徴導出部112−1、112−2に出力される。   Then, the registration unit 102 reads out the CT image of the expiratory phase from the 4DCT image from the plan data 152, compares it with the fluoroscopic images TI-1 and TI-2, and performs the subject on the bed 11 by 3D-2D registration. Information on the position and orientation of P is calculated (step S608). The expiration phase refers to a respiratory phase in a state where the subject P has exhaled. In 3D-2D registration, CT image data is virtually installed on the bed 11 and the angle of view of the DRR, which is a virtually generated perspective image, matches the perspective images TI-1 and TI-2. This is a process for calculating the position and orientation of CT image data. Thereby, the position and orientation information of the subject P on the bed 11 is calculated. Based on the information on the position and orientation, the position of the bed 11 is precisely adjusted automatically or by a human operation. The adjusted position and orientation are output to the DRR generation unit 104 and the image feature derivation units 112-1 and 112-2.

次に、DRR生成部104が、ステップS608で得られた位置と姿勢の情報に基づいて、4DCT画像から時系列の(n個の)DRRを生成する(ステップS610)。ステップS608において、寝台11の位置が精密に調整済みであるため、本ステップで生成されるDRRは、透視画像TI−1、TI−2と画角が一致する。   Next, the DRR generation unit 104 generates time-series (n) DRRs from the 4DCT image based on the position and orientation information obtained in step S608 (step S610). In step S608, since the position of the bed 11 has been precisely adjusted, the DRR generated in this step has the same angle of view as the perspective images TI-1 and TI-2.

次に、患部位置計算部106が、計画データ152として記憶された患部の輪郭情報と、ステップS608において得られた位置と姿勢の情報とに基づいて、時系列の各DRRにおける患部位置を計算する(ステップS612)。患部位置計算部106は、例えば、n個のCT画像それぞれについて、患部の質量が均一であると仮定して輪郭情報から患部の3次元的な重心位置を計算し、計算した重心位置を対応するDRRに射影した位置を患部位置とする。   Next, the affected part position calculation unit 106 calculates the affected part position in each DRR in time series based on the contour information of the affected part stored as the plan data 152 and the position and orientation information obtained in step S608. (Step S612). For example, the affected part position calculation unit 106 calculates the three-dimensional center of gravity position of the affected part from the contour information on the assumption that the mass of the affected part is uniform for each of the n CT images, and corresponds the calculated center of gravity position. The position projected on the DRR is taken as the affected area position.

なお、医用画像処理装置100Aは、患部の輪郭ではなく患部位置の入力を直接的に受け付けてもよい。この場合、患部位置計算部106は、利用者が患部位置を入力したCT画像以外の(n−1)個のCT画像それぞれに対する患部位置をデフォーマブルレジストレーションによって設定し、設定した患部位置を対応するDRRに射影することで患部位置を計算する。図17は、一つのCT画像に対して入力された患部位置が他のCT画像に展開される様子を模式的に示す図である。   Note that the medical image processing apparatus 100A may directly accept an input of an affected part position instead of an outline of the affected part. In this case, the affected part position calculation unit 106 sets the affected part position for each of (n-1) CT images other than the CT image in which the user has input the affected part position by deformable registration, and corresponds the set affected part position. The affected part position is calculated by projecting on the DRR. FIG. 17 is a diagram schematically illustrating a state where an affected part position input with respect to one CT image is developed into another CT image.

患部位置計算部106により患部位置が計算されると、第2の実施形態で説明したように、対応情報学習部120−1、120−2が、DRRにおいて、画像特徴を導出する対象領域を決定し(ステップS614)、対象領域における画像特徴を導出し(ステップS616)、対応情報150を構築する(ステップS618)。これらの処理についての再度の説明は省略する。   When the affected part position is calculated by the affected part position calculating unit 106, as described in the second embodiment, the correspondence information learning units 120-1 and 120-2 determine the target region from which the image feature is derived in the DRR. (Step S614), an image feature in the target region is derived (Step S616), and the correspondence information 150 is constructed (Step S618). A re-explanation of these processes is omitted.

[リハーサル]
学習処理が終了すると、リハーサルが行われる(図14;ステップS700)。リハーサルでは、被検体Pの患部を透視画像TIの動画で追跡できるか否かを確認する。リハーサルは、ステップS800の治療と同じ日の、その治療の直前に行われる。治療が複数日に及ぶ場合、リハーサルは最初の治療日だけに行われてもよい。また、リハーサルの直前には、被検体Pの位置決めが行われるが、本実施形態では、既に被検体Pの位置決めが済んでいるため、位置決めを改めて行う必要はない。また、リハーサルを省略することも可能である。
[rehearsal]
When the learning process ends, rehearsal is performed (FIG. 14; step S700). In the rehearsal, it is confirmed whether or not the affected part of the subject P can be tracked with the moving image of the fluoroscopic image TI. The rehearsal is performed on the same day as the treatment in step S800, immediately before the treatment. If the treatment spans multiple days, the rehearsal may be performed only on the first treatment day. In addition, positioning of the subject P is performed immediately before the rehearsal, but in this embodiment, since the positioning of the subject P has already been completed, it is not necessary to perform positioning again. It is also possible to omit rehearsals.

図18は、リハーサルにおいて行われる処理の流れを示すフローチャートの一例である。リハーサルでは、まず、位置推定部114−1、114−2が、学習処理において学習された対応情報150を、読み出しておく(ステップS702)。   FIG. 18 is an example of a flowchart showing a flow of processing performed in rehearsal. In the rehearsal, first, the position estimation units 114-1 and 114-2 read the correspondence information 150 learned in the learning process (step S702).

次に、放射線源12−1および放射線検出器13−1の組と、放射線源12−2および放射線検出器13−2の組とによって透視画像TI−1、TI−2の動画(例えばX線動画)の撮影が開始される(ステップS704)。動画の各フレームは、画像取得部110−1、110―2により順次、透視画像TI−1、TI−2として取得され、画像特徴導出部112−1、112−2に順次出力される。   Next, moving images (for example, X-rays) of the fluoroscopic images TI-1 and TI-2 by the set of the radiation source 12-1 and the radiation detector 13-1 and the set of the radiation source 12-2 and the radiation detector 13-2. (Movie) starts to be shot (step S704). Each frame of the moving image is sequentially acquired as perspective images TI-1 and TI-2 by the image acquisition units 110-1 and 110-2, and sequentially output to the image feature deriving units 112-1 and 112-2.

次に、画像特徴導出部112−1および位置推定部114−1、並びに画像特徴導出部112−2および位置推定部114−2が、それぞれ患部位置を推定する(ステップS706)。本ステップの処理は、例えば図6または図7を用いて説明した処理と同様である。   Next, the image feature deriving unit 112-1 and the position estimating unit 114-1, and the image feature deriving unit 112-2 and the position estimating unit 114-2 each estimate the affected part position (step S706). The processing in this step is the same as the processing described using, for example, FIG. 6 or FIG.

次に、位置推定部114−1、114−2は、推定した患部位置を透視画像TI−1、TI−2に重畳させて、表示装置に表示させる(ステップS708)。図19は、リハーサル段階の表示画面の一例を示す図である。図示するように、リハーサル段階の表示画面では、例えば、透視画像TI−1、TI−2が並べて表示される。それぞれの透視画像TIには、患部位置を示すオブジェクトA−1、A−2などが重畳表示される。リハーサル段階の表示画面は、例えば、図18のフローチャートにおけるループ処理(ステップS706〜S718)において繰り返し更新されるため、利用者から見ると、患部位置が示された透視画像TI−1、TI−2の動画が表示されているように映る。また、リハーサル段階の表示画面には、動画の一時停止を指示するためのGUIスイッチである一時停止スイッチSSが設けられる。   Next, the position estimation units 114-1 and 114-2 superimpose the estimated diseased part positions on the fluoroscopic images TI-1 and TI-2 and display them on the display device (step S708). FIG. 19 is a diagram illustrating an example of a rehearsal stage display screen. As shown in the figure, on the display screen at the rehearsal stage, for example, the perspective images TI-1 and TI-2 are displayed side by side. In each perspective image TI, objects A-1, A-2, and the like indicating the position of the affected area are superimposed and displayed. The rehearsal stage display screen is repeatedly updated, for example, in the loop processing (steps S706 to S718) in the flowchart of FIG. 18, so that the perspective images TI-1 and TI-2 showing the position of the affected area are viewed from the user. The video appears to be displayed. In addition, the rehearsal stage display screen is provided with a pause switch SS which is a GUI switch for instructing to pause the moving image.

利用者は、この表示画面を視認して、2方向からの透視画像TI−1、TI−2上で、自ら目視により確認した患部位置と、推定結果として表示される患部位置を示すオブジェクトA−1、A−2とが合致しているか否かを確認することができる。これによって、治療の信頼性を向上させることができる。   The user visually recognizes this display screen, and on the perspective images TI-1 and TI-2 from two directions, the user A visually confirms the affected part position and the affected part position displayed as the estimation result. 1 and A-2 can be confirmed. Thereby, the reliability of treatment can be improved.

次に、医用画像処理装置100Aは、一時停止スイッチSSが操作されたか否かを判定する(ステップS710)。一時停止スイッチSSが操作されると、医用画像処理装置100Aは、修正指示がなされたか否かを判定する(ステップS712)。修正指示は、例えば、利用者が正しい患部位置をマウスでクリックすることにより行われる。修正指示がなされた場合、位置推定部114−1または114−2は、患部位置を補正する(ステップS714)。修正指示は、透視画像TI−1、TI−2の一方または双方に対してなされる。位置推定部114−1または114−2は、例えば、表示していたオブジェクトA1またはA2と修正指示された位置との差分を補正量(修正量)として求め、以降、患部位置を推定する際に、補正量を加味して推定結果を確定する。この補正量は、治療段階にも引き継がれる。また、位置推定部114−1または114−2は、差分に基づいて、対応情報150自体を修正してもよい。これによって、表示していたオブジェクトA1またはA2の位置も併せて修正される。   Next, the medical image processing apparatus 100A determines whether or not the temporary stop switch SS has been operated (step S710). When the temporary stop switch SS is operated, the medical image processing apparatus 100A determines whether a correction instruction has been given (step S712). The correction instruction is performed, for example, when the user clicks the correct affected part position with the mouse. When the correction instruction is given, the position estimation unit 114-1 or 114-2 corrects the affected part position (step S714). The correction instruction is given to one or both of the fluoroscopic images TI-1 and TI-2. For example, the position estimation unit 114-1 or 114-2 obtains a difference between the displayed object A1 or A2 and the position instructed to be corrected as a correction amount (correction amount), and then estimates the affected part position. Then, the estimation result is determined with the correction amount taken into account. This correction amount is also carried over to the treatment stage. Further, the position estimation unit 114-1 or 114-2 may correct the correspondence information 150 itself based on the difference. As a result, the position of the displayed object A1 or A2 is also corrected.

修正指示は、再度一時停止スイッチSSが操作されることで一時停止が解除されるまで受け付けられる(ステップS716)。また、医用画像処理装置100Aは、利用者によって終了指示がなされるまで、動画の表示を継続する(ステップS718)。   The correction instruction is accepted until the pause is released by operating the pause switch SS again (step S716). The medical image processing apparatus 100A continues to display the moving image until an end instruction is given by the user (step S718).

係る制御によって、治療段階において治療システム1が照射門14の制御に用いる患部位置を、利用者が確認することができる。透視画像TI上では、患部位置を直接的に求めるのが困難である場合がある。そこで、本実施形態の医用画像処理装置100Aでは、まずDRR上で、対象領域の画像特徴と患部位置との対応情報150を求めておき、透視画像TI上で対象領域の画像特徴から患部位置を再現するようにしている。すなわち、本実施形態の医用画像処理装置100Aは、透視画像TI上でもコンピュータ処理で認識可能な対象領域の画像領域と、上記対応情報150とに基づいて患部位置を推定する。これによって、リハーサル段階や治療段階において患部位置が利用者の意図に沿っているかどうかを確認することができる。   By such control, the user can confirm the position of the affected part used by the treatment system 1 for controlling the irradiation gate 14 in the treatment stage. On the fluoroscopic image TI, it may be difficult to directly determine the position of the affected area. Therefore, in the medical image processing apparatus 100A of the present embodiment, first, the correspondence information 150 between the image feature of the target region and the affected part position is obtained on the DRR, and the affected part position is determined from the image feature of the target region on the fluoroscopic image TI. I try to reproduce it. That is, the medical image processing apparatus 100A according to the present embodiment estimates the affected area position based on the image area of the target area that can be recognized by computer processing even on the fluoroscopic image TI and the correspondence information 150. This makes it possible to confirm whether or not the affected part position is in line with the user's intention in the rehearsal stage or the treatment stage.

[治療段階]
リハーサルにおいて、患部位置の確認、修正が行われると、治療が開始される(図14;ステップS800)。治療段階では、被検体Pの患部に治療ビームBが照射される。また、治療の直前には、被検体Pの位置決めが行われるが、本実施形態では、既に被検体Pの位置決めが済んでいるため、位置決めを改めて行う必要はない。
[Treatment stage]
In the rehearsal, when the affected part position is confirmed and corrected, treatment is started (FIG. 14; step S800). In the treatment stage, the treatment beam B is irradiated to the affected part of the subject P. Although the subject P is positioned immediately before the treatment, in this embodiment, since the subject P has already been positioned, it is not necessary to perform positioning again.

図20は、治療段階において行われる処理の流れの一例を示すフローチャートである。まず、リハーサル段階と同様に、位置推定部114−1、114−2が、学習処理において学習された対応情報150を読み出しておく(ステップS802)。次に、透視画像TI−1、TI−2の動画(例えばX線動画)の撮影が開始される(ステップS804)。   FIG. 20 is a flowchart illustrating an example of a flow of processing performed in the treatment stage. First, as in the rehearsal stage, the position estimation units 114-1 and 114-2 read out the correspondence information 150 learned in the learning process (step S802). Next, imaging of moving images (eg, X-ray moving images) of the perspective images TI-1 and TI-2 is started (step S804).

次に、画像特徴導出部112−1および位置推定部114−1、並びに画像特徴導出部112−2および位置推定部114−2が、それぞれ患部位置を推定する(ステップS806)。本ステップの処理は、例えば図6または図7を用いて説明した処理と同様である。そして、出力部118が、ステップS806で推定された患部位置を治療装置10に出力する(ステップS808)。   Next, the image feature deriving unit 112-1 and the position estimating unit 114-1, and the image feature deriving unit 112-2 and the position estimating unit 114-2 each estimate the affected part position (step S806). The processing in this step is the same as the processing described using, for example, FIG. 6 or FIG. Then, the output unit 118 outputs the affected part position estimated in step S806 to the treatment apparatus 10 (step S808).

次に、治療装置10の制御部15が、ステップS806で推定された患部位置が、予め設定された設定範囲内であるか否かを判定する(ステップS810)。患部位置が、予め設定された設定範囲内である場合、制御部15は、治療ビームBを照射するように照射門14を制御する(ステップS812)。患部位置が、予め設定された設定範囲外である場合、制御部15は、治療ビームBを照射門14に照射させない。これにより、被検体Pの患部がゲーテッド照射法で治療される。   Next, the control unit 15 of the treatment apparatus 10 determines whether or not the affected part position estimated in Step S806 is within a preset setting range (Step S810). When the affected part position is within the preset setting range, the control unit 15 controls the irradiation gate 14 to irradiate the treatment beam B (step S812). When the affected part position is outside the preset setting range, the control unit 15 does not irradiate the irradiation gate 14 with the treatment beam B. Thereby, the affected part of the subject P is treated by the gated irradiation method.

ステップS806〜S812の処理は、患部に照射した治療ビームBの累計の量が、予め定められた量に至ったときに終了するように制御される(ステップS814)。なお、ゲーテッド照射法での治療の流れを例示したが、動画において患部位置を推定することで追跡し、治療ビームBをその患部位置に追尾させて照射することで、追尾照射法が実現される。   The processing in steps S806 to S812 is controlled so as to end when the cumulative amount of the treatment beam B irradiated to the affected area reaches a predetermined amount (step S814). In addition, although the flow of treatment by the gated irradiation method was illustrated, the tracking irradiation method is realized by tracking the irradiation by tracking the treatment beam B to the affected part position by tracking the diseased part position in the moving image. .

また、治療システム1は、治療段階において、患部位置と設定範囲とを対比可能な表示画面を、表示部17に表示させてもよい。図21は、治療段階の表示画面の一例を示す図である。図示するように、治療段階の表示画面では、透視画像TI−1に対応する設定範囲Ta−1と、透視画像TI−1に対応する患部位置を示すオブジェクトA−1がと対比可能となっている。また、治療段階の表示画面では、透視画像TI−2に対応する設定範囲Ta−2と、透視画像TI−2に対応する患部位置を示すオブジェクトA−2とが対比可能となっている。   Further, the treatment system 1 may display a display screen on the display unit 17 that can compare the affected part position and the set range in the treatment stage. FIG. 21 is a diagram illustrating an example of a treatment stage display screen. As shown in the drawing, on the display screen at the treatment stage, the setting range Ta-1 corresponding to the fluoroscopic image TI-1 can be compared with the object A-1 indicating the affected part position corresponding to the fluoroscopic image TI-1. Yes. In the treatment stage display screen, the setting range Ta-2 corresponding to the fluoroscopic image TI-2 and the object A-2 indicating the affected part position corresponding to the fluoroscopic image TI-2 can be compared.

係る制御によって、本実施形態の医用画像処理装置100Aは、患部位置の推定の信頼性、ひいては治療の信頼性を向上させることができる。従来は、治療段階で撮影した透視画像における横隔膜周辺の画像情報に基づいて治療ビームを照射するといった制御がなされていた。しかしながら、この従来の手法では、患部そのものの位置を追跡して治療支援を行うものではないため、信頼性が十分でない場合があった。これに対し、本実施形態の医用画像処理装置100Aは、特徴部位の位置と患部位置との対応関係に基づいて、透視画像TIから患部位置を推定することで、治療の信頼性を向上させることができる。   By such control, the medical image processing apparatus 100A of the present embodiment can improve the reliability of the estimation of the affected area, and thus the reliability of the treatment. Conventionally, control is performed such that a treatment beam is irradiated based on image information around the diaphragm in a fluoroscopic image taken at the treatment stage. However, this conventional method does not provide treatment support by tracking the position of the affected area itself, and thus may not be reliable enough. On the other hand, the medical image processing apparatus 100A of the present embodiment improves the reliability of treatment by estimating the affected part position from the fluoroscopic image TI based on the correspondence between the position of the characteristic part and the affected part position. Can do.

また、本実施形態の医用画像処理装置100Aは、治療の省力化を図ることができる。従来は、治療の直前に治療計画用とは別に、様々な呼吸位相の画像を撮影し、所望の呼吸位相の画像を選択するといった作業が行われており、利用者の負担となっていた。これに対し、本実施形態の医用画像処理装置100Aは、特徴部位の位置と患部位置との対応関係を学習することにより、上記のような手間を省略し、治療の省力化を図ることができる。   In addition, the medical image processing apparatus 100A according to the present embodiment can save labor for treatment. Conventionally, an operation of taking images of various respiratory phases and selecting an image of a desired respiratory phase separately from the treatment plan is performed immediately before the treatment, which is a burden on the user. On the other hand, the medical image processing apparatus 100A according to the present embodiment learns the correspondence between the position of the characteristic part and the position of the affected part, thereby omitting the above trouble and saving labor for treatment. .

なお、上記実施形態では、被検体Pの患部の位置は、利用者によって指定された患部の輪郭の情報からデフォーマブルレジストレーションによって生成された輪郭の情報を利用して設定されるものとしたが、利用者が被検体Pの患部の透視画像TI−1、TI−2における中心位置を直接的に指定するようにしてもよい。利用者は、マウスやキーボードの十字キーなどを使用して、呼吸位相が異なる複数の透視画像TI上で被検体Pの患部の中心位置を指定する。この場合、処理の順は、治療計画、透視画像TI−1、TI−2の動画の撮影、対応関係の学習、リハーサル、治療という順になる。これにより、治療計画時よりも治療に時間が近い画像から学習できるようになるため、治療で腫瘍を追跡する際の誤差が小さくなることが期待できる。   In the above embodiment, the position of the affected part of the subject P is set using the contour information generated by deformable registration from the contour information of the affected part specified by the user. The user may directly specify the center position in the fluoroscopic images TI-1 and TI-2 of the affected part of the subject P. The user designates the center position of the affected part of the subject P on the plurality of fluoroscopic images TI having different respiratory phases by using a mouse or a cross key on the keyboard. In this case, the order of processing is the order of treatment plan, shooting of moving images of fluoroscopic images TI-1 and TI-2, learning of correspondence, rehearsal, and treatment. As a result, it becomes possible to learn from an image that is closer to treatment than at the time of treatment planning, so that it can be expected that errors in tracing a tumor during treatment are reduced.

以上説明した少なくともひとつの実施形態によれば、撮像装置により撮像された被検体の透視画像を取得する画像取得部(110)と、画像取得部により取得された透視画像の一部または全部である対象領域(OA)について画像特徴を導出する画像特徴導出部(112)と、画像特徴と探索部位の位置との対応関係を示す対応情報(150)に基づいて、画像特徴導出部により導出された画像特徴から透視画像における被検体の探索部位の位置を推定する位置推定部(114)とを持つことにより、信頼性を向上させることができる。   According to at least one embodiment described above, the image acquisition unit (110) that acquires the fluoroscopic image of the subject imaged by the imaging device, and part or all of the fluoroscopic image acquired by the image acquisition unit. Derived by the image feature deriving unit based on the image feature deriving unit (112) for deriving the image feature for the target area (OA) and the correspondence information (150) indicating the correspondence between the image feature and the position of the search part. By having the position estimation unit (114) that estimates the position of the search part of the subject in the fluoroscopic image from the image feature, the reliability can be improved.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

すなわち、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   That is, the present invention is not limited to the above-described embodiment as it is, and the constituent elements can be modified and embodied without departing from the spirit of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1…治療システム、10…治療装置、100、100A…医用画像処理装置、102…レジストレーション部、104…DRR生成部、106…患部位置計算部、110…画像取得部、112…画像特徴導出部、114…位置推定部、116…対応情報取得部、118…出力部、120…対応情報学習部、122…入力部、150…対応情報、152…計画データ DESCRIPTION OF SYMBOLS 1 ... Treatment system, 10 ... Treatment apparatus, 100, 100A ... Medical image processing apparatus, 102 ... Registration part, 104 ... DRR production | generation part, 106 ... Affected part position calculation part, 110 ... Image acquisition part, 112 ... Image feature derivation part , 114 ... position estimation part, 116 ... correspondence information acquisition part, 118 ... output part, 120 ... correspondence information learning part, 122 ... input part, 150 ... correspondence information, 152 ... plan data

Claims (17)

撮像装置により撮像された被検体の透視画像を取得する画像取得部と、
前記画像取得部により取得された透視画像の一部または全部である対象領域について画像特徴を導出する画像特徴導出部と、
画像特徴と探索部位の位置との対応関係を示す対応情報に基づいて、前記画像特徴導出部により導出された画像特徴から前記透視画像における前記被検体の探索部位の位置を推定する位置推定部と、
を備える医用画像処理装置。
An image acquisition unit for acquiring a fluoroscopic image of the subject imaged by the imaging device;
An image feature deriving unit for deriving image features for a target region that is a part or all of the fluoroscopic image acquired by the image acquiring unit;
A position estimation unit that estimates the position of the search site of the subject in the fluoroscopic image from the image feature derived by the image feature deriving unit, based on correspondence information indicating a correspondence relationship between the image feature and the position of the search site; ,
A medical image processing apparatus comprising:
前記対応情報は、更に、前記対象領域の前記透視画像における位置と前記探索部位の位置との相対位置関係の情報を含み、
前記位置推定部は、前記画像特徴導出部により導出された画像特徴と、前記対象領域の前記透視画像における位置とに基づいて、前記透視画像における前記被検体の探索部位の位置を推定する、
請求項1記載の医用画像処理装置。
The correspondence information further includes information on a relative positional relationship between the position of the target region in the fluoroscopic image and the position of the search part,
The position estimation unit estimates a position of a search portion of the subject in the fluoroscopic image based on the image feature derived by the image feature deriving unit and a position of the target region in the fluoroscopic image;
The medical image processing apparatus according to claim 1.
前記対応情報は、前記対象領域の前記透視画像における位置と、前記画像特徴導出部により導出された画像特徴を入力情報とすることで、前記透視画像上の一つの位置における前記探索部位の位置である確率を導出する導出規則を含み、
前記画像特徴導出部が、前記透視画像において対象領域の位置を変えながら画像特徴を導出し、前記位置推定部が、前記画像特徴導出部により複数の対象領域について導出された画像特徴から前記探索部位の位置である確率をそれぞれ導出することで、前記透視画像における複数の位置に対応した前記探索部位の位置である確率を導出する、
請求項2記載の医用画像処理装置。
The correspondence information includes the position of the search region at one position on the fluoroscopic image by using the position of the target region in the fluoroscopic image and the image feature derived by the image feature deriving unit as input information. Contains derivation rules to derive certain probabilities,
The image feature deriving unit derives an image feature while changing the position of the target region in the fluoroscopic image, and the position estimating unit calculates the search site from the image feature derived for the plurality of target regions by the image feature deriving unit. Deriving the probability of being the position of the search part corresponding to a plurality of positions in the fluoroscopic image, respectively,
The medical image processing apparatus according to claim 2.
前記対応情報は、前記対象領域の前記透視画像における位置と、前記画像特徴導出部により導出された画像特徴を入力情報とすることで、前記透視画像上の複数の位置における前記探索部位の位置である確率を導出する導出規則を含み、
前記画像特徴導出部が、前記透視画像において一つの対象領域について画像特徴を導出し、前記位置推定部が、前記画像特徴導出部により一つの対象領域について導出された画像特徴から、前記透視画像上の複数の位置に対応した前記探索部位の位置である確率を導出する、
請求項1または2記載の医用画像処理装置。
The correspondence information includes, as input information, the position of the target region in the fluoroscopic image and the image feature derived by the image feature deriving unit, and the position of the search part at a plurality of positions on the fluoroscopic image. Contains derivation rules to derive certain probabilities,
The image feature deriving unit derives an image feature for one target region in the fluoroscopic image, and the position estimating unit calculates the image feature on the fluoroscopic image from the image feature derived for the one target region by the image feature deriving unit. A probability of being the position of the search part corresponding to a plurality of positions of
The medical image processing apparatus according to claim 1 or 2.
前記位置推定部は、前記導出した、前記透視画像上の複数の位置に対応した前記探索部位の位置である確率が最大値となる位置を、前記被検体における前記被検体の探索部位の位置と推定する、
請求項3または4記載の医用画像処理装置。
The position estimation unit determines the position at which the probability of being the position of the search part corresponding to the plurality of positions on the fluoroscopic image is the maximum value as the position of the search part of the subject in the subject. presume,
The medical image processing apparatus according to claim 3 or 4.
前記位置推定部は、前記導出した、前記透視画像上の複数の位置に対応した前記探索部位の位置である確率の分布の重心を、前記被検体における前記被検体の探索部位の位置と推定する、
請求項3または4記載の医用画像処理装置。
The position estimation unit estimates the derived gravity center of the probability distribution as the position of the search part corresponding to a plurality of positions on the fluoroscopic image as the position of the search part of the subject in the subject. ,
The medical image processing apparatus according to claim 3 or 4.
前記位置推定部は、前記導出した、前記透視画像上の複数の位置に対応した前記探索部位の位置である確率の局所領域内の合計が最大となる当該局所領域の中心を、前記被検体における前記被検体の探索部位の位置と推定する、
請求項3または4記載の医用画像処理装置。
The position estimation unit calculates the center of the derived local region having the maximum sum in the local region of the probability of being the position of the search part corresponding to a plurality of positions on the fluoroscopic image in the subject. Estimating the position of the search site of the subject,
The medical image processing apparatus according to claim 3 or 4.
前記対応情報は、前記対象領域の前記透視画像における位置と、前記画像特徴導出部により導出された画像特徴を入力情報とすることで、前記透視画像上の一つまたは複数の位置における前記探索部位の位置である確率を導出する導出規則を複数含み、
前記位置推定部は、前記複数の導出規則によってそれぞれ導出される確率を重ね合わせることで、前記透視画像上の一つまたは複数の位置に対応した前記探索部位の位置である確率を導出し、前記導出した確率に基づいて、前記透視画像における前記被検体の探索部位の位置を推定する、
請求項1または2記載の医用画像処理装置。
The correspondence information includes, as input information, the position of the target region in the fluoroscopic image and the image feature derived by the image feature deriving unit, so that the search site at one or more positions on the fluoroscopic image Including a plurality of derivation rules for deriving the probability of being the position of
The position estimation unit derives the probability of being the position of the search part corresponding to one or a plurality of positions on the fluoroscopic image by superimposing the probabilities derived by the plurality of derivation rules, Based on the derived probability, estimate the position of the search part of the subject in the fluoroscopic image,
The medical image processing apparatus according to claim 1 or 2.
前記位置推定部は、前記複数の導出規則によってそれぞれ導出される確率の和を求めることで、前記複数の導出規則によってそれぞれ導出される確率を重ね合わせる、
請求項8記載の医用画像処理装置。
The position estimation unit superimposes the probabilities derived by the plurality of derivation rules by obtaining a sum of probabilities derived by the plurality of derivation rules,
The medical image processing apparatus according to claim 8.
前記位置推定部は、前記複数の導出規則によってそれぞれ導出される確率の積を求めることで、前記複数の導出規則によってそれぞれ導出される確率を重ね合わせる、
請求項8記載の医用画像処理装置。
The position estimation unit superimposes the probabilities derived by the plurality of derivation rules by obtaining a product of the probabilities derived by the plurality of derivation rules,
The medical image processing apparatus according to claim 8.
前記位置推定部は、カーネル密度推定によって、前記複数の導出規則によってそれぞれ導出される確率を重ね合わせる、
請求項8記載の医用画像処理装置。
The position estimation unit superimposes the probabilities derived by the plurality of derivation rules by kernel density estimation,
The medical image processing apparatus according to claim 8.
前記画像特徴導出部は、前記対象領域内の各画素の輝度勾配に基づく情報を、前記画像特徴として導出する、
請求項1から11のうちいずれか1項記載の医用画像処理装置。
The image feature deriving unit derives information based on a luminance gradient of each pixel in the target region as the image feature;
The medical image processing apparatus according to any one of claims 1 to 11.
学習用画像における対象領域の画像特徴と、前記学習用画像において特定された前記探索部位の位置とに基づいて、前記対応情報を学習する学習部を更に備える、
請求項1から12のうちいずれか1項記載の医用画像処理装置。
A learning unit that learns the correspondence information based on the image characteristics of the target region in the learning image and the position of the search part specified in the learning image;
The medical image processing apparatus according to any one of claims 1 to 12.
前記学習部は、更に、前記学習用画像における前記対象領域の位置に基づいて、前記対象領域と前記探索部位の位置との相対位置関係を含む前記対応情報を学習する、
請求項13記載の医用画像処理装置。
The learning unit further learns the correspondence information including a relative positional relationship between the target region and the position of the search part based on the position of the target region in the learning image.
The medical image processing apparatus according to claim 13.
被検体が撮像された学習用画像において前記被検体の探索部位の位置を特定する特定部と、
前記学習用画像の一部または全部である対象領域について画像特徴を導出し、前記導出した画像特徴に基づいて、画像特徴と探索部位の位置との対応関係を示す対応情報を学習する学習部と、
を備える医用画像処理装置。
A specifying unit for specifying a position of a search portion of the subject in a learning image obtained by imaging the subject;
A learning unit for deriving an image feature for a target region that is a part or all of the learning image, and learning correspondence information indicating a correspondence relationship between the image feature and a position of a search part based on the derived image feature; ,
A medical image processing apparatus comprising:
前記学習部は、更に、前記学習用画像における前記対象領域の位置に基づいて、前記対象領域と前記探索部位の位置との相対位置関係を含む前記対応情報を学習する、
請求項15記載の医用画像処理装置。
The learning unit further learns the correspondence information including a relative positional relationship between the target region and the position of the search part based on the position of the target region in the learning image.
The medical image processing apparatus according to claim 15.
請求項1から14のうちいずれか1項記載の医用画像処理装置と、
前記被検体に治療ビームを照射する照射部と、
前記医用画像処理装置の位置推定部により推定された前記被検体の探索部位の位置に対して前記治療ビームを照射するように前記照射部を制御する制御部と、
を備える治療システム。
The medical image processing apparatus according to any one of claims 1 to 14,
An irradiation unit for irradiating the subject with a therapeutic beam;
A control unit that controls the irradiation unit to irradiate the treatment beam with respect to the position of the search portion of the subject estimated by the position estimation unit of the medical image processing apparatus;
A treatment system comprising:
JP2015112432A 2015-06-02 2015-06-02 Medical image processing equipment and treatment system Active JP6815586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015112432A JP6815586B2 (en) 2015-06-02 2015-06-02 Medical image processing equipment and treatment system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015112432A JP6815586B2 (en) 2015-06-02 2015-06-02 Medical image processing equipment and treatment system

Publications (2)

Publication Number Publication Date
JP2016221100A true JP2016221100A (en) 2016-12-28
JP6815586B2 JP6815586B2 (en) 2021-01-20

Family

ID=57745232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015112432A Active JP6815586B2 (en) 2015-06-02 2015-06-02 Medical image processing equipment and treatment system

Country Status (1)

Country Link
JP (1) JP6815586B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112165900A (en) * 2018-04-24 2021-01-01 株式会社岛津制作所 Image analysis method, segmentation method, bone density measurement method, learning model generation method, and image generation device
JP2022513427A (en) * 2018-10-25 2022-02-08 エレクタ、インク. Machine learning approach to real-time patient movement monitoring
US11491348B2 (en) 2018-10-25 2022-11-08 Elekta, Inc. Real-time patient motion monitoring using a magnetic resonance linear accelerator (MRLINAC)
JP7315935B1 (en) 2022-02-16 2023-07-27 国立大学法人大阪大学 Prediction support system, prediction support method and prediction support program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070053491A1 (en) * 2005-09-07 2007-03-08 Eastman Kodak Company Adaptive radiation therapy method with target detection
JP2010128961A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Image monitoring apparatus
JP2013176459A (en) * 2012-02-28 2013-09-09 Mitsubishi Heavy Ind Ltd Controller for radiation treatment apparatus and control method therefor, and program to be executed by computer in radiation treatment apparatus
WO2014041909A1 (en) * 2012-09-11 2014-03-20 株式会社日立製作所 Moving body-tracking device and radiation therapy system
JP2015066275A (en) * 2013-09-30 2015-04-13 株式会社東芝 Medical image processing apparatus, therapeutic system and medical image processing method
WO2015059805A1 (en) * 2013-10-24 2015-04-30 三菱重工業株式会社 Control device for treatment planning device, control method, and program
JP2016116659A (en) * 2014-12-19 2016-06-30 株式会社東芝 Medical image processing device, treatment system, medical image processing method, and medical image processing program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070053491A1 (en) * 2005-09-07 2007-03-08 Eastman Kodak Company Adaptive radiation therapy method with target detection
JP2010128961A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Image monitoring apparatus
JP2013176459A (en) * 2012-02-28 2013-09-09 Mitsubishi Heavy Ind Ltd Controller for radiation treatment apparatus and control method therefor, and program to be executed by computer in radiation treatment apparatus
WO2014041909A1 (en) * 2012-09-11 2014-03-20 株式会社日立製作所 Moving body-tracking device and radiation therapy system
JP2015066275A (en) * 2013-09-30 2015-04-13 株式会社東芝 Medical image processing apparatus, therapeutic system and medical image processing method
WO2015059805A1 (en) * 2013-10-24 2015-04-30 三菱重工業株式会社 Control device for treatment planning device, control method, and program
JP2016116659A (en) * 2014-12-19 2016-06-30 株式会社東芝 Medical image processing device, treatment system, medical image processing method, and medical image processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112165900A (en) * 2018-04-24 2021-01-01 株式会社岛津制作所 Image analysis method, segmentation method, bone density measurement method, learning model generation method, and image generation device
JP2022513427A (en) * 2018-10-25 2022-02-08 エレクタ、インク. Machine learning approach to real-time patient movement monitoring
US11491348B2 (en) 2018-10-25 2022-11-08 Elekta, Inc. Real-time patient motion monitoring using a magnetic resonance linear accelerator (MRLINAC)
US11547874B2 (en) 2018-10-25 2023-01-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
JP7315935B1 (en) 2022-02-16 2023-07-27 国立大学法人大阪大学 Prediction support system, prediction support method and prediction support program
WO2023157869A1 (en) * 2022-02-16 2023-08-24 国立大学法人大阪大学 Prediction support system, prediction support method, and prediction support program
JP2023119445A (en) * 2022-02-16 2023-08-28 国立大学法人大阪大学 Prediction support system, prediction support method, and prediction support program

Also Published As

Publication number Publication date
JP6815586B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
JP2016116659A (en) Medical image processing device, treatment system, medical image processing method, and medical image processing program
US9904998B2 (en) Patient-specific and automatic x-ray system adjustment based on optical 3D scene detection and interpretation
JP7116944B2 (en) MEDICAL DEVICE, METHOD OF CONTROLLING MEDICAL DEVICE, AND PROGRAM
EP2662115B1 (en) Control device for radiation therapy device and programme for same
US20230044983A1 (en) Sequential monoscopic tracking
JP2019524418A (en) Online angle selection in rotational imaging and tracking systems
KR20190074973A (en) Medical apparatus, and method for controlling medical apparatus
JP2019528149A (en) Online angle selection in rotational imaging and tracking systems
US20190366124A1 (en) Deep inspiration breath-hold setup using x-ray imaging
CN111918697B (en) Medical image processing device, treatment system, and storage medium
JP7287828B2 (en) Patient positioning system, method and program
JP6815586B2 (en) Medical image processing equipment and treatment system
TW201944963A (en) Medical image processing apparatus, therapeutic system, medical image processing program
JP7323128B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL DEVICE, TREATMENT SYSTEM, MEDICAL IMAGE PROCESSING METHOD, AND PROGRAM
US10786220B2 (en) Device for imaging an object
JP2018042831A (en) Medical image processor, care system and medical image processing program
US11241589B2 (en) Target tracking and irradiation method and device using radiotherapy apparatus and radiotherapy apparatus
JP6249972B2 (en) Particle beam therapy system
De Boer et al. Automated daily breath hold stability measurements by real-time imaging in radiotherapy of breast cancer
WO2019198394A1 (en) Medical image processing device, medical image processing method, and program
JP7264389B2 (en) MEDICAL DEVICE, METHOD AND PROGRAM FOR CONTROLLING MEDICAL DEVICE
JP7214792B2 (en) Treatment system and method of controlling the treatment system
JP7513980B2 (en) Medical image processing device, treatment system, medical image processing method, and program
Li Patient-specific gating scheme for thoracoabdominal tumor radiotherapy guided by magnetic resonance imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150716

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191223

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20191224

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200131

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200204

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200407

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20200729

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200929

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201104

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201202

R150 Certificate of patent or registration of utility model

Ref document number: 6815586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250