JP2021058480A - Target outer shape estimation device and treatment apparatus - Google Patents

Target outer shape estimation device and treatment apparatus Download PDF

Info

Publication number
JP2021058480A
JP2021058480A JP2019185550A JP2019185550A JP2021058480A JP 2021058480 A JP2021058480 A JP 2021058480A JP 2019185550 A JP2019185550 A JP 2019185550A JP 2019185550 A JP2019185550 A JP 2019185550A JP 2021058480 A JP2021058480 A JP 2021058480A
Authority
JP
Japan
Prior art keywords
image
target
outer shape
tracking
estimation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019185550A
Other languages
Japanese (ja)
Other versions
JP7292721B2 (en
Inventor
利之 照沼
Toshiyuki Terunuma
利之 照沼
武二 榮
Takeji Sakae
武二 榮
英幸 櫻井
Hideyuki Sakurai
英幸 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2019185550A priority Critical patent/JP7292721B2/en
Publication of JP2021058480A publication Critical patent/JP2021058480A/en
Application granted granted Critical
Publication of JP7292721B2 publication Critical patent/JP7292721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To quickly estimate a target object portion in comparison to a technique of estimating the target object portion by deriving a three-dimensional position from a plurality of photographed images.SOLUTION: A target outer shape estimation device comprises: photographing means (6a, 6b) which photographs an image of a region including a target in a body of a subject (2) from the second direction different from the first direction with respect to the first direction of irradiating the target in the body of the subject (2) with the first radiation; learning means (C9) which outputs correlation information by learning the correlation between the outer shape of the target reflected in the photographed image and the outer shape of the target in the first direction on the basis of the outer shape of the target reflected in the photographed image from the second direction; and outer shape estimation means (C13) which estimates the outer shape of the target in the first direction on the basis of the outer shape of the target reflected in the photographed image from the second direction that is photographed immediately before the treatment and the correlation information.SELECTED DRAWING: Figure 2

Description

本発明は、標的外形推定装置および治療装置に関する。 The present invention relates to a target contour estimation device and a treatment device.

X線等の放射電磁波や陽電子線等の粒子線のような放射線を照射して腫瘍の治療などを行う場合に、被検者(患者)の腫瘍部以外に放射線が照射されないように、腫瘍の外形形状を特定することが必要である。また、患者の呼吸や拍動等で、治療の標的対象(腫瘍等)の位置が移動するため、放射線を標的対象以外の部位(正常部位)に照射しないようにするためには、リアルタイムでX線透視画像を撮影して標的対象を追跡してその位置を特定し、標的対象が放射線の照射位置に移動したときにだけ放射線を照射する必要がある。なお、画像を撮影して標的対象の位置を特定および追跡し放射線の照射位置を誘導する技術、いわゆる画像誘導による対象追跡技術は、kVオーダのX線を使用して撮影するX線透視画像を使用することが一般的であるが、これに限定されない。例えば、X線透視画像だけでなく、MVオーダのX線を使用して撮影したX線画像や超音波画像、MRI(Magnetic Resonance Imaging:核磁気共鳴画像法)画像、CT画像(Computed Tomography)、PET(Positron Emission Tomography:陽電子放射断層撮影)画像を使用することも可能である。また、透視画像の代わりに,後方散乱を利用したX線後方散乱画像を利用することも可能である。
標的対象の位置を特定し追跡するための技術として、以下の技術が公知である。
When treating a tumor by irradiating it with radiation such as radiated electromagnetic waves such as X-rays or particle beams such as positron beams, the tumor should be treated so that the radiation does not irradiate other than the tumor part of the subject (patient). It is necessary to specify the outer shape. In addition, since the position of the target target (tumor, etc.) for treatment moves due to the patient's breathing or beating, etc., in order to prevent radiation from irradiating a site other than the target target (normal site), X is used in real time. It is necessary to take a line-through image to track and locate the target object and irradiate the target object only when it moves to the radiation irradiation position. In addition, the technique of taking an image to identify and track the position of the target target and guide the irradiation position of radiation, that is, the target tracking technique by so-called image guidance, is an X-ray fluoroscopic image taken by using X-rays on the order of kV. It is common, but not limited to, used. For example, not only X-ray fluoroscopic images, but also X-ray images and ultrasonic images taken using MV-order X-rays, MRI (Magnetic Resonance Imaging) images, CT images (Computed Tomography), It is also possible to use PET (Positron Emission Tomography) images. It is also possible to use an X-ray backscattered image using backscattering instead of the fluoroscopic image.
The following techniques are known as techniques for identifying and tracking the position of a target target.

特許文献1(国際公開2018/159975号公報)には、患者の呼吸等で移動する腫瘍等の追跡対象を追跡する技術が記載されている。特許文献1記載の技術では、追跡対象(腫瘍等)を含む画像から、骨等の骨構造DRR画像と、腫瘍等の軟部組織DRR画像とを分離し、骨構造DRR画像をランダムに線形変換したものを軟部組織DRR画像に重ねた(ランダムオーバーレイした)重畳画像を複数作成する。そして、複数の重畳画像を使用してディープラーニングを使用して学習する。治療時には、治療時の透視画像と学習結果から、追跡対象の領域を特定して、治療用X線を照射している。 Patent Document 1 (International Publication No. 2018/159975) describes a technique for tracking a tracking target such as a tumor that moves due to a patient's respiration or the like. In the technique described in Patent Document 1, a bone structure DRR image such as a bone and a soft tissue DRR image such as a tumor are separated from an image including a tracking target (tumor or the like), and the bone structure DRR image is randomly linearly converted. Create a plurality of superimposed images (random overlays) on which the objects are superimposed on the soft tissue DRR image. Then, learning is performed using deep learning using a plurality of superimposed images. At the time of treatment, a region to be tracked is specified from the fluoroscopic image at the time of treatment and the learning result, and therapeutic X-rays are irradiated.

特許文献2(特許第3053389号公報)には、治療の標的対象となる腫瘍近傍に埋め込まれた腫瘍マーカを複数の方向からX線で透視して撮影し、予め登録された追跡対象(腫瘍)マーカのテンプレート画像と濃淡正規化相互相関によるテンプレートマッチングを行って、腫瘍マーカの位置を3次元で特定する技術が記載されている。 In Patent Document 2 (Japanese Patent No. 3053389), a tumor marker embedded in the vicinity of a tumor to be treated is photographed by seeing through from a plurality of directions with X-rays, and a pre-registered follow-up target (tumor) is obtained. A technique for identifying the position of a tumor marker in three dimensions by performing template matching between a marker template image and a shade normalization cross-correlation is described.

国際公開2018/159775号:WO2018/159775A1公報(「0031」〜「0053」、図1−図7)International Publication No. 2018/159775: WO2018 / 159775A1 Publication (“0031” to “0053”, FIGS. 1 to 7) 特許第3053389号公報(「0035」〜「0046」、図1、図2)Japanese Patent No. 3053389 ("0035" to "0046", FIGS. 1 and 2)

(従来技術の問題点)
特許文献1、2に記載の技術では、標的対象を透視撮影するためのX線を患者に向けて照射する方向と、治療用のビームを患者に向けて照射する方向が異なっている。腫瘍の形状は、球形のような3次元的に均質、等方的な形状ではなく、長細かったり、凹凸があったりする。したがって、透視方向と治療ビーム照射方向では、各方向に投影された腫瘍の形状が異なることが一般的であり、単純に透視方向の画像を使用して治療ビームを照射すると、腫瘍の全体にX線が照射されなかったり、正常部位にX線が照射されたりする問題がある。
(Problems of conventional technology)
In the techniques described in Patent Documents 1 and 2, the direction of irradiating the patient with X-rays for fluoroscopic imaging of the target object and the direction of irradiating the therapeutic beam toward the patient are different. The shape of the tumor is not a three-dimensionally homogeneous and isotropic shape such as a spherical surface, but may be elongated or uneven. Therefore, the shape of the tumor projected in each direction is generally different between the perspective direction and the treatment beam irradiation direction, and when the treatment beam is simply irradiated using the image in the perspective direction, the entire tumor is X-rayed. There is a problem that the line is not irradiated or the normal part is irradiated with X-ray.

特許文献2に記載の技術では、2つの方向から撮影した透視画像から、腫瘍マーカの3次元座標を計算している。そして、3次元上の位置座標から、治療用のビームを照射する位置を演算して、照射している。したがって、特許文献2に記載の技術は、2つの撮影画像(2次元)から腫瘍の3次元上の座標(3次元)を計算し、治療用のビームの照射方向の照射野(2次元)を導出する技術である。
特許文献2に記載の技術のように、2次元、3次元、2次元のように順に演算を行うと、処理に時間がかかり、リアルタイムな追跡や外形の形状の変化に対応しにくい問題がある。また、特許文献2記載の技術のように、体内に金属のマーカーを埋め込む技術は、侵襲的な方法となり、患者に負担がかかる問題もある。
In the technique described in Patent Document 2, the three-dimensional coordinates of the tumor marker are calculated from the fluoroscopic images taken from two directions. Then, the position to irradiate the therapeutic beam is calculated from the three-dimensional position coordinates and irradiated. Therefore, the technique described in Patent Document 2 calculates the three-dimensional coordinates (three-dimensional) of the tumor from the two captured images (two-dimensional), and determines the irradiation field (two-dimensional) in the irradiation direction of the therapeutic beam. It is a technology to derive.
When operations are performed in order such as two-dimensional, three-dimensional, and two-dimensional as in the technique described in Patent Document 2, processing takes time, and there is a problem that it is difficult to respond to real-time tracking and changes in the shape of the outer shape. .. Further, the technique of embedding a metal marker in the body, such as the technique described in Patent Document 2, becomes an invasive method and has a problem of imposing a burden on the patient.

本発明は、複数の撮影画像から3次元上の位置を導出して標的対象部位を推定する技術に比べて、標的対象部位を速やかに推定することを技術的課題とする。 It is a technical subject of the present invention to estimate a target target site more quickly than a technique of estimating a target target site by deriving a three-dimensional position from a plurality of captured images.

前記技術的課題を解決するために、請求項1に記載の発明の標的外形推定装置は、
被検者の体内の標的に第1の放射線を照射する第1の照射手段を有し、前記第1の放射線を照射する第1の方向に対して、前記第1の方向とは異なる第2の方向から前記被検者の体内の標的を含む領域を透視した画像を撮影する撮影手段と、
前記第2の方向からの透視画像に映る標的の外形に基づいて、前記透視画像に映る標的の外形と前記第1の方向における標的の外形との相関を学習して相関情報である識別器を出力する学習手段と、
治療が行われる直近に撮影された前記第2の方向からの透視画像に映る標的の外形と、前記識別器とに基づいて、前記第1の方向における標的の外形を推定する外形推定手段と、
を備えたことを特徴とする。
In order to solve the technical problem, the target outer shape estimation device of the invention according to claim 1 is used.
It has a first irradiation means for irradiating a target in the body of a subject with a first radiation, and a second direction different from the first direction with respect to the first direction for irradiating the first radiation. An imaging means for capturing an image of the area including the target in the subject's body from the direction of
Based on the outer shape of the target reflected in the fluoroscopic image from the second direction, the classifier which is the correlation information by learning the correlation between the outer shape of the target reflected in the fluoroscopic image and the outer shape of the target in the first direction is obtained. Learning means to output and
An outer shape estimating means for estimating the outer shape of the target in the first direction based on the outer shape of the target reflected in the fluoroscopic image from the second direction taken most recently in which the treatment is performed and the discriminator.
It is characterized by being equipped with.

請求項2に記載の発明は、請求項1に記載の標的外形推定装置において、
前記第1の放射線が、X線または粒子線であり、
前記透視画像が、X線画像、核磁気共鳴画像、超音波検査画像、陽電子放射断層撮影画像、体表面形状画像および光音響イメージング画像のいずれか1つまたはその組み合わせである
ことを特徴とする。
The invention according to claim 2 is the target outer shape estimation device according to claim 1.
The first radiation is an X-ray or a particle beam,
The fluoroscopic image is characterized in that it is any one or a combination of an X-ray image, a nuclear magnetic resonance image, an ultrasonic inspection image, a positron emission tomography image, a body surface shape image, and a photoacoustic imaging image.

請求項3に記載の発明は、請求項1または2に記載の標的外形推定装置において、
前記透視画像に映る標的の外形に基づいて、透視画像に映る標的の外形と前記第1の方向における前記第1の照射手段からの距離との相関も学習する前記学習手段と、
治療が行われる直近に撮影された前記透視画像に映る標的の外形と、前記識別器とに基づいて、前記第1の方向における標的の前記第1の照射手段からの距離を推定する距離推定手段と、
を備えたことを特徴とする。
The invention according to claim 3 is the target outer shape estimating device according to claim 1 or 2.
Based on the outer shape of the target shown in the fluoroscopic image, the learning means that also learns the correlation between the outer shape of the target shown in the fluoroscopic image and the distance from the first irradiation means in the first direction.
A distance estimating means for estimating the distance of the target from the first irradiation means in the first direction based on the outer shape of the target reflected in the fluoroscopic image taken most recently in which the treatment is performed and the discriminator. When,
It is characterized by being equipped with.

請求項4に記載の発明は、請求項1ないし3のいずれかに記載の標的外形推定装置において、
前記第2の方向とは異なる第3の方向から前記被検者の体内の標的を含む領域の画像を撮影する撮影手段と、
前記第2の方向からの透視画像に映る標的の外形と、前記第3の方向からの透視画像に映る標的の外形とに基づいて、各透視画像に映る標的の外形と前記第1の方向における標的の外形との相関を学習して識別器を出力する前記学習手段と、
を備えたことを特徴とする。
The invention according to claim 4 is the target outer shape estimating device according to any one of claims 1 to 3.
An imaging means for capturing an image of a region containing a target in the subject's body from a third direction different from the second direction.
Based on the outer shape of the target reflected in the fluoroscopic image from the second direction and the outer shape of the target reflected in the fluoroscopic image from the third direction, the outer shape of the target reflected in each fluoroscopic image and the outer shape of the target in the first direction. The learning means that learns the correlation with the outer shape of the target and outputs a classifier,
It is characterized by being equipped with.

請求項5に記載の発明は、請求項1ないし4のいずれかに記載の標的外形推定装置において、
前記標的の画像特徴を含む追跡対象部画像に、前記画像特徴を含まない複数からなる非追跡対象画像のそれぞれを重ねた複数の重畳画像を作成する重畳画像作成手段と、
前記第2の方向からの透視画像に映る標的の外形に基づいて、前記透視画像に映る標的の外形と前記第1の方向における標的の外形との相関を学習すると共に、前記複数の重畳画像に基づいて前記標的の画像特徴および位置情報の少なくとも一方を学習して、識別器を作成する前記学習手段と、
を備えたことを特徴とする。
The invention according to claim 5 is the target outer shape estimating device according to any one of claims 1 to 4.
A superimposed image creating means for creating a plurality of superimposed images in which each of a plurality of non-tracked target images not including the image feature is superimposed on the tracked portion image including the target image feature.
Based on the outer shape of the target reflected in the perspective image from the second direction, the correlation between the outer shape of the target reflected in the perspective image and the outer shape of the target in the first direction is learned, and the plurality of superimposed images are displayed. Based on the learning means for creating a classifier by learning at least one of the image feature and the position information of the target.
It is characterized by being equipped with.

請求項6に記載の発明は、請求項5に記載の標的外形推定装置において、
前記標的の画像特徴を特定する教師画像を予め入力する入力部と、
前記複数の重畳画像と前記教師画像に基づいて、前記標的の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する前記学習手段と、
を備えたことを特徴とする。
The invention according to claim 6 is the target outer shape estimating device according to claim 5.
An input unit for inputting a teacher image for specifying the image feature of the target in advance,
The learning means for creating a classifier by learning at least one of the image feature and the position information of the target based on the plurality of superimposed images and the teacher image.
It is characterized by being equipped with.

請求項7に記載の発明は、請求項5または6に記載の標的外形推定装置において、
前記標的の画像特徴の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、前記非追跡対象画像の枚数を導出して、導出された枚数に応じた前記非追跡対象画像を作成する非追跡対象画像編集手段、
を備えたことを特徴とする。
The invention according to claim 7 is the target outer shape estimating device according to claim 5 or 6.
Based on the size of the image feature of the target, the resolution of the image, and the preset tracking accuracy, the number of the non-tracking target images is derived, and the non-tracking target image according to the derived number of images is obtained. Non-tracked image editing means to create,
It is characterized by being equipped with.

請求項8に記載の発明は、請求項5ないし7のいずれかに記載の標的外形推定装置において、
前記標的の画像特徴を含む学習用の元画像から、前記標的の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離抽出する画像分離手段と、
前記分離非追跡対象画像を編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集手段と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成手段と
を備えたことを特徴とする。
The invention according to claim 8 is the target outer shape estimating device according to any one of claims 5 to 7.
An image separation means for separating and extracting a tracking target part image including the target image feature and a separate non-tracking target image not including the tracking target image feature from a learning original image including the target image feature. ,
A non-tracking target image editing means for editing and creating the non-tracking target image composed of a plurality of separated non-tracking target images, and a non-tracking target image editing means.
With the superimposed image creating means for creating the superimposed image based on the tracked portion image and the non-tracked target image.
It is characterized by being equipped with.

請求項9に記載の発明は、請求項5ないし7のいずれかに記載の標的外形推定装置において、
前記標的の画像特徴を含む元画像から、前記標的の画像特徴を含む追跡対象部画像と、前記標的の画像特徴を含まない分離非追跡対象画像とに分離する画像分離手段と、
前記元画像に含まれず且つ前記非追跡対象画像に含まれる障害物の画像を取得する障害物画像取得手段と、
前記分離非追跡対象画像と前記障害物の画像との少なくとも1つを編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集手段と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成手段と、
を備えたことを特徴とする。
The invention according to claim 9 is the target outer shape estimating device according to any one of claims 5 to 7.
An image separation means for separating an original image including the image feature of the target into a tracking target part image including the image feature of the target and a separation non-tracking target image not including the image feature of the target.
An obstacle image acquisition means for acquiring an image of an obstacle that is not included in the original image and is included in the non-tracking target image.
A non-tracking target image editing means for editing and creating a plurality of the non-tracking target image by editing at least one of the separated non-tracking target image and the obstacle image.
The superimposed image creating means for creating the superimposed image based on the tracked portion image and the non-tracked target image, and
It is characterized by being equipped with.

請求項10に記載の発明は、請求項8または9に記載の標的外形推定装置において、
前記標的の画像特徴を含む学習用の元画像から、前記標的の画像特徴の画像コントラスト情報に基づき、前記追跡対象部画像と前記分離非追跡対象画像とに分離抽出する前記画像分離手段と、
を備えたことを特徴とする。
The invention according to claim 10 is the target outer shape estimating device according to claim 8 or 9.
The image separation means for separating and extracting the tracking target portion image and the separation non-tracking target image from the original image for learning including the target image feature based on the image contrast information of the target image feature.
It is characterized by being equipped with.

請求項11に記載の発明は、請求項5ないし10のいずれかに記載の標的外形推定装置において、
前記標的の画像特徴および位置情報の少なくとも一方が予め設定された評価用の画像と、前記識別器とに基づいて、前記標的の追跡の精度を評価する追跡精度評価手段、
を備えたことを特徴とする。
The invention according to claim 11 is the target outer shape estimating device according to any one of claims 5 to 10.
A tracking accuracy evaluation means for evaluating the tracking accuracy of the target based on the image for evaluation in which at least one of the image feature and the position information of the target is preset and the classifier.
It is characterized by being equipped with.

請求項12に記載の発明は、請求項11に記載の標的外形推定装置において、
前記追跡精度評価手段による追跡の精度が、予め設定された精度に達しない場合に、前記非追跡対象画像の枚数を増やして前記識別器を再作成する前記学習手段、
を備えたことを特徴とする。
The invention according to claim 12 is the target outer shape estimating device according to claim 11.
The learning means, which recreates the classifier by increasing the number of non-tracked images when the tracking accuracy by the tracking accuracy evaluation means does not reach a preset accuracy.
It is characterized by being equipped with.

前記技術的課題を解決するために、請求項13に記載の発明の治療装置は、
請求項1ないし12のいずれかに記載の標的外形推定装置と、
前記標的外形推定装置が推定した標的の外形に基づいて、前記第1の方向から治療用の放射線を照射する照射手段と、
を備えたことを特徴とする。
In order to solve the technical problem, the therapeutic device of the invention according to claim 13 is
The target outer shape estimation device according to any one of claims 1 to 12,
An irradiation means that irradiates therapeutic radiation from the first direction based on the outer shape of the target estimated by the target outer shape estimation device.
It is characterized by being equipped with.

請求項1,13に記載の発明によれば、複数の撮影画像から3次元上の位置を導出して標的対象部位を推定する技術に比べて、標的対象部位を速やかに推定することができる。
請求項2に記載の発明によれば、X線画像、核磁気共鳴画像、超音波検査画像、陽電子放射断層撮影画像、体表面形状画像および光音響イメージング画像のいずれか1つまたはその組み合わせの画像で撮影を行い、X線または粒子線での治療に活用することができる。
請求項3に記載の発明によれば、標的までの距離も推定することができ、陽子線等の粒子線での治療に活用することができる。
According to the inventions of claims 1 and 13, the target target site can be estimated more quickly than the technique of deriving a three-dimensional position from a plurality of captured images to estimate the target target site.
According to the second aspect of the invention, any one or a combination of an X-ray image, a nuclear magnetic resonance image, an ultrasonic inspection image, a positron emission tomography image, a body surface shape image, and a photoacoustic imaging image. It can be used for treatment with X-rays or particle beams.
According to the invention of claim 3, the distance to the target can also be estimated, and it can be utilized for treatment with a particle beam such as a proton beam.

請求項4に記載の発明によれば、2つの方向からの透視画像に基づいて腫瘍の外形を推定しており、1つの方向からの場合に比べて、外形の推定精度を向上させることができる。
請求項5に記載の発明によれば、従来技術のテンプレートマッチングによる画像追跡法に比べて、治療の標的の部位の領域および位置の少なくとも一方の特定を容易且つ短時間で行える。
請求項6に記載の発明によれば、教師画像を使用しない場合に比べて、処理を高速化できる。請求項6の記載によれば、教師画像がある場合には、教師画像中の標的の画像特徴領域の位置と形状は、複数の重畳画像に含まれる標的の画像特徴領域の位置と形状とに相関があるが、標的ではない障害物の画像特徴の位置と形状には相関がない。この相関の有無が、追跡に必要な情報か否かを区別して学習する効果を生じさせる。
According to the invention of claim 4, the outer shape of the tumor is estimated based on the fluoroscopic images from two directions, and the estimation accuracy of the outer shape can be improved as compared with the case from one direction. ..
According to the fifth aspect of the present invention, at least one of the region and the position of the target site for treatment can be easily and quickly identified as compared with the conventional image tracking method by template matching.
According to the invention of claim 6, the processing speed can be increased as compared with the case where the teacher image is not used. According to the description of claim 6, when there is a teacher image, the position and shape of the target image feature region in the teacher image are the same as the position and shape of the target image feature region included in the plurality of superimposed images. There is a correlation, but there is no correlation between the position and shape of image features of non-target obstacles. The presence or absence of this correlation has the effect of learning by distinguishing whether or not the information is necessary for tracking.

請求項7に記載の発明によれば、画像の大きさや分解能、追跡制度に応じて、必要十分な枚数の非追跡対象画像を作成することができる。
請求項8に記載の発明によれば、骨などの追跡の障害となる背景物・障害物を含む分離された非追跡対象画像を使用しない場合に比べて、患者などの被検体ごとに異なる背景や障害物の差異に応じた学習ができる。すなわち、従来技術では、多くの被検体に基づいて作成された識別器のみ実現可能であったが、それら従来技術に比して個々の被検体に適した追跡を行うことができる。
請求項9に記載の発明によれば、元画像に含まれない障害物の画像を追加することで、元画像に含まれていない障害物が、対象追跡中の非追跡対象画像に混入した時にでも、対象追跡の精度も向上させることができる。すなわち、従来は、このような学習の元画像に入っていない障害物が標的の非追跡対象画像に混入した時には著しく標的追跡の精度が低下したが、それら従来技術に比して、個別の非追跡対象画像に適した追跡を行う事ができる。
According to the invention of claim 7, a necessary and sufficient number of non-tracking target images can be created according to the size and resolution of the image and the tracking system.
According to the invention of claim 8, the background is different for each subject such as a patient as compared with the case where a separated non-tracking target image including a background object / obstacle that hinders tracking such as bone is not used. You can learn according to the difference between obstacles and obstacles. That is, in the conventional technique, only a classifier created based on a large number of subjects can be realized, but as compared with those conventional techniques, it is possible to perform tracking suitable for each subject.
According to the invention of claim 9, by adding an image of an obstacle not included in the original image, when an obstacle not included in the original image is mixed in the non-tracked target image being tracked. However, the accuracy of target tracking can also be improved. That is, in the past, when an obstacle not included in the original image of learning was mixed in the non-tracked target image of the target, the accuracy of target tracking was significantly reduced. It is possible to perform tracking suitable for the image to be tracked.

請求項10に記載の発明によれば、コントラスト情報に基づいて、標的と非標的とを分離することを自動的に行うことができ、手動で標的を指定する場合に比べて、分離の処理を容易にできる。
請求項11に記載の発明によれば、実際の治療の前に識別器の評価をすることができる。
請求項12に記載の発明によれば、識別器の精度が不十分な場合は、枚数の増えた重畳画像を利用して識別器を再作成することができ、識別器の精度を向上させることができる。
According to the invention of claim 10, the target and the non-target can be automatically separated based on the contrast information, and the separation process can be performed as compared with the case where the target is manually specified. Easy to do.
According to the invention of claim 11, the discriminator can be evaluated before the actual treatment.
According to the invention of claim 12, when the accuracy of the classifier is insufficient, the classifier can be recreated by using the superimposed image with an increased number of images, and the accuracy of the classifier can be improved. Can be done.

図1は本発明の実施例1の腫瘍外形推定装置が適用された放射線治療機の説明図である。FIG. 1 is an explanatory view of a radiotherapy machine to which the tumor shape estimation device of Example 1 of the present invention is applied. 図2は実施例1の放射線治療機の要部説明図である。FIG. 2 is an explanatory view of a main part of the radiotherapy machine of the first embodiment. 図3は実施例1の放射線治療機の制御部が備えている各機能をブロック図で示した図である。FIG. 3 is a block diagram showing each function provided in the control unit of the radiotherapy machine of the first embodiment. 図4は実施例1の制御部における処理の一例の説明図である。FIG. 4 is an explanatory diagram of an example of processing in the control unit of the first embodiment. 図5は実施例1の重畳画像26と教師画像30の一例の説明図であり、図5Aは一方向から擬似的に透視したDRR画像による重畳画像の一例の説明図、図5Bは図5Aに対応する教師画像の一例の説明図、図5Cは2方向からの擬似的透視DRR画像による重畳画像の一例の説明図、図5Dは図5Cに対応する教師画像の一例の説明図である。FIG. 5 is an explanatory diagram of an example of the superimposed image 26 and the teacher image 30 of the first embodiment, FIG. 5A is an explanatory diagram of an example of the superimposed image by a DRR image pseudo-transparent from one direction, and FIG. 5B is shown in FIG. 5A. An explanatory diagram of an example of a corresponding teacher image, FIG. 5C is an explanatory diagram of an example of a superimposed image by a pseudo perspective DRR image from two directions, and FIG. 5D is an explanatory diagram of an example of a teacher image corresponding to FIG. 5C. 図6は追跡対象の位置の学習の一例の説明図であり、図6Aは複数の重畳画像の一例の説明図、図6Bは重畳画像が重ねられた場合の説明図である。FIG. 6 is an explanatory diagram of an example of learning the position of the tracking target, FIG. 6A is an explanatory diagram of an example of a plurality of superimposed images, and FIG. 6B is an explanatory diagram when the superimposed images are superimposed. 図7は実施例1の放射線治療機の使用方法の一例の説明図である。FIG. 7 is an explanatory diagram of an example of how to use the radiotherapy machine of Example 1. 図8は実施例2の説明図であり、実施例1の図2に対応する図である。FIG. 8 is an explanatory diagram of the second embodiment and is a diagram corresponding to FIG. 2 of the first embodiment. 図9は実施例2のブロック図であり、実施例1の図3に対応する図である。FIG. 9 is a block diagram of the second embodiment and is a diagram corresponding to FIG. 3 of the first embodiment. 図10は実施例2の重畳画像と教師画像の一例の説明図であり、図10Aは一方向から擬似的に透視したDRR画像による重畳画像の一例の説明図、図10Bは図10Aに対応する教師画像の一例の説明図、図10Cは2方向からの擬似的透視DRR画像による重畳画像の一例の説明図、図10Dは図10Cに対応する教師画像の一例の説明図である。FIG. 10 is an explanatory diagram of an example of the superimposed image and the teacher image of the second embodiment, FIG. 10A is an explanatory diagram of an example of the superimposed image by a DRR image pseudo-transparent from one direction, and FIG. 10B corresponds to FIG. 10A. An explanatory diagram of an example of a teacher image, FIG. 10C is an explanatory diagram of an example of a superimposed image by a pseudo perspective DRR image from two directions, and FIG. 10D is an explanatory diagram of an example of a teacher image corresponding to FIG. 10C.

次に図面を参照しながら、本発明の実施の形態の具体例である実施例を説明するが、本発明は以下の実施例に限定されるものではない。
なお、以下の図面を使用した説明において、理解の容易のために説明に必要な部材以外の図示は適宜省略されている。
Next, an embodiment which is a specific example of the embodiment of the present invention will be described with reference to the drawings, but the present invention is not limited to the following examples.
In addition, in the explanation using the following drawings, the illustrations other than the members necessary for the explanation are omitted as appropriate for the sake of easy understanding.

図1は本発明の実施例1の腫瘍外形推定装置が適用された放射線治療機の説明図である。
図2は実施例1の放射線治療機の要部説明図である。
図1、図2において、本発明の実施例1の対象追跡装置が適用された放射線治療機(治療装置の一例)1は、治療の被検体である患者2が寝るベッド3を有する。ベッド3の下方には、透視撮影用X線照射装置4が配置されている。実施例1の透視撮影用X線照射装置4は、2つのX線照射部(第1チャンネル4aおよび第2チャンネル4b)を有する。各X線照射部(第2の照射手段および第3の照射手段)4a,4bは、透視用の放射線の一例としてのX線を患者2に向けて照射可能である。
患者2を挟んで各X線照射部4a,4bの反対側には、撮像装置(撮像手段)6a,6bが配置されている。撮像装置6a,6bは、患者を透過したX線を受けてX線透視画像を撮像する。撮像装置6で撮影した画像は画像生成器7で電気信号に変換され、コントロールシステム8に入力される。以下の説明において、第1チャンネルX線照射部4aから撮像装置6aに向かう方向を0ー方向とする。その場合、本実施例では、第2チャンネルX線照射部4bから撮像装置6bに向かう方向が90ーになるように、X線照射部4a,4bと撮像装置6a,6bが配置されている例である。この配置は、実際の治療現場に応じて、任意の角度にて設置して本発明を実施することが可能である。
FIG. 1 is an explanatory view of a radiotherapy machine to which the tumor shape estimation device of Example 1 of the present invention is applied.
FIG. 2 is an explanatory view of a main part of the radiotherapy machine of the first embodiment.
In FIGS. 1 and 2, the radiotherapy machine (an example of the treatment device) 1 to which the target tracking device of the first embodiment of the present invention is applied has a bed 3 on which the patient 2 who is the subject of treatment sleeps. An X-ray irradiation device 4 for fluoroscopic photography is arranged below the bed 3. The X-ray irradiation apparatus 4 for fluoroscopy according to the first embodiment has two X-ray irradiation units (first channel 4a and second channel 4b). Each X-ray irradiation unit (second irradiation means and third irradiation means) 4a, 4b can irradiate the patient 2 with X-rays as an example of radiation for fluoroscopy.
Imaging devices (imaging means) 6a and 6b are arranged on opposite sides of the X-ray irradiation units 4a and 4b with the patient 2 in between. The imaging devices 6a and 6b receive X-rays transmitted through the patient and capture an X-ray fluoroscopic image. The image taken by the image pickup apparatus 6 is converted into an electric signal by the image generator 7 and input to the control system 8. In the following description, the direction from the first channel X-ray irradiation unit 4a toward the image pickup apparatus 6a is defined as the 0-direction. In that case, in this embodiment, the X-ray irradiation units 4a and 4b and the image pickup devices 6a and 6b are arranged so that the direction from the second channel X-ray irradiation unit 4b toward the image pickup device 6b is 90-. Is. This arrangement can be installed at an arbitrary angle to carry out the present invention according to the actual treatment site.

また、ベッド3の上方には、治療用放射線照射器(第1の照射手段)11が配置されている。本実施例では、第1の照射手段の照射方向(Beam’sEye View方向)は、治療用放射線照射器11から追跡対象9(腫瘍など治療の標的対象)に向かう45ー方向に配置されている。この配置も、実際の治療現場に応じて、任意の角度にて設置して本発明を実施することが可能である。治療用放射線照射器11は、コントロールシステム8から制御信号が入力可能に構成されている。治療用放射線照射器11は、制御信号の入力に応じて、予め設定された位置(患者2の患部)に向けて治療用の放射線の一例としてのX線を照射可能に構成されている。なお、実施例1では、治療用放射線照射器11において、X線源の外側に、追跡対象9(腫瘍等)の外形に合わせてX線の通過領域(X線が通過する開口の形状)を調整可能な絞り部の一例としてのMLC(Multi Leaf Collimator:マルチリーフコリメータ、図示せず)が設置されている。なお、MLCは従来公知であり、市販のものを使用可能であるが、MLCに限定されず、X線の通過領域を調整可能な任意の構成を採用可能である。
なお、実施例1では、透視撮影用のX線として加速電圧がkV(キロボルト)オーダーのX線が照射され、治療用のX線としては加速電圧がMV(メガボルト)オーダーのX線が照射される。
Further, a therapeutic radiation irradiator (first irradiation means) 11 is arranged above the bed 3. In this embodiment, the irradiation direction (Beam's Eye View direction) of the first irradiation means is arranged in the 45-direction from the therapeutic irradiation device 11 toward the tracking target 9 (target target for treatment such as tumor). .. This arrangement can also be installed at an arbitrary angle according to the actual treatment site to carry out the present invention. The therapeutic radiation irradiator 11 is configured so that a control signal can be input from the control system 8. The therapeutic radiation irradiator 11 is configured to be capable of irradiating X-rays as an example of therapeutic radiation toward a preset position (affected portion of patient 2) in response to input of a control signal. In Example 1, in the therapeutic irradiation device 11, an X-ray passing region (shape of an opening through which X-rays pass) is formed outside the X-ray source according to the outer shape of the tracking target 9 (tumor or the like). An MLC (Multi Leaf Collimator, not shown) is installed as an example of an adjustable diaphragm. The MLC is conventionally known and a commercially available one can be used, but the MLC is not limited to the MLC, and an arbitrary configuration in which the X-ray passing region can be adjusted can be adopted.
In Example 1, X-rays having an acceleration voltage on the order of kV (kilovolt) are irradiated as X-rays for fluoroscopy, and X-rays having an acceleration voltage on the order of MV (megavolt) are irradiated as X-rays for treatment. To.

(実施例1のコントロールシステム(制御部)の説明)
図3は実施例1の放射線治療機の制御部が備えている各機能をブロック図で示した図である。
図3において、コントロールシステム8の制御部Cは、外部との信号の入出力等を行う入出力インターフェースI/Oを有する。また、制御部Cは、必要な処理を行うためのプログラムおよび情報等が記憶されたROM:リードオンリーメモリを有する。また、制御部Cは、必要なデータを一時的に記憶するためのRAM:ランダムアクセスメモリを有する。また、制御部Cは、ROM等に記憶されたプログラムに応じた処理を行うCPU:中央演算処理装置を有する。したがって、実施例1の制御部Cは、小型の情報処理装置、いわゆるマイクロコンピュータにより構成されている。よって、制御部Cは、ROM等に記憶されたプログラムを実行することにより種々の機能を実現することができる。
(Explanation of the control system (control unit) of the first embodiment)
FIG. 3 is a block diagram showing each function provided in the control unit of the radiotherapy machine of the first embodiment.
In FIG. 3, the control unit C of the control system 8 has an input / output interface I / O that inputs / outputs signals to / from the outside. Further, the control unit C has a ROM: read-only memory in which a program, information, and the like for performing necessary processing are stored. Further, the control unit C has a RAM: random access memory for temporarily storing necessary data. Further, the control unit C has a CPU: a central processing unit that performs processing according to a program stored in a ROM or the like. Therefore, the control unit C of the first embodiment is composed of a small information processing device, a so-called microprocessor. Therefore, the control unit C can realize various functions by executing the program stored in the ROM or the like.

(制御部Cに接続された信号出力要素)
制御部Cは、操作部UIや、画像生成器7、図示しないセンサ等の信号出力要素からの出力信号が入力されている。
操作部(ユーザインタフェース)UIは、表示部の一例であって入力部の一例としてのタッチパネルUI0を有する。また、操作部UIは、学習処理開始用のボタンUI1、教師データ入力用のボタンUI2や透視撮影開始用のボタンUI3等の各種入力部材を有する。
画像生成器7は、撮像装置6で撮影された画像を制御部Cに入力する。
(Signal output element connected to control unit C)
The control unit C is input with output signals from a signal output element such as an operation unit UI, an image generator 7, and a sensor (not shown).
The operation unit (user interface) UI has a touch panel UI 0 as an example of a display unit and an example of an input unit. Further, the operation unit UI includes various input members such as a button UI 1 for starting learning processing, a button UI 2 for inputting teacher data, and a button UI 3 for starting fluoroscopic photography.
The image generator 7 inputs the image captured by the image pickup device 6 to the control unit C.

(制御部Cに接続された被制御要素)
制御部Cは、透視撮影用X線照射装置4や治療用放射線照射器11、その他の図示しない制御要素に接続されている。制御部Cは、透視撮影用X線照射装置4や治療用放射線照射器11等へ、それらの制御信号を出力している。
透視撮影用X線照射装置4は、学習時や治療時にX線透視画像を撮影するためのX線を患者2に向けて照射する。
治療用放射線照射器11は、治療時に治療用の放射線(X線)を患者2に向けて照射する。
(Controlled element connected to control unit C)
The control unit C is connected to an X-ray irradiation device 4 for fluoroscopy, a radiation irradiator 11 for treatment, and other control elements (not shown). The control unit C outputs control signals thereof to the fluoroscopic X-ray irradiation device 4, the therapeutic radiation irradiator 11, and the like.
The fluoroscopic X-ray irradiation device 4 irradiates the patient 2 with X-rays for capturing an X-ray fluoroscopic image during learning or treatment.
The therapeutic radiation irradiator 11 irradiates the patient 2 with therapeutic radiation (X-rays) at the time of treatment.

(制御部Cの機能)
制御部Cは、前記信号出力要素からの入力信号に応じた処理を実行して、前記各制御要素に制御信号を出力する機能を有している。すなわち、制御部Cは次の機能を有している。
(Function of control unit C)
The control unit C has a function of executing processing according to an input signal from the signal output element and outputting a control signal to each of the control elements. That is, the control unit C has the following functions.

図4は実施例1の制御部における処理の一例の説明図である。
C1:学習画像読み取り手段
学習画像読み取り手段C1は、画像生成器7から入力された画像を読み取る(読み込む)。実施例1の学習画像読み取り手段C1は、学習処理開始用のボタンUI1が入力された場合に、画像生成器7から入力された画像を読み取る。なお、実施例1では、学習処理開始用のボタンUI1の入力が開始されてから、予め設定された学習期間の間、CT画像の読み取りが行われる。なお、実施例1の学習画像読み取り手段C1は、図4に示す追跡対象画像領域21(治療の標的対象である追跡対象9の一例として腫瘍の画像領域)を含む学習用の元画像(複数の横断面画像)22から、縦断面画像(図示せず)を構成して、以下の作業を行う。よって、実施例1では、学習に関連する各手段C2〜C10は、学習画像読み取り手段C1が読み取り、記憶した時系列に沿った各画像それぞれに基づいて、画像分離や編集、重畳等を実行する。すなわち、実施例1では、CT画像の撮影に対して、リアルタイムでの学習処理は行わないが、CPUの高速化等で処理速度が向上し、リアルタイムでも処理が可能になれば、リアルタイムで行うことも可能である。
FIG. 4 is an explanatory diagram of an example of processing in the control unit of the first embodiment.
C1: Learning image reading means The learning image reading means C1 reads (reads) an image input from the image generator 7. The learning image reading means C1 of the first embodiment reads the input image from the image generator 7 when the button UI1 for starting the learning process is input. In the first embodiment, the CT image is read for a preset learning period after the input of the button UI1 for starting the learning process is started. The learning image reading means C1 of Example 1 includes a tracking target image region 21 (a tumor image region as an example of the tracking target 9 which is a target of treatment) shown in FIG. 4, and a plurality of original images for learning (a plurality of original images). A vertical cross-sectional image (not shown) is constructed from the cross-sectional image) 22 to perform the following operations. Therefore, in the first embodiment, the learning-related means C2 to C10 execute image separation, editing, superimposition, and the like based on each image along the time series read and stored by the learning image reading means C1. .. That is, in the first embodiment, the learning process is not performed in real time for the acquisition of the CT image, but if the processing speed is improved by increasing the speed of the CPU or the like and the processing can be performed in real time, the learning process is performed in real time. Is also possible.

C2:画像分離手段
画像分離手段C2は、追跡対象画像領域21を含む学習用の3次元情報を含む元画像22に基づいて、追跡対象画像領域21を含む追跡対象部画像23(一例としての軟部組織DRR(Digitally Reconstructed Radiography)画像)と、追跡対象画像領域21を含まない分離背景画像(非追跡対象画像、分離非追跡対象画像)24(一例としての骨構造の画像領域を含む骨構造DRR画像(骨画像))とに分離抽出する。実施例1の画像分離手段C2は、CT画像のコントラスト情報であるCT値に基づいて、追跡対象部画像23(第1の画像、軟部組織DRR画像)と分離背景画像24(骨構造DRR画像)とに分離する。実施例1では、一例として、CT値が200以上の領域を骨構造DRR画像として分離背景画像24を構成し、CT値が200未満の領域を軟部組織DRR画像として追跡対象部画像23を構成する。
なお、実施例1では、一例として、肺に発生した腫瘍(追跡対象9)すなわち治療の標的対象が軟部組織DRR画像として追跡対象部画像23に写る場合の実施例であるが、例えば、追跡対象が骨の異常部分等である場合は、追跡対象部画像23として骨構造DRR画像を選択し、分離背景画像24として軟部組織DRR画像を選択する。このように、追跡対象部画像と背景画像(非追跡対象画像)の選択は、追跡対象および障害物を含む背景画像に応じて、適切に選択される。
C2: Image separating means The image separating means C2 is a tracking target part image 23 including the tracking target image area 21 (a soft part as an example) based on the original image 22 including the learning three-dimensional information including the tracking target image area 21. Tissue DRR (Digitally Reconstructed Radiography) image) and separated background image (non-tracked image, separated non-tracked image) 24 (bone structure DRR image including image area of bone structure as an example) that does not include the tracking target image area 21. (Bone image)) and separate and extract. The image separation means C2 of the first embodiment has a tracking target image 23 (first image, soft tissue DRR image) and a separation background image 24 (bone structure DRR image) based on the CT value which is the contrast information of the CT image. Separate into and. In Example 1, as an example, a region having a CT value of 200 or more is used as a bone structure DRR image to form a separated background image 24, and a region having a CT value of less than 200 is used as a soft tissue DRR image to form a tracked portion image 23. ..
In Example 1, as an example, a tumor generated in the lung (tracking target 9), that is, a target target for treatment is shown as a soft tissue DRR image in the tracking target image 23, but for example, a tracking target. When is an abnormal part of the bone or the like, a bone structure DRR image is selected as the tracking target part image 23, and a soft tissue DRR image is selected as the separated background image 24. In this way, the selection of the tracking target portion image and the background image (non-tracking target image) is appropriately selected according to the background image including the tracking target and the obstacle.

C3:障害物画像取得手段
障害物画像取得手段C3は、治療用放射線照射器11において非追跡対象画像28を取得する場合に含まれ、且つ、分離背景画像24とは異なる障害物の画像25を取得する。実施例1では、障害物画像25として、ベッド3のフレーム(カウチフレーム)や患者をベッド3に固定する固定具のX線透視画像が予め記憶媒体に記憶されており、障害物画像取得手段C3は、記憶媒体に記憶されたカウチフレームや固定具の画像(障害物画像25)を読み取って取得する。
C4:乱数発生手段
乱数発生手段C4は乱数を発生させる。
C3: Obstacle image acquisition means The obstacle image acquisition means C3 includes an obstacle image 25 that is included in the case of acquiring the non-tracking target image 28 in the therapeutic radiation irradiator 11 and is different from the separated background image 24. get. In the first embodiment, as the obstacle image 25, an X-ray fluoroscopic image of the frame (couch frame) of the bed 3 and the fixture for fixing the patient to the bed 3 is stored in the storage medium in advance, and the obstacle image acquisition means C3. Reads and acquires an image (obstacle image 25) of a couch frame or a fixture stored in a storage medium.
C4: Random number generation means Random number generation means C4 generates random numbers.

C5:背景画像編集手段(非追跡対象画像編集手段、非追跡対象画像作成手段)
背景画像編集手段C5は、分離背景画像24や障害物画像25の追跡対象部画像23に対する位置、拡縮、回転および明暗の少なくとも一つを編集して、背景画像(非追跡対象画像)29を作成する一例である。実施例1の背景画像編集手段C5は乱数に基づいて、位置、拡縮、回転および明暗の少なくとも一つを編集する。実施例1では、具体的には、アフィン変換を行って分離背景画像24や障害物画像25を平行移動させたり、線形変換(回転、せん断、拡大、縮小)させており、乱数に基づいてアフィン変換の行列の各値を変化させることで、分離背景画像24等を編集し背景画像29を作成する。なお、明暗(コントラスト)についても、分離背景画像24等の明暗を、明または暗の方向に、乱数に応じた量変化させる。実施例1では、背景画像編集手段C5は、1つの分離背景画像24等に対して、予め設定された数の一例としての100枚の編集された背景画像を作成する。すなわち、分離背景画像24等の位置等が乱数によりランダムに編集された100枚の背景画像29が作成される。
C5: Background image editing means (non-tracking target image editing means, non-tracking target image creating means)
The background image editing means C5 edits at least one of the position, scaling, rotation, and light / darkness of the separated background image 24 and the obstacle image 25 with respect to the tracking target image 23 to create the background image (non-tracking target image) 29. This is an example of The background image editing means C5 of the first embodiment edits at least one of position, scaling, rotation, and light / darkness based on a random number. In the first embodiment, specifically, the affine transformation is performed to translate the separated background image 24 and the obstacle image 25, or the linear transformation (rotation, shearing, enlargement, reduction) is performed, and the affine is based on a random number. By changing each value of the transformation matrix, the separated background image 24 and the like are edited to create the background image 29. As for the light and darkness (contrast), the light and darkness of the separated background image 24 and the like is changed in the light or dark direction by an amount according to a random number. In the first embodiment, the background image editing means C5 creates 100 edited background images as an example of a preset number for one separated background image 24 and the like. That is, 100 background images 29 are created in which the positions of the separated background images 24 and the like are randomly edited by random numbers.

なお、作成される背景画像29の枚数Nは、追跡対象部画像23の画像の領域の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、設定することが望ましい。一例として、追跡対象部画像23の画像が10cm×10cmで、分解能が1mm、要求される追跡精度が分解能の10倍の場合には、{10(cm)/1(mm)}×10(倍)=1000(枚)として、1000枚の背景画像29を作成するようにすることも可能である。 It is desirable that the number N of the background images 29 to be created is set based on the size of the image region of the tracking target image 23, the resolution of the image, and the preset tracking accuracy. As an example, when the image of the tracking target image 23 is 10 cm × 10 cm, the resolution is 1 mm, and the required tracking accuracy is 10 times the resolution, {10 (cm) / 1 (mm)} × 10 (times). ) = 1000 (sheets), it is also possible to create 1000 background images 29.

C6:重畳画像作成手段
重畳画像作成手段C6は、追跡対象部画像23に、背景画像29(分離背景画像24や障害物画像25に回転等の編集がされた画像)をそれぞれ重畳した重畳画像26を作成する。
C7:教師画像の入力受付手段
教師画像の入力受付手段C7は、タッチパネルUI0への入力や教師データ入力用のボタンUI2への入力に応じて、追跡すべき対象を教師する画像の一例としての教師画像領域27を含む教師画像30の入力を受け付ける。なお、実施例1では、タッチパネルUI0に学習用の元画像(CT画像)22を表示し、医師が治療の標的対象である追跡対象の画像領域を囲むように画面上にて入力して、教師画像領域27を決定することが可能なように構成されている。
C6: Superimposed image creating means The superposed image creating means C6 superimposes a background image 29 (an image obtained by editing such as rotation on a separated background image 24 or an obstacle image 25) on a tracking target image 23, respectively. To create.
C7: Teacher image input receiving means The teacher image input receiving means C7 is a teacher as an example of an image that teaches an object to be tracked in response to an input to the touch panel UI0 or a button UI2 for inputting teacher data. The input of the teacher image 30 including the image area 27 is accepted. In the first embodiment, the original image (CT image) 22 for learning is displayed on the touch panel UI0, and the doctor inputs it on the screen so as to surround the image area of the tracking target which is the target target of the treatment, and the teacher It is configured so that the image area 27 can be determined.

図5は実施例1の重畳画像26と教師画像30の一例の説明図であり、図5Aは一方向から擬似的に透視したDRR画像による重畳画像の一例の説明図、図5Bは図5Aに対応する教師画像の一例の説明図、図5Cは2方向からの擬似的透視DRR画像による重畳画像の一例の説明図、図5Dは図5Cに対応する教師画像の一例の説明図である。
図5A、図5Bは、一例として、X線透過画像を0度方向(図2の上方のX線照射手段4aから下方の撮像装置6aに向けた0度方向)にて撮影し、治療用のX線を45度傾いた方向(図2の45度方向。Beam’s Eye View, BEV方向)にて照射する場合に相当する。図5Aに示す、0度方向にて(擬似的に)透視したDRR重畳画像26に対して、図5Bに示すように、45度方向における2次元画像の領域での追跡対象9(腫瘍など)の輪郭(教師画像領域27)を教師画像30として入力可能である。
FIG. 5 is an explanatory diagram of an example of the superimposed image 26 and the teacher image 30 of the first embodiment, FIG. 5A is an explanatory diagram of an example of the superimposed image by a DRR image pseudo-transparent from one direction, and FIG. 5B is shown in FIG. 5A. An explanatory diagram of an example of a corresponding teacher image, FIG. 5C is an explanatory diagram of an example of a superimposed image by a pseudo perspective DRR image from two directions, and FIG. 5D is an explanatory diagram of an example of a teacher image corresponding to FIG. 5C.
5A and 5B show, as an example, an X-ray transmission image taken in the 0-degree direction (0-degree direction from the upper X-ray irradiation means 4a in FIG. 2 toward the lower image pickup device 6a) for treatment. This corresponds to the case of irradiating X-rays in a direction tilted by 45 degrees (45 degree direction in FIG. 2, Beam's Eye View, BEV direction). With respect to the DRR superimposed image 26 (pseudo) fluoroscopically seen in the 0 degree direction shown in FIG. 5A, the tracking target 9 (tumor, etc.) in the region of the two-dimensional image in the 45 degree direction as shown in FIG. 5B. (Teacher image area 27) can be input as the teacher image 30.

図5C、図5Dは、X線透過画像を0度方向だけでなく、90度方向(図2の水平方向)からも撮影する場合の例である。図5Cに示す0度方向と90度方向から擬似的に透視した2つ1組のDRR重畳画像26に対して、図5Dに示すように、45度方向における2次元画像の領域での腫瘍の輪郭(教師画像領域27)を教師画像30として入力可能である。
図5C、図5Dに示す構成では、0度方向と90度方向という2つの透視(撮影)方向のそれぞれに対して、DRR重畳画像と教師画像のセットができることになるが、2つの(もしくはさらに多数)の重畳画像・教師画像のセットを作成する方法には、各方向間の背景画像の関係性を独立に作成してもよいし、連動させて作成してもよい。
5C and 5D are examples of taking an X-ray transmission image not only from the 0-degree direction but also from the 90-degree direction (horizontal direction in FIG. 2). As shown in FIG. 5D, as shown in FIG. 5D, the tumor in the region of the two-dimensional image in the 45-degree direction is compared with the pair of DRR superimposed images 26 that are pseudo-transparent from the 0-degree direction and the 90-degree direction shown in FIG. 5C. The contour (teacher image area 27) can be input as the teacher image 30.
In the configuration shown in FIGS. 5C and 5D, a DRR superimposed image and a teacher image can be set for each of the two fluoroscopic (photographing) directions of the 0 degree direction and the 90 degree direction, but two (or more) In the method of creating a set of superimposed images / teacher images (many), the relationship between the background images in each direction may be created independently, or may be created in conjunction with each other.

各方向間の背景画像を連動させて作成すると、異なる方向の重畳画像・教師画像のセットにおいて、座標の自由度を部分的に連動させて学習させることができ、追跡対象の位置・形状の推定精度を向上させることが可能である。例えば、図1,2において、0度方向と90度方向の2つの撮像方向においては、患者の体軸方向(頭から足の方向)の座標は2つの撮像手段で共通になるので、背景画像をランダム編集する場合に、0度方向画像と90度方向画像の両方の体軸方向を連動してランダムに操作するとよい。
したがって、実施例1では2方向から撮影を行い、図5C、図5Dのように処理が行われるが、これに限定されず、図5A、図5Bのように1方向から撮影する場合にも適用可能である。
C8:教師画像付加手段
教師画像付加手段C8は、入力された教師画像領域27を含む教師画像30を重畳画像26に付加する(さらに重畳する)。
By creating the background images in each direction in conjunction with each other, it is possible to learn by partially interlocking the degrees of freedom of coordinates in a set of superimposed images and teacher images in different directions, and estimating the position and shape of the tracking target. It is possible to improve the accuracy. For example, in FIGS. 1 and 2, in the two imaging directions of the 0 degree direction and the 90 degree direction, the coordinates of the patient's body axis direction (direction from head to foot) are common to the two imaging means, so that the background image In the case of random editing, it is preferable to randomly operate both the body axis directions of the 0-degree direction image and the 90-degree direction image in conjunction with each other.
Therefore, in the first embodiment, shooting is performed from two directions, and processing is performed as shown in FIGS. 5C and 5D, but the present invention is not limited to this, and is also applicable to shooting from one direction as shown in FIGS. 5A and 5B. It is possible.
C8: Teacher image adding means The teacher image adding means C8 adds (further superimposes) the teacher image 30 including the input teacher image area 27 to the superimposed image 26.

図6は追跡対象の位置の学習の一例の説明図であり、図6Aは複数の重畳画像の一例の説明図、図6Bは重畳画像が重ねられた場合の説明図である。
C9:学習手段(識別器作成手段、相関学習手段)
学習手段C9は、複数の重畳画像26に教師画像30が付加された複数の学習画像51に基づいて、画像における追跡対象画像領域21の領域情報および位置情報の少なくとも一方を学習して、識別器を作成する。なお、実施例1では、追跡対象画像領域21の領域と位置の両方を学習すると共に、透過撮影用のX線の照射方向(撮影方向、第2の方向、第3の方向)からの透視画像に映る腫瘍の外形に基づいて、透視画像に映る腫瘍の外形と治療用のX線の照射方向(第1の方向。以下、治療方向と記載)における腫瘍の外形との相関を学習して識別器(相関情報)を出力する。
FIG. 6 is an explanatory diagram of an example of learning the position of the tracking target, FIG. 6A is an explanatory diagram of an example of a plurality of superimposed images, and FIG. 6B is an explanatory diagram when the superimposed images are superimposed.
C9: Learning means (identifier creation means, correlation learning means)
The learning means C9 learns at least one of the area information and the position information of the tracking target image area 21 in the image based on the plurality of learning images 51 in which the teacher image 30 is added to the plurality of superimposed images 26, and is a classifier. To create. In the first embodiment, both the region and the position of the tracking target image region 21 are learned, and the fluoroscopic image from the X-ray irradiation direction (imaging direction, second direction, third direction) for transmission imaging is performed. Based on the outer shape of the tumor shown in, the correlation between the outer shape of the tumor shown in the fluoroscopic image and the outer shape of the tumor in the irradiation direction of X-rays for treatment (first direction, hereinafter referred to as the treatment direction) is learned and identified. Output the device (correlation information).

また、実施例1では、追跡対象画像領域21の領域の重心の位置を追跡対象画像領域21の位置としているが、領域の上端、下端、右端、左端等、設計や仕様等に応じて任意の位置に変更可能である。 Further, in the first embodiment, the position of the center of gravity of the area of the tracking target image area 21 is set as the position of the tracking target image area 21, but the upper end, the lower end, the right end, the left end, etc. of the area are arbitrary depending on the design, specifications, and the like. It can be changed to the position.

図6において、実施例1の学習手段C9では、ランダムに位置等が編集された障害物画像領域31の画像が追跡対象画像領域32に重畳された複数の重畳画像(図6A参照)において、各画像を更に重畳すると、図6Bに示すように、位置が編集されていない追跡対象画像領域32が相対的に強調(増幅)され、且つ、位置等がランダムな障害物画像領域31が相対的に抑制(減衰)されることとなる。したがって、CT画像における追跡対象画像領域32の位置や外形を学習することが可能である。 In FIG. 6, in the learning means C9 of the first embodiment, in each of the plurality of superimposed images (see FIG. 6A) in which the images of the obstacle image region 31 whose positions and the like are randomly edited are superimposed on the tracking target image region 32. When the images are further superimposed, as shown in FIG. 6B, the tracked image area 32 whose position has not been edited is relatively emphasized (amplified), and the obstacle image area 31 whose position and the like are random is relatively emphasized. It will be suppressed (damped). Therefore, it is possible to learn the position and outer shape of the tracking target image area 32 in the CT image.

また、実施例1の学習手段C9は、治療が開始される前、例えば、治療計画の策定段階等では撮影方向に加えて、治療方向からも透視画像を撮影する。そして、撮影方向(2つの方向)と治療方向からの画像に基づいて、撮影方向と治療方向との相関を予め学習しておく。すなわち、撮影方向から腫瘍がある外形形状に見えた場合には治療方向では外形がどのようになるか(相関)を学習しておく。学習手段C9は、従来公知の任意の構成を採用可能であるが、いわゆるディープラーニング(多層構造のニューラルネットワーク)を使用することが好ましく、特に、CNN(Convolutional Neural Network:畳込みニューラルネットワーク)を使用することが好ましい。実施例1では、ディープラーニングの一例としてのCaffeを使用したが、これに限定されず、任意の学習手段(フレームワーク、アルゴリズム、ソフトウェア)を採用可能である。 Further, the learning means C9 of the first embodiment captures a fluoroscopic image from the treatment direction in addition to the imaging direction before the treatment is started, for example, at the stage of formulating the treatment plan. Then, the correlation between the imaging direction and the treatment direction is learned in advance based on the images from the imaging directions (two directions) and the treatment direction. That is, when the tumor looks like an outer shape from the imaging direction, what the outer shape looks like in the treatment direction (correlation) is learned. The learning means C9 can adopt any conventionally known configuration, but it is preferable to use so-called deep learning (multi-layered neural network), and in particular, CNN (Convolutional Neural Network) is used. It is preferable to do so. In the first embodiment, Caffe is used as an example of deep learning, but the present invention is not limited to this, and any learning means (framework, algorithm, software) can be adopted.

なお、サンプル数が少ない場合には、例えば、各手段C2〜C9で説明したように、腫瘍等の軟部組織の画像と骨等の画像を分離して、骨等の画像を回転、拡大、縮小等をランダムで行った画像を生成し、腫瘍等の画像に重ねる(ランダムオーバーレイ)ことでサンプル数を増やして学習を行うことを説明したが、これに限定されない。例えば、予め外形形状が既知のサンプルを使用して学習しておいて、患者2の腫瘍の画像を加えて学習を深化させる構成とすることも可能である。
また、腫瘍の位置特定用の識別器と、相関用の識別器とを別個に生成し、2つの識別器を使う構成とすることも可能である。
When the number of samples is small, for example, as described in each means C2 to C9, the image of the soft tissue such as a tumor and the image of the bone are separated, and the image of the bone or the like is rotated, enlarged, or reduced. It has been explained that learning is performed by increasing the number of samples by generating an image in which the above is randomly performed and superimposing it on an image of a tumor or the like (random overlay), but the present invention is not limited to this. For example, it is possible to learn by using a sample whose outer shape is known in advance, and add an image of the tumor of patient 2 to deepen the learning.
It is also possible to separately generate a discriminator for tumor positioning and a discriminator for correlation, and use two discriminators.

C10:学習結果記憶手段
学習結果記憶手段C10は、学習手段C9の学習結果を記憶する。すなわち、学習で最適化されたCNNを識別器として記憶する。
C10: Learning result storage means The learning result storage means C10 stores the learning result of the learning means C9. That is, the learning-optimized CNN is stored as a discriminator.

C11:透視画像読み取り手段
透視画像読み取り手段C11は、画像生成器7から入力された画像を読み取る(読み込む)。実施例1の透視画像読み取り手段C11は、透視撮影開始用のボタンUI3が入力された場合に、画像生成器7から入力された画像を読み取る。実施例1では、各X線照射部4a,4bから照射されたX線が患者2を透過して、各撮像装置6a,6bで撮影された画像を読み取る。
C11: Fluoroscopic image reading means The fluoroscopic image reading means C11 reads (reads) an image input from the image generator 7. The fluoroscopic image reading means C11 of the first embodiment reads the image input from the image generator 7 when the button UI3 for starting fluoroscopic imaging is input. In the first embodiment, the X-rays emitted from the X-ray irradiation units 4a and 4b pass through the patient 2 and read the images taken by the imaging devices 6a and 6b.

C12:腫瘍特定手段(標的特定手段)
腫瘍特定手段C12は、撮影された画像に基づいて、標的である腫瘍の外形を特定する。腫瘍の外形は、CT画像のコントラスト情報であるCT値に基づいて腫瘍を特定する。なお、特定方法は、従来公知の画像解析技術を採用することも可能であるし、複数の腫瘍の画像を読み込ませて学習を行って判別することも可能であるし、特許文献1,2に記載の技術を使用することも可能である。なお、標的の「外形」は、腫瘍自体の外形(=正常部位と腫瘍との境界)に限定されず、医師の判断等で腫瘍の内側または外側に設定される場合も含む。すなわち、「外形」は、ユーザが定めた領域とすることも可能である。したがって、「標的」も腫瘍に限定されず、ユーザが追跡したい領域とすることも可能である。
実施例1の腫瘍特定手段C12は、各撮像装置6a,6bで撮影された2つの撮影画像に写る腫瘍をそれぞれ特定する。
C12: Tumor identification means (target identification means)
The tumor identifying means C12 identifies the outline of the target tumor based on the captured image. The outer shape of the tumor identifies the tumor based on the CT value, which is the contrast information of the CT image. As the specific method, it is possible to adopt a conventionally known image analysis technique, or it is also possible to read images of a plurality of tumors and perform learning to discriminate them. It is also possible to use the techniques described. The "outer shape" of the target is not limited to the outer shape of the tumor itself (= the boundary between the normal site and the tumor), and includes the case where it is set inside or outside the tumor at the discretion of a doctor or the like. That is, the "outer shape" can be a user-defined area. Therefore, the "target" is not limited to the tumor, and can be an area that the user wants to track.
The tumor identifying means C12 of Example 1 identifies the tumors appearing in the two captured images taken by the imaging devices 6a and 6b, respectively.

C13:外形推定手段
外形推定手段C13は、治療が行われる直近に撮影された撮影方向からの透視画像に映る腫瘍の外形と、相関情報とに基づいて、治療方向における腫瘍の外形を推定し、結果を出力する。
C14:放射線照射手段
放射線照射手段C14は、治療用放射線照射器11を制御して、外形推定手段C13で推定された腫瘍の領域および位置が、治療用X線の照射範囲に含まれる場合に、治療用X線を照射させる。なお、実施例1の放射線照射手段C14は、外形推定手段C13で推定された腫瘍の領域(外形)に応じて、MLCを制御して、治療用X線の照射領域(照射野)が腫瘍の外形となるように調整する。なお、放射線照射手段C14は、治療用X線が照射される場合は、時間経過に応じて変化する腫瘍の外形の推定結果の出力に対して、MLCをリアルタイムで制御する。
C13: External shape estimation means The external shape estimation means C13 estimates the external shape of the tumor in the treatment direction based on the correlation information and the external shape of the tumor reflected in the fluoroscopic image taken from the imaging direction most recently taken when the treatment is performed. Output the result.
C14: Irradiation means The irradiation means C14 controls the therapeutic radiation irradiator 11, and when the region and position of the tumor estimated by the external shape estimation means C13 are included in the irradiation range of the therapeutic X-ray. Irradiate with therapeutic X-rays. The irradiation means C14 of Example 1 controls the MLC according to the tumor area (outer shape) estimated by the outer shape estimation means C13, and the irradiation area (irradiation field) of the therapeutic X-ray is the tumor. Adjust so that it has an outer shape. When the therapeutic X-ray is irradiated, the irradiation means C14 controls the MLC in real time with respect to the output of the estimation result of the outer shape of the tumor which changes with the passage of time.

C15:追跡精度評価手段
追跡精度評価手段C15は、追跡対象の領域および位置の少なくとも一方が予め設定された評価用の画像(テスト画像)と、識別器とに基づいて、追跡対象の追跡の精度を評価する。実施例1では、テスト画像として、追跡対象の領域および位置が既知の画像を使用して、識別器で追跡対象の追跡を行い、識別器で特定した追跡対象の領域および位置と、既知の領域および位置とのズレを評価する。評価は、領域については、例えば、識別器で特定した領域の外縁の各画素(ピクセル)と、テスト画像における追跡対象の外縁の画素で、(位置が一致するピクセル数)/(外縁の総ピクセル数)を演算し、それが、閾値(例えば90%)を超えていれば、識別器の精度が領域の特定については十分と評価することが可能である。同様に、位置についても、識別器で特定した追跡対象の位置(重心位置)が、テスト画像における追跡対象の位置に対して、ズレが、閾値(例えば、5ピクセル)以内であれば、識別器の精度が位置の特定については十分と評価することが可能である。なお、評価方法は、上記に限定されず、例えば、領域は外形の形状同士の相関係数を導出して評価をする等、任意の評価方法を採用可能である。
C15: Tracking accuracy evaluation means The tracking accuracy evaluation means C15 is based on an evaluation image (test image) in which at least one of the tracked area and the position is set in advance and a discriminator, and the tracking accuracy of the tracking target. To evaluate. In Example 1, as a test image, an image whose track target area and position are known is used, the track target is tracked by the classifier, and the track target area and position identified by the classifier and the known area are used. And evaluate the deviation from the position. For the area, for example, each pixel (pixel) on the outer edge of the area specified by the classifier and the pixel on the outer edge to be tracked in the test image are evaluated as (the number of pixels whose positions match) / (total pixel of the outer edge). If the number) is calculated and it exceeds a threshold (for example, 90%), it can be evaluated that the accuracy of the discriminator is sufficient for specifying the region. Similarly, regarding the position, if the position of the tracking target (center of gravity position) specified by the classifier is within the threshold value (for example, 5 pixels) with respect to the position of the tracking target in the test image, the classifier It can be evaluated that the accuracy of is sufficient for specifying the position. The evaluation method is not limited to the above, and any evaluation method can be adopted, for example, the region is evaluated by deriving the correlation coefficient between the outer shapes of the regions.

なお、実施例1では、追跡精度評価手段C15で精度が不十分と評価された場合には、背景画像編集手段C5でそれまでの枚数Nの2倍の枚数(2N)の編集画像を作成して、追加された編集画像を使用して重畳画像を追加で作成し、増えた重畳画像を使用して学習手段C9で識別器を再作成する。したがって、再作成された識別器の精度は向上される。なお、識別器の精度が、予め設定された閾値に達するまで、自動的に編集画像を増やして、識別器を再作成し続けるように構成することも可能であるし、手動で編集画像の増加や識別器の再作成を行うようにすることも可能である。
なお、透視撮影用X線照射装置4や撮像装置6、画像生成器7、コントロールシステム8、前記各手段C1〜C15により実施例1の標的外形推定装置が構成されている。
In the first embodiment, when the tracking accuracy evaluation means C15 evaluates that the accuracy is insufficient, the background image editing means C5 creates an edited image in which the number of images (2N) is twice the number N up to that point. Then, the superimposed image is additionally created using the added edited image, and the classifier is recreated by the learning means C9 using the increased superimposed image. Therefore, the accuracy of the recreated classifier is improved. It is also possible to automatically increase the number of edited images until the accuracy of the classifier reaches a preset threshold value, and to continue recreating the classifier, or to manually increase the number of edited images. And the classifier can be recreated.
The target external shape estimation device of the first embodiment is configured by the X-ray irradiation device 4 for fluoroscopic photography, the image pickup device 6, the image generator 7, the control system 8, and the means C1 to C15.

(実施例1の作用)
前記構成を備えた実施例1の放射線治療機1では、撮影方向の画像と治療方向の画像との相関情報が予め学習され、治療時には、撮影画像から治療方向における腫瘍の外形が推定される。そして、推定された腫瘍の外形に応じて治療用のX線が照射される。
従来の技術では、2次元の撮影画像から3次元の画像を作成し、3次元画像から治療方向の投影画像を導出していたが、この従来技術に比べて、実施例1では、相関情報を使用して2次元の撮影画像から治療方向の画像が導出可能であり、処理時間を短時間にすることが可能である。したがって、腫瘍(追跡対象部位)の位置を速やかに推定することが可能であり、リアルタイム性が向上する。よって、治療時のタイムラグが従来技術よりも短くなり、腫瘍に対してより高精度にX線を照射可能である。
(Action of Example 1)
In the radiotherapy machine 1 of Example 1 having the above configuration, the correlation information between the image in the photographing direction and the image in the treatment direction is learned in advance, and at the time of treatment, the outer shape of the tumor in the treatment direction is estimated from the photographed image. Then, therapeutic X-rays are irradiated according to the estimated outer shape of the tumor.
In the conventional technique, a three-dimensional image is created from a two-dimensional photographed image, and a projected image in the treatment direction is derived from the three-dimensional image. It can be used to derive an image in the treatment direction from a two-dimensional captured image, and the processing time can be shortened. Therefore, it is possible to quickly estimate the position of the tumor (tracking target site), and the real-time property is improved. Therefore, the time lag during treatment is shorter than that of the prior art, and the tumor can be irradiated with X-rays with higher accuracy.

特に、実施例1では、2つの方向からの撮影画像と治療方向の画像との相関が使用されている。1つの方向の撮影画像と治療方向の画像との相関情報を使用することも可能であるが、1つの方向の撮影画像の場合に比べて、実施例1では、治療方向における腫瘍の外形の推定の精度が向上する。
また、実施例1では、治療が行われる患者2の撮影画像を使用して学習しているので、第3者の撮影画像を使用する場合に比べて、精度が向上する。
In particular, in Example 1, the correlation between the images taken from the two directions and the images in the treatment direction is used. It is also possible to use the correlation information between the image taken in one direction and the image in the treatment direction, but in Example 1, the outer shape of the tumor in the treatment direction is estimated as compared with the case of the image taken in one direction. The accuracy of is improved.
Further, in the first embodiment, since the learning is performed using the photographed image of the patient 2 to be treated, the accuracy is improved as compared with the case of using the photographed image of the third party.

さらに、実施例1では、軟部組織と骨等の画像を分離し、ランダムオーバーレイを行うことで、治療が行われる患者2における学習するサンプル数を増やしている。従来の2次元の撮影画像から3次元の画像を作成する構成では、このようなことは行われておらず、2次元の撮影画像にベッド等の固定具や構造物等が映り込んでいて、構造物等が腫瘍と重なっていると、腫瘍等の標的の外形の推定精度が低下すると共に、治療日以前の撮影時と、治療当日の撮影時でベッド等と患者の位置がずれていると、ベッド等の位置を基準に位置合わせが行われることがあり、腫瘍等の外形や位置の推定精度が低下する恐れがある(ロバスト性が低い)。これに対して、本願では、ランダムオーバーレイでサンプル数を増やして学習することで、ベッド等の影響を低減することができ、腫瘍の外形や位置の推定精度を向上させることができる。
また、ランダムオーバーレイでサンプル数を増やすことで、治療日以前の治療計画時に撮影する画像の枚数を減らすことができる。したがって、事前の撮影から当日の治療の全体における患者の受ける放射線の線量も低減することも可能である。
Further, in Example 1, the number of samples to be learned in the patient 2 to be treated is increased by separating the images of the soft tissue and the bone and performing random overlay. In the conventional configuration of creating a three-dimensional image from a two-dimensional photographed image, such a thing is not performed, and a fixture such as a bed, a structure, or the like is reflected in the two-dimensional photographed image. If the structure or the like overlaps with the tumor, the estimation accuracy of the outer shape of the target such as the tumor will decrease, and the position of the bed or the patient will be different between the time of photography before the treatment day and the time of photography on the day of treatment. , The alignment may be performed based on the position of the bed, etc., and the estimation accuracy of the outer shape and position of the tumor, etc. may decrease (low robustness). On the other hand, in the present application, by increasing the number of samples and learning by random overlay, the influence of the bed or the like can be reduced, and the estimation accuracy of the outer shape and position of the tumor can be improved.
In addition, by increasing the number of samples with random overlay, the number of images taken at the time of treatment planning before the treatment date can be reduced. Therefore, it is also possible to reduce the dose of radiation received by the patient during the entire treatment of the day from prior imaging.

また、従来は、患者本人の撮影画像のみで学習を行おうとするとサンプルが不足しがちであり、患者本人以外の撮影画像を使用して学習を行う場合もある。この場合、作成される識別器は、患者本人の専用ではなく、多くの人の状況が平均化された汎用的なものとなり、患者本人の腫瘍に対して精度が低下する問題がある。これに対して、実施例1では、患者本人の撮影画像からランダムオーバーレイでサンプル数を増やすことが可能であり、患者本人の撮影画像から識別器が作成されるので、精度を向上させることが可能である。 Further, conventionally, if it is attempted to perform learning using only the captured image of the patient himself / herself, the sample tends to be insufficient, and in some cases, the learning is performed using the captured image of the patient himself / herself. In this case, the discriminator created is not dedicated to the patient himself / herself, but becomes a general-purpose one in which the situations of many people are averaged, and there is a problem that the accuracy is lowered for the tumor of the patient himself / herself. On the other hand, in Example 1, it is possible to increase the number of samples by random overlay from the photographed image of the patient himself / herself, and since the classifier is created from the photographed image of the patient himself / herself, it is possible to improve the accuracy. Is.

さらに、実施例1では、教師画像を使用して学習を行っており、教師画像を使用しない場合に比べて、学習にかかる時間を短縮できる。なお、教師画像を使用しない場合は、ランダムオーバーレイでサンプル数を増やせば、時間がかかるだけで、同様の結果は得られるため、教師画像を使用しない構成とすることも可能である。 Further, in the first embodiment, the learning is performed using the teacher image, and the time required for learning can be shortened as compared with the case where the teacher image is not used. When the teacher image is not used, if the number of samples is increased by random overlay, the same result can be obtained only by taking a long time. Therefore, it is possible to configure the configuration without using the teacher image.

さらに、実施例1では、追跡対象部画像23(軟部組織DRR画像)と分離背景画像24(骨構造DRR画像)をCT値に基づいて元画像22から分離して、編集、加工しているので、患者に応じた学習が可能である。
また、実施例1では、分離背景画像24を編集する際に明暗(コントラスト)も編集している。したがって、学習用の元画像22の撮影時と治療用のX線透視画像を撮影する時でコントラストが異なっても、コントラストが異なる状況についても学習済みであり、追跡し易い。なお、分離背景画像24のコントラストだけでなく元画像22の全体のコントラストを変えたものを使用して学習すれば、追跡の精度がさらに向上させることが可能である。
Further, in the first embodiment, the tracking target image 23 (soft tissue DRR image) and the separated background image 24 (bone structure DRR image) are separated from the original image 22 based on the CT value, and edited and processed. , Learning according to the patient is possible.
Further, in the first embodiment, the brightness (contrast) is also edited when the separated background image 24 is edited. Therefore, even if the contrast is different between the time when the original image 22 for learning is taken and the time when the X-ray fluoroscopic image for treatment is taken, the situation where the contrast is different has already been learned, and it is easy to track. It is possible to further improve the tracking accuracy by learning using not only the contrast of the separated background image 24 but also the overall contrast of the original image 22.

さらに、実施例1では、分離背景画像24や障害物画像25をランダムに編集している。精度の高い学習には、均一に分散された十分なデータがあればよいが、ランダムに編集せずに予め準備しておく場合は面倒で手間がかかる。これに対して、実施例1では、元画像22から分離した分離背景画像24や、治療用放射線照射器11に応じて追加された障害物画像25を乱数でランダムに編集しており、均一に分散された十分な数のデータを容易に揃えることが可能である。 Further, in the first embodiment, the separated background image 24 and the obstacle image 25 are randomly edited. For highly accurate learning, it is sufficient to have sufficient data evenly distributed, but it is troublesome and troublesome to prepare in advance without randomly editing. On the other hand, in the first embodiment, the separated background image 24 separated from the original image 22 and the obstacle image 25 added according to the therapeutic irradiation device 11 are randomly edited with random numbers to be uniform. It is possible to easily arrange a sufficient number of distributed data.

一般的に、元画像の輝度変換、幾何学変換などによって学習画像数を増加させることは「データ拡張」と呼ばれる。データ拡張は、過学習(オーバーフィッティング)を防ぐために用いられる。これは、過学習により細かな特徴を学習しすぎてしまい汎化性能が落ちることを防ぐ目的である。しかし、これら線形変換は単純な変換によって元の画像に復元可能なため、せいぜい、数十倍程度までの画像増加が限界である。つまり、数百倍以上のデータ拡張には非線形変換の効果が必須になる。実施例1では、重畳画像26は、全体として非線形変換となっている。したがって、数百倍以上のデータ拡張でも汎化性能の低下はないと考えられる。 Generally, increasing the number of trained images by performing brightness conversion or geometric conversion of the original image is called "data expansion". Data expansion is used to prevent overfitting. This is for the purpose of preventing the generalization performance from being deteriorated due to over-learning of detailed features due to over-learning. However, since these linear transformations can be restored to the original image by a simple transformation, the image increase of up to several tens of times is the limit at most. In other words, the effect of non-linear transformation is indispensable for data expansion of several hundred times or more. In the first embodiment, the superimposed image 26 is a non-linear transformation as a whole. Therefore, it is considered that the generalization performance does not deteriorate even if the data is expanded several hundred times or more.

また、実施例1では、学習を行う際に、所定の学習期間のCT画像に対して学習を行う。すなわち、空間(3次元)の要素に加えて、時間(4次元目)の要素も加わったCT画像、いわゆる4DCTに対して学習が行われる。したがって、撮影から照射までのタイムラグや呼吸により時間的に変動する追跡対象の位置や外形に対しても精度良く追跡可能である。実施例1では、ランダムオーバーレイで学習を行う際に、相対的に骨等に対して追跡対象がずれている状況を学習するので、4DCTで取得した呼吸移動の範囲を超えた予想外の動きの状況(咳やくしゃみ)に対応することもできる。特に、実施例1では、ランダムオーバーレイで軟部組織DRR画像と骨構造DRR画像とを重畳させる場合に、解剖学的にあり得ない組み合わせの状況も含めて学習を行うため、解剖学的にありうる組み合わせのみで学習を行う従来の学習方法に比べて予想外の動きにも対応しやすい。
また、時間の要素も加わったCT画像とすることで、撮影時の線量を減らして1枚当たりの画質を低下させても、時間的に前後の撮影画像も加味することで、十分に精度を確保することも可能である。
Further, in the first embodiment, when learning is performed, learning is performed on a CT image during a predetermined learning period. That is, learning is performed on a CT image, that is, a so-called 4DCT, in which an element of time (fourth dimension) is added in addition to an element of space (three dimensions). Therefore, it is possible to accurately track the position and outer shape of the tracking target, which fluctuates with time due to the time lag from imaging to irradiation and respiration. In the first embodiment, when learning with the random overlay, the situation where the tracking target is relatively deviated from the bone or the like is learned, so that the unexpected movement beyond the range of the respiratory movement acquired by 4DCT is learned. It can also handle situations (coughing and sneezing). In particular, in Example 1, when the soft tissue DRR image and the bone structure DRR image are superimposed by random overlay, learning is performed including the situation of an anatomically impossible combination, so that it is anatomically possible. It is easier to respond to unexpected movements than the conventional learning method that learns only by combination.
In addition, by making the CT image with the element of time added, even if the dose at the time of shooting is reduced and the image quality per image is lowered, the accuracy can be sufficiently improved by taking into account the images taken before and after the time. It is also possible to secure it.

さらに、実施例1では、追跡精度評価手段C15によって、作成された識別器の評価が行われる。したがって、実際に放射線を照射する治療を行う前に、作成された識別器の精度の評価を行うことができ、識別器の精度が十分かどうかを治療当日以前に事前に確認することができる。そして、精度が不十分な場合には、識別器の再作成を実行することが可能である。したがって、十分な精度を有する識別器を使用して治療を行うことができ、治療の精度が向上し、不十分な識別器を使用する場合に比べて、患者が余計な放射線被曝をすることも低減できる。 Further, in the first embodiment, the tracking accuracy evaluation means C15 evaluates the created classifier. Therefore, it is possible to evaluate the accuracy of the created discriminator before actually performing the treatment of irradiating the radiation, and it is possible to confirm in advance whether the accuracy of the discriminator is sufficient or not before the day of the treatment. Then, if the accuracy is insufficient, it is possible to recreate the classifier. Therefore, treatment can be performed using a discriminator with sufficient accuracy, the accuracy of treatment is improved, and the patient may be exposed to extra radiation as compared with the case of using a discriminator with insufficient accuracy. Can be reduced.

図7は実施例1の放射線治療機の使用方法の一例の説明図である。
放射線治療が行われる場合には、治療計画が事前に策定され、放射線が照射される治療当日よりも前に、患部を事前に撮影して位置や状態の診断等が行われ、治療日前の撮影結果に基づいて治療当日の治療も行われる。図7において、治療日前には、まず、患者の透視画像を撮影して(ST1)、予め設定された治療計画(ST2)に基づいて、訓練データを生成する(ST3)。そして、放射線治療機1の学習手段C9のCNNを初期化し(ST4)、訓練データに基づいて、深層学習(ディープラーニング)の新規訓練(学習)を行う(ST5)。なお、新規訓練には、計算時間が1時間程度と見積もられる。そして、訓練済みのCNNを出力する(ST6)。
治療日には、治療直前の患者の透視画像を撮影する(ST11)。治療直前の透視画像において標的を確認し(ST12)、訓練データを生成する(ST13)。放射線治療機1では、ST6で訓練済みのCNNを読み込んで(ST14)、ST13で生成した訓練データを使用して深層学習の再訓練(学習)を行う(ST15)。なお、再訓練では、訓練済みのCNNを使用するため、計算時間は10分程度と見積もられる。そして、再訓練済みのCNNを出力する(ST16)。
FIG. 7 is an explanatory diagram of an example of how to use the radiotherapy machine of Example 1.
When radiation therapy is performed, a treatment plan is formulated in advance, and before the day of treatment when radiation is irradiated, the affected area is photographed in advance to diagnose the position and condition, and the image is taken before the treatment day. Based on the results, treatment on the day of treatment is also performed. In FIG. 7, before the treatment day, first, a fluoroscopic image of the patient is taken (ST1), and training data is generated based on a preset treatment plan (ST2) (ST3). Then, the CNN of the learning means C9 of the radiotherapy machine 1 is initialized (ST4), and new training (learning) of deep learning is performed based on the training data (ST5). The calculation time for new training is estimated to be about one hour. Then, the trained CNN is output (ST6).
On the day of treatment, a fluoroscopic image of the patient immediately before treatment is taken (ST11). The target is confirmed in the fluoroscopic image immediately before the treatment (ST12), and training data is generated (ST13). The radiotherapy machine 1 reads the CNN trained in ST6 (ST14) and retrains (learns) deep learning using the training data generated in ST13 (ST15). In the retraining, the trained CNN is used, so the calculation time is estimated to be about 10 minutes. Then, the retrained CNN is output (ST16).

治療が開始されると、リアルタイムで透視画像が撮影され(ST21)、リアルタイムの透視画像と再訓練済みのCNNとを使用して、深層学習による標的対象の位置、外形の推定が行われる(ST22)。なお、位置、外形の推定の計算時間は、1画像あたり25ミリ秒程度と見積もられる。そして、標的対象の推定結果に応じて、治療用のX線が照射される(ST23)。
位置、外形の推定(ST22)とX線の照射(ST23)は、治療が終了するまで繰り返し行われる(ST24)。
When the treatment is started, a fluoroscopic image is taken in real time (ST21), and the position and outer shape of the target target are estimated by deep learning using the real-time fluoroscopic image and the retrained CNN (ST22). ). The calculation time for estimating the position and outer shape is estimated to be about 25 milliseconds per image. Then, therapeutic X-rays are irradiated according to the estimation result of the target target (ST23).
Position and outer shape estimation (ST22) and X-ray irradiation (ST23) are repeated until the treatment is completed (ST24).

放射線治療機1を、図7に示した一例のように使用した場合、治療の前日以前の撮影画像を使用して予め学習を行うと共に、治療当日の撮影画像を使用して再訓練(再学習)を行うことで、日々大きさや形状が変化する腫瘍に応じて微調整(=ファインチューニング)、再調整ができ、腫瘍の外形の推定の精度が向上する。また、当日再訓練を行う場合は、初期の訓練に比べて訓練時間を短くすることもでき、治療開始まで長時間患者を待たせることもなく、患者の負担も減らせる。
特に、従来構成のように、2次元(2D)の撮影画像から3次元(3D)の画像を作成する技術では、ファインチューニングにも長時間かかり、患者の負担が大きくなるが、実施例1では、2Dの撮影画像と2Dの治療方向における画像との相関であるため、3Dの画像を作成する場合に比べて、大幅に訓練時間を短縮できる。
なお、ファインチューニングをすることが望ましいが、ファインチューニングをせずに治療を行うことも可能である。
When the radiotherapy machine 1 is used as in the example shown in FIG. 7, learning is performed in advance using the images taken before the day before the treatment, and retraining (re-learning) is performed using the images taken on the day of the treatment. ), Fine adjustment (= fine tuning) and readjustment can be performed according to the tumor whose size and shape change daily, and the accuracy of estimating the outer shape of the tumor is improved. In addition, when retraining is performed on the day, the training time can be shortened as compared with the initial training, the patient does not have to wait for a long time until the start of treatment, and the burden on the patient can be reduced.
In particular, in the technique of creating a three-dimensional (3D) image from a two-dimensional (2D) captured image as in the conventional configuration, fine tuning also takes a long time and the burden on the patient increases. Since it is the correlation between the 2D captured image and the image in the 2D treatment direction, the training time can be significantly shortened as compared with the case of creating a 3D image.
It is desirable to perform fine tuning, but it is also possible to perform treatment without fine tuning.

また、一般的な医科用のCT(MDCT)では、X線は扇状に照射されるのに対して、歯科等で広く使用されているCBCT(Cone Beam CT)では、先端が細い円錐(Cone)状のX線が照射される。CBCTを使用して撮像することも可能であるが、CBCTではX線が照射される範囲がMDCTに比べて狭いため、患者の周囲を1周して撮影するのに、MDCTでは0.5秒程度で済むが、CBCTでは1分程度必要である。よって、CBCTでは、撮像に時間がかかるため、呼吸等で動く臓器は画像がぼやけてしまう問題がある一方で、ほとんど動かない骨等は撮像時に際立つため、治療当日の撮影画像に対して位置合わせがしやすいメリットもある。よって、例えば、治療前の撮影や治療時にはMDCTを使用し、ファインチューニング時にCBCTを使用する等の変更も可能である。 Further, in general medical CT (MDCT), X-rays are irradiated in a fan shape, whereas in CBCT (Cone Beam CT) widely used in dentistry and the like, a cone with a thin tip is used. X-rays are emitted. It is possible to take an image using CBCT, but since the range of X-ray irradiation in CBCT is narrower than that in MDCT, it takes 0.5 seconds in MDCT to take a picture around the patient once. It only takes about 1 minute for CBCT. Therefore, in CBCT, since it takes time to image, there is a problem that the image of organs that move due to breathing etc. is blurred, while bones that hardly move stand out at the time of imaging, so they are aligned with the image taken on the day of treatment. It also has the advantage of being easy to remove. Therefore, for example, it is possible to change such that MDCT is used during pretreatment imaging and treatment, and CBCT is used during fine tuning.

次に本発明の実施例2の説明をするが、この実施例2の説明において、前記実施例1の構成要素に対応する構成要素には同一の符号を付して、その詳細な説明は省略する。
この実施例は下記の点で、前記実施例1と相違しているが、他の点では前記実施例1と同様に構成される。
Next, a second embodiment of the present invention will be described. In the second embodiment, the components corresponding to the components of the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted. To do.
This embodiment differs from the first embodiment in the following points, but is configured in the same manner as the first embodiment in other respects.

図8は実施例2の説明図であり、実施例1の図2に対応する図である。
図8において、実施例2の放射線治療機1′では、治療用放射線照射器11′として患者2の患部に向けて治療用の放射線の一例としての陽子線を照射可能に構成されている。
FIG. 8 is an explanatory diagram of the second embodiment and is a diagram corresponding to FIG. 2 of the first embodiment.
In FIG. 8, the radiation therapy machine 1'of Example 2 is configured to be capable of irradiating the affected area of the patient 2 with a proton beam as an example of therapeutic radiation as a therapeutic radiation irradiator 11'.

(実施例2のコントロールシステム(制御部)の説明)
図9は実施例2のブロック図であり、実施例1の図3に対応する図である。
図9において、実施例2の制御部C′では、学習手段C9′は、撮影方向からの透視画像に映る腫瘍の外形に基づいて、透視画像に映る腫瘍の外形と治療方向腫瘍の外形との相関に加え、治療用放射線照射器11′からの距離との相関も学習する。すなわち、2つの透視画像にそれぞれ腫瘍がある外形形状に見えた場合に、腫瘍の外形の各位置が治療用放射線照射器11′からどのくらいの距離があるのか(距離の相関情報)を学習する。
(Explanation of the control system (control unit) of the second embodiment)
FIG. 9 is a block diagram of the second embodiment and is a diagram corresponding to FIG. 3 of the first embodiment.
In FIG. 9, in the control unit C'of Example 2, the learning means C9' has the outer shape of the tumor shown in the fluoroscopic image and the outer shape of the tumor in the treatment direction based on the outer shape of the tumor shown in the fluoroscopic image from the imaging direction. In addition to the correlation, the correlation with the distance from the therapeutic irradiation device 11'is also learned. That is, when the tumor appears to have an outer shape in each of the two fluoroscopic images, it is learned how far each position of the outer shape of the tumor is from the therapeutic irradiation device 11'(distance correlation information).

実施例2の制御部C′の距離推定手段C21は、治療が行われる直近に撮影された透視画像に映る腫瘍の外形と、相関情報とに基づいて、治療方向における腫瘍の治療用放射線照射器11′からの距離を推定する。
そして、実施例2の放射線照射手段C14′は、治療用放射線照射器11′を制御して、外形推定手段C13で推定された腫瘍の領域および位置が、治療用陽子線の照射範囲に含まれる場合に、距離推定手段C21で推定された距離に治療用陽子線を照射させる。
The distance estimation means C21 of the control unit C'of the second embodiment is a radiation irradiator for treating the tumor in the treatment direction based on the outer shape of the tumor shown in the fluoroscopic image taken most recently in which the treatment is performed and the correlation information. Estimate the distance from 11'.
Then, the irradiation means C14'of Example 2 controls the therapeutic radiation irradiator 11', and the region and position of the tumor estimated by the external shape estimation means C13 are included in the irradiation range of the therapeutic proton beam. In this case, the therapeutic proton beam is irradiated to the distance estimated by the distance estimation means C21.

図10は実施例2の重畳画像と教師画像の一例の説明図であり、図10Aは一方向から擬似的に透視したDRR画像による重畳画像の一例の説明図、図10Bは図10Aに対応する教師画像の一例の説明図、図10Cは2方向からの擬似的透視DRR画像による重畳画像の一例の説明図、図10Dは図10Cに対応する教師画像の一例の説明図である。
実施例2において、治療方向における腫瘍の外形と距離を推定する場合は、図8,図10B、図10Dに示すように、腫瘍の外形に応じた範囲の情報に加えて、標的最深部までの飛程(図8記載のRangeに相当。体表面から追跡対象の最深部境界面までの(体内)距離を、荷電粒子が体内に入ってから水中を進み停止するまでの距離に換算したもの)の2次元分布(Range Map、標的飛程分布)の情報27aを含む第1の教師画像30aおよび、標的の治療方向に沿った厚み(図8記載のWidthに相当)の2次元分布(Width Map、標的厚み分布)の情報27bを含む第2教師画像30bも加えることで、学習の精度が向上すると共に学習時間も短縮されるため好ましい。
FIG. 10 is an explanatory diagram of an example of the superimposed image and the teacher image of the second embodiment, FIG. 10A is an explanatory diagram of an example of the superimposed image by a DRR image pseudo-transparent from one direction, and FIG. 10B corresponds to FIG. 10A. An explanatory diagram of an example of a teacher image, FIG. 10C is an explanatory diagram of an example of a superimposed image by a pseudo perspective DRR image from two directions, and FIG. 10D is an explanatory diagram of an example of a teacher image corresponding to FIG. 10C.
In Example 2, when estimating the outer shape and distance of the tumor in the treatment direction, as shown in FIGS. 8, 10B, and 10D, in addition to the information in the range corresponding to the outer shape of the tumor, up to the deepest part of the target. Range (corresponding to the Range shown in FIG. 8. The (internal) distance from the body surface to the deepest boundary surface to be tracked is converted into the distance from when the charged particle enters the body to when it advances and stops in the water). The first teacher image 30a including the information 27a of the two-dimensional distribution (Range Map, target range distribution) of the above, and the two-dimensional distribution (Width Map) of the thickness (corresponding to the Width shown in FIG. 8) along the treatment direction of the target. It is preferable to add the second teacher image 30b including the information 27b of the target thickness distribution) because the learning accuracy is improved and the learning time is shortened.

(実施例2の作用)
前記構成を備えた実施例2の放射線治療機1′では、陽子線を照射する場合には、水と筋肉と骨とで陽子が透過する能力(飛程)が異なる。したがって、治療用の放射線がX線の場合に比べて、治療方向から見て腫瘍の位置がどのくらいの距離(体表面から体内部への深さ)にあるのかという情報と、治療方向から見て腫瘍がどのくらいの厚さを持っているのかという情報が重要になる。したがって、実施例2のように、2つの撮影画像から外形の形状や位置だけでなく、標的までの距離(飛程)や厚さも相関情報を使用して導出することで、精度の高い治療を行うことができる。
(Action of Example 2)
In the radiotherapy machine 1'of Example 2 having the above configuration, when irradiating a proton beam, the ability (range) for protons to permeate differs between water, muscle, and bone. Therefore, compared to the case where the therapeutic radiation is X-rays, the information on how far the tumor is located (depth from the body surface to the inside of the body) when viewed from the treatment direction and the treatment direction. Information about how thick the tumor is is important. Therefore, as in Example 2, by deriving not only the shape and position of the outer shape but also the distance (range) and thickness to the target from the two captured images using the correlation information, highly accurate treatment can be performed. It can be carried out.

(変更例)
以上、本発明の実施例を詳述したが、本発明は、前記実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内で、種々の変更を行うことが可能である。本発明の変更例(H01)〜(H05)を下記に例示する。
(H01)前記実施例において、撮影画像としてkVオーダのX線を使用したX線透視画像を使用する構成を例示したがこれに限定されない。例えば、MVオーダのX線を使用したX線画像(治療用MV−X線が患者を通過後に検出された画像)、超音波検査画像(いわゆる、超音波エコー画像)、MRI画像(Magnetic Resonance Imaging:核磁気共鳴画像)、PET画像(Positron Emission tomography:陽電子放射断層撮影画像)、光音響イメージング(PAI:Photoacoustic Imaging)画像、X線後方散乱画像等を使用することも可能である。また、X線画像(kV−X線またはMV−X線)とMRI画像等とを組み合わせる等の変更も可能である。なお、MRI画像は、任意断面の画像を出力可能であるが、特定方向から切断した断面の画像しか取得することができない。したがって、任意断面の法線方向を治療用放射線の照射方向に合わせるだけでは、腫瘍の3次元的な形状は不明である。よって、3次元的な形状を得るには、複数の断面の画像を組み合わせて3次元形状を計算する必要がある。これに対して、MRI画像の法線方向を、治療用放射線の照射方向とは敢えてずらして、相関を学習することで、3次元形状を計算する場合に比べて、処理を高速に行うことが可能である。
他にも、呼吸等の動きと腫瘍の動きとの相関が深いことを利用して、3Dカメラや距離センサ等の撮像手段で、呼吸等で変動する患者の体表面形状を撮影して、体表面形状画像を使用して腫瘍の位置、外形を推定することも可能である。
(Change example)
Although the examples of the present invention have been described in detail above, the present invention is not limited to the above-mentioned examples, and various modifications are made within the scope of the gist of the present invention described in the claims. It is possible. Examples of modifications (H01) to (H05) of the present invention are illustrated below.
(H01) In the above embodiment, a configuration in which an X-ray fluoroscopic image using kV-order X-rays is used as a captured image has been illustrated, but the present invention is not limited thereto. For example, an X-ray image using MV-order X-rays (an image in which a therapeutic MV-X-ray is detected after passing through a patient), an ultrasonic examination image (so-called ultrasonic echo image), and an MRI image (Magnetic Resonance Imaging). : Nuclear magnetic resonance imaging), PET image (Positron Emission tomography), photoacoustic imaging (PAI) image, X-ray backward scattering image, etc. can also be used. It is also possible to make changes such as combining an X-ray image (kV-X-ray or MV-X-ray) with an MRI image or the like. As the MRI image, an image of an arbitrary cross section can be output, but only an image of a cross section cut from a specific direction can be acquired. Therefore, the three-dimensional shape of the tumor is unknown only by adjusting the normal direction of the arbitrary cross section to the irradiation direction of the therapeutic radiation. Therefore, in order to obtain a three-dimensional shape, it is necessary to calculate the three-dimensional shape by combining images of a plurality of cross sections. On the other hand, by daringly shifting the normal direction of the MRI image from the irradiation direction of the therapeutic radiation and learning the correlation, the processing can be performed at a higher speed than in the case of calculating the three-dimensional shape. It is possible.
In addition, taking advantage of the deep correlation between the movement of breathing and the movement of the tumor, the body surface shape of the patient, which fluctuates due to breathing, is photographed with an imaging means such as a 3D camera or a distance sensor. It is also possible to estimate the position and outer shape of the tumor using the surface shape image.

(H02)前記実施例において、2つの撮影画像を使用する構成を例示したが、これに限定されない。要求される精度によっては撮影は1つ(一方向)とすることも可能である。また、3つ以上の方向からの撮影して、さらに精度を向上させることも可能である。
(H03)前記実施例において、マーカを使用せずに追跡を行う構成を例示したが、これに限定されない。マーカを埋め込んだX線画像等を使用することも可能である。
(H04)前記実施例において、標的対象である腫瘍等が1つの場合について説明を行ったが、標的対象が複数の場合にも適用可能である。
(H05)前記本実施例では、追跡対象部画像23および分離背景画像24および障害物画像25は、2次元のDRR画像としたので、2次元のDRR画像にてランダムに編集された多数の背景画像を生成する例を示した。一方、追跡対象部画像23および分離背景画像24及び障害物画像25を3次元CT画像のままとして、3次元CT画像としてランダムに編集された多数の背景画像を生成して、それを3次元CT画像としての追跡対象部画像23と重畳させてから、1方向もしくは多方向の疑似透視2次元画像に相当する重畳画像26を作成してもよい。この場合、背景画像のランダムな編集は、3次元CT画像として操作されるので、作成された複数の異なる方向の背景画像、重畳画像は全ての自由度(座標)で連動する。その結果、2次元DRR画像にて背景画像をランダムに編集した場合に比べて、学習による位置・形状の推定精度が向上する(異なる複数方向の2次元DRR画像セットにて背景画像をランダムに編集した場合は、3次元情報は部分的に失われるので、異なる方向の背景画像間で連動しない自由度(座標)が出てくる)。
(H02) In the above embodiment, a configuration using two captured images has been illustrated, but the present invention is not limited to this. Depending on the required accuracy, it is possible to shoot in one direction (one direction). It is also possible to shoot from three or more directions to further improve the accuracy.
(H03) In the above-described embodiment, a configuration in which tracking is performed without using a marker has been illustrated, but the present invention is not limited to this. It is also possible to use an X-ray image or the like in which a marker is embedded.
(H04) In the above-mentioned example, the case where there is one target tumor or the like has been described, but it can also be applied to the case where there are a plurality of target targets.
(H05) In the present embodiment, since the tracking target portion image 23, the separated background image 24, and the obstacle image 25 are two-dimensional DRR images, a large number of backgrounds randomly edited by the two-dimensional DRR image. An example of generating an image is shown. On the other hand, the tracking target part image 23, the separated background image 24, and the obstacle image 25 are left as the three-dimensional CT image, and a large number of randomly edited background images are generated as the three-dimensional CT image, and the three-dimensional CT is used. After superimposing on the tracking target portion image 23 as an image, a superposed image 26 corresponding to a unidirectional or multidirectional pseudo-transparent two-dimensional image may be created. In this case, since the random editing of the background image is operated as a three-dimensional CT image, the created background images and superimposed images in different directions are linked with all degrees of freedom (coordinates). As a result, the estimation accuracy of the position / shape by learning is improved as compared with the case where the background image is randomly edited with the 2D DRR image (the background image is randomly edited with the 2D DRR image sets in different multiple directions). In that case, since the three-dimensional information is partially lost, the degree of freedom (coordinates) that is not linked between the background images in different directions appears).

2…被検者、
4a…第2の照射手段、
4b…第3の照射手段、
6a…第2の撮像手段(撮像装置)、
6b…第3の撮像手段(撮像装置)、
9…追跡対象(治療の標的対象)
11,11′…第1の照射手段、
C9,C9′…学習手段、
C13…外形推定手段、
C21…距離推定手段。
2 ... Subject,
4a ... Second irradiation means,
4b ... Third irradiation means,
6a ... Second imaging means (imaging apparatus),
6b ... Third imaging means (imaging apparatus),
9 ... Tracking target (target target for treatment)
11, 11'... First irradiation means,
C9, C9'... Learning means,
C13 ... External shape estimation means,
C21 ... Distance estimation means.

Claims (13)

被検者の体内の標的に第1の放射線を照射する第1の照射手段を有し、前記第1の放射線を照射する第1の方向に対して、前記第1の方向とは異なる第2の方向から前記被検者の体内の標的を含む領域を透視した画像を撮影する撮影手段と、
前記第2の方向からの透視画像に映る標的の外形に基づいて、前記透視画像に映る標的の外形と前記第1の方向における標的の外形との相関を学習して相関情報である識別器を出力する学習手段と、
治療が行われる直近に撮影された前記第2の方向からの透視画像に映る標的の外形と、前記識別器とに基づいて、前記第1の方向における標的の外形を推定する外形推定手段と、
を備えたことを特徴とする標的外形推定装置。
It has a first irradiation means for irradiating a target in the body of a subject with a first radiation, and a second direction different from the first direction with respect to the first direction for irradiating the first radiation. An imaging means for capturing an image of the area including the target in the subject's body from the direction of
Based on the outer shape of the target reflected in the fluoroscopic image from the second direction, the classifier which is the correlation information is obtained by learning the correlation between the outer shape of the target reflected in the fluoroscopic image and the outer shape of the target in the first direction. Learning means to output and
An outer shape estimating means for estimating the outer shape of the target in the first direction based on the outer shape of the target reflected in the fluoroscopic image from the second direction taken most recently in which the treatment is performed and the discriminator.
A target contour estimation device characterized by being equipped with.
前記第1の放射線が、X線または粒子線であり、
前記透視画像が、X線画像、核磁気共鳴画像、超音波検査画像、陽電子放射断層撮影画像、体表面形状画像および光音響イメージング画像のいずれか1つまたはその組み合わせである
ことを特徴とする請求項1に記載の標的外形推定装置。
The first radiation is an X-ray or a particle beam,
A claim characterized in that the fluoroscopic image is any one or a combination of an X-ray image, a nuclear magnetic resonance image, an ultrasonic inspection image, a positron emission tomography image, a body surface shape image, and a photoacoustic imaging image. Item 2. The target outer shape estimation device according to Item 1.
前記透視画像に映る標的の外形に基づいて、透視画像に映る標的の外形と前記第1の方向における前記第1の照射手段からの距離との相関も学習する前記学習手段と、
治療が行われる直近に撮影された前記透視画像に映る標的の外形と、前記識別器とに基づいて、前記第1の方向における標的の前記第1の照射手段からの距離を推定する距離推定手段と、
を備えたことを特徴とする請求項1または2に記載の標的外形推定装置。
Based on the outer shape of the target shown in the fluoroscopic image, the learning means that also learns the correlation between the outer shape of the target shown in the fluoroscopic image and the distance from the first irradiation means in the first direction.
A distance estimating means for estimating the distance of the target from the first irradiation means in the first direction based on the outer shape of the target reflected in the fluoroscopic image taken most recently in which the treatment is performed and the discriminator. When,
The target external shape estimation device according to claim 1 or 2, wherein the target shape estimation device is provided.
前記第2の方向とは異なる第3の方向から前記被検者の体内の標的を含む領域の画像を撮影する撮影手段と、
前記第2の方向からの透視画像に映る標的の外形と、前記第3の方向からの透視画像に映る標的の外形とに基づいて、各透視画像に映る標的の外形と前記第1の方向における標的の外形との相関を学習して識別器を出力する前記学習手段と、
を備えたことを特徴とする請求項1ないし3のいずれかに記載の標的外形推定装置。
An imaging means for capturing an image of a region containing a target in the subject's body from a third direction different from the second direction.
Based on the outer shape of the target reflected in the fluoroscopic image from the second direction and the outer shape of the target reflected in the fluoroscopic image from the third direction, the outer shape of the target reflected in each fluoroscopic image and the outer shape of the target in the first direction. The learning means that learns the correlation with the outer shape of the target and outputs a classifier,
The target outer shape estimation device according to any one of claims 1 to 3, wherein the target shape estimation device is provided.
前記標的の画像特徴を含む追跡対象部画像に、前記画像特徴を含まない複数からなる非追跡対象画像のそれぞれを重ねた複数の重畳画像を作成する重畳画像作成手段と、
前記第2の方向からの透視画像に映る標的の外形に基づいて、前記透視画像に映る標的の外形と前記第1の方向における標的の外形との相関を学習すると共に、前記複数の重畳画像に基づいて前記標的の画像特徴および位置情報の少なくとも一方を学習して、識別器を作成する前記学習手段と、
を備えたことを特徴とする請求項1ないし4のいずれかに記載の標的外形推定装置。
A superimposed image creating means for creating a plurality of superimposed images in which each of a plurality of non-tracked target images not including the image feature is superimposed on the tracked portion image including the target image feature.
Based on the outer shape of the target reflected in the perspective image from the second direction, the correlation between the outer shape of the target reflected in the perspective image and the outer shape of the target in the first direction is learned, and the plurality of superimposed images are displayed. Based on the learning means for creating a classifier by learning at least one of the image feature and the position information of the target.
The target outer shape estimation device according to any one of claims 1 to 4, wherein the target shape estimation device is provided.
前記標的の画像特徴を特定する教師画像を予め入力する入力部と、
前記複数の重畳画像と前記教師画像に基づいて、前記標的の画像特徴および位置情報の少なくとも一方を学習して識別器を作成する前記学習手段と、
を備えたことを特徴とする請求項5に記載の標的外形推定装置。
An input unit for inputting a teacher image for specifying the image feature of the target in advance,
The learning means for creating a classifier by learning at least one of the image feature and the position information of the target based on the plurality of superimposed images and the teacher image.
The target external shape estimation device according to claim 5, wherein the target shape estimation device is provided.
前記標的の画像特徴の大きさと、画像の分解能と、予め設定された追跡精度とに基づいて、前記非追跡対象画像の枚数を導出して、導出された枚数に応じた前記非追跡対象画像を作成する非追跡対象画像編集手段、
を備えたことを特徴とする請求項5または6に記載の標的外形推定装置。
Based on the size of the image feature of the target, the resolution of the image, and the preset tracking accuracy, the number of the non-tracking target images is derived, and the non-tracking target image according to the derived number of images is obtained. Non-tracked image editing means to create,
The target contour estimation device according to claim 5 or 6, wherein the target shape estimation device is provided.
前記標的の画像特徴を含む学習用の元画像から、前記標的の画像特徴を含む追跡対象部画像と、前記追跡対象の画像特徴を含まない分離非追跡対象画像とに分離抽出する画像分離手段と、
前記分離非追跡対象画像を編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集手段と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成手段と
を備えたことを特徴とする請求項5ないし7のいずれかに記載の標的外形推定装置。
An image separation means for separating and extracting a tracking target part image including the target image feature and a separate non-tracking target image not including the tracking target image feature from a learning original image including the target image feature. ,
A non-tracking target image editing means for editing and creating the non-tracking target image composed of a plurality of separated non-tracking target images, and a non-tracking target image editing means.
With the superimposed image creating means for creating the superimposed image based on the tracked portion image and the non-tracked target image.
The target outer shape estimation device according to any one of claims 5 to 7, wherein the target shape estimation device is provided.
前記標的の画像特徴を含む元画像から、前記標的の画像特徴を含む追跡対象部画像と、前記標的の画像特徴を含まない分離非追跡対象画像とに分離する画像分離手段と、
前記元画像に含まれず且つ前記非追跡対象画像に含まれる障害物の画像を取得する障害物画像取得手段と、
前記分離非追跡対象画像と前記障害物の画像との少なくとも1つを編集して複数からなる前記非追跡対象画像を編集作成する非追跡対象画像編集手段と、
前記追跡対象部画像と前記非追跡対象画像とに基づいて前記重畳画像を作成する前記重畳画像作成手段と、
を備えたことを特徴とする請求項5ないし7のいずれかに記載の標的外形推定装置。
An image separation means for separating an original image including the image feature of the target into a tracking target part image including the image feature of the target and a separation non-tracking target image not including the image feature of the target.
An obstacle image acquisition means for acquiring an image of an obstacle that is not included in the original image and is included in the non-tracking target image.
A non-tracking target image editing means for editing and creating a plurality of the non-tracking target image by editing at least one of the separated non-tracking target image and the obstacle image.
The superimposed image creating means for creating the superimposed image based on the tracked portion image and the non-tracked target image, and
The target outer shape estimation device according to any one of claims 5 to 7, wherein the target shape estimation device is provided.
前記標的の画像特徴を含む学習用の元画像から、前記標的の画像特徴の画像コントラスト情報に基づき、前記追跡対象部画像と前記分離非追跡対象画像とに分離抽出する前記画像分離手段と、
を備えたことを特徴とする請求項8または9に記載の標的外形推定装置。
The image separation means for separating and extracting the tracking target portion image and the separation non-tracking target image from the original image for learning including the target image feature based on the image contrast information of the target image feature.
The target contour estimation device according to claim 8 or 9, wherein the target shape estimation device is provided.
前記標的の画像特徴および位置情報の少なくとも一方が予め設定された評価用の画像と、前記識別器とに基づいて、前記標的の追跡の精度を評価する追跡精度評価手段、
を備えたことを特徴とする請求項5ないし10のいずれかに記載の標的外形推定装置。
A tracking accuracy evaluation means for evaluating the tracking accuracy of the target based on the image for evaluation in which at least one of the image feature and the position information of the target is preset and the classifier.
The target outer shape estimation device according to any one of claims 5 to 10, wherein the target shape estimation device is provided.
前記追跡精度評価手段による追跡の精度が、予め設定された精度に達しない場合に、前記非追跡対象画像の枚数を増やして前記識別器を再作成する前記学習手段、
を備えたことを特徴とする請求項11に記載の標的外形推定装置。
The learning means, which recreates the classifier by increasing the number of non-tracked images when the tracking accuracy by the tracking accuracy evaluation means does not reach a preset accuracy.
11. The target outer shape estimation device according to claim 11.
請求項1ないし12のいずれかに記載の標的外形推定装置と、
前記標的外形推定装置が推定した標的の外形に基づいて、前記第1の方向から治療用の放射線を照射する照射手段と、
を備えたことを特徴とする治療装置。
The target outer shape estimation device according to any one of claims 1 to 12,
An irradiation means that irradiates therapeutic radiation from the first direction based on the outer shape of the target estimated by the target outer shape estimation device.
A treatment device characterized by being equipped with.
JP2019185550A 2019-10-08 2019-10-08 Target contour estimator and therapy device Active JP7292721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019185550A JP7292721B2 (en) 2019-10-08 2019-10-08 Target contour estimator and therapy device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019185550A JP7292721B2 (en) 2019-10-08 2019-10-08 Target contour estimator and therapy device

Publications (2)

Publication Number Publication Date
JP2021058480A true JP2021058480A (en) 2021-04-15
JP7292721B2 JP7292721B2 (en) 2023-06-19

Family

ID=75380842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185550A Active JP7292721B2 (en) 2019-10-08 2019-10-08 Target contour estimator and therapy device

Country Status (1)

Country Link
JP (1) JP7292721B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160175614A1 (en) * 2014-12-19 2016-06-23 Kabushiki Kaisha Toshiba Medical image processing apparatus, treatment system, medical image processing method, and medical image processing program
JP2018075356A (en) * 2016-11-02 2018-05-17 国立研究開発法人量子科学技術研究開発機構 X-ray fluoroscopic apparatus and x-ray fluoroscopic method
WO2018159775A1 (en) * 2017-03-03 2018-09-07 国立大学法人筑波大学 Object tracking device
WO2019003474A1 (en) * 2017-06-30 2019-01-03 株式会社島津製作所 Tracking device for radiation treatment, position detection device, and method for tracking moving body

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160175614A1 (en) * 2014-12-19 2016-06-23 Kabushiki Kaisha Toshiba Medical image processing apparatus, treatment system, medical image processing method, and medical image processing program
JP2016116659A (en) * 2014-12-19 2016-06-30 株式会社東芝 Medical image processing device, treatment system, medical image processing method, and medical image processing program
JP2018075356A (en) * 2016-11-02 2018-05-17 国立研究開発法人量子科学技術研究開発機構 X-ray fluoroscopic apparatus and x-ray fluoroscopic method
WO2018159775A1 (en) * 2017-03-03 2018-09-07 国立大学法人筑波大学 Object tracking device
WO2019003474A1 (en) * 2017-06-30 2019-01-03 株式会社島津製作所 Tracking device for radiation treatment, position detection device, and method for tracking moving body

Also Published As

Publication number Publication date
JP7292721B2 (en) 2023-06-19

Similar Documents

Publication Publication Date Title
US11328434B2 (en) Object tracking device
JP6533991B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, METHOD, PROGRAM, AND RADIATION THERAPY APPARATUS
US7436928B2 (en) Radiotherapy device control apparatus and radiation irradiation method
US9179982B2 (en) Method and system for automatic patient identification
CN111918697B (en) Medical image processing device, treatment system, and storage medium
EP3710109B1 (en) Three-dimensional tracking of a target in a body
JP5495886B2 (en) Patient positioning system
JP2017035314A (en) Apparatus, method and program for radiotherapy
JP7362130B2 (en) radiation therapy equipment
JP7292721B2 (en) Target contour estimator and therapy device
US20190080442A1 (en) System and method for image guided tracking to enhance radiation therapy
KR102469141B1 (en) Medical image processing apparatus, medical image processing method, and program
WO2023068365A1 (en) Target shape estimation device and therapeutic device
JP2021153952A (en) Accuracy verification device, radiation treatment system, accuracy verification method and computer program
CN114599427A (en) Method for detecting change in internal structure of patient, device for detecting change in internal structure of patient, and computer program
WO2024070093A1 (en) Irradiation position verification assisting device, irradiation position verification assisting method, and irradiation position verification assisting program
Nguyen et al. Adapting population liver motion models for individualized online image-guided therapy
WO2024047915A1 (en) Radiation therapy system, motion tracking device and motion tracking method
JP2021048913A (en) Image processing device, method and program
JP6799292B2 (en) Radiation imaging device and radiological image detection method
JP2021013741A (en) System and method for low dose ct fluoroscopy via aperture control
Siddique Active Imag Guidance
Schwarz et al. Combination of External/Image-Based Detection of Respiratory Induced Motion and Adaption with a Gating Mechanism
JP2021104195A (en) CT image diagnosis support device, CT image diagnosis support method, and CT image diagnosis support program
Xu Towards intelligent tumor tracking and setup verification in radiation therapy for lung cancer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230531

R150 Certificate of patent or registration of utility model

Ref document number: 7292721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150