JP2018068814A - Image processing device, image processing method and image processing program - Google Patents
Image processing device, image processing method and image processing program Download PDFInfo
- Publication number
- JP2018068814A JP2018068814A JP2016214226A JP2016214226A JP2018068814A JP 2018068814 A JP2018068814 A JP 2018068814A JP 2016214226 A JP2016214226 A JP 2016214226A JP 2016214226 A JP2016214226 A JP 2016214226A JP 2018068814 A JP2018068814 A JP 2018068814A
- Authority
- JP
- Japan
- Prior art keywords
- image
- parameter
- volume
- processing apparatus
- constituting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 119
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000002591 computed tomography Methods 0.000 claims description 16
- 238000006073 displacement reaction Methods 0.000 claims description 10
- 238000012886 linear function Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 42
- 210000004072 lung Anatomy 0.000 description 34
- 238000004891 communication Methods 0.000 description 20
- 230000000241 respiratory effect Effects 0.000 description 17
- 230000005855 radiation Effects 0.000 description 15
- 230000000052 comparative effect Effects 0.000 description 12
- 238000009423 ventilation Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 7
- 230000010365 information processing Effects 0.000 description 6
- 238000009206 nuclear medicine Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、及び、画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.
対象物としての肺が撮影された三次元画像を処理する画像処理装置が知られている(例えば、特許文献1)。画像処理装置は、複数の異なる時点にてそれぞれ取得された複数の三次元画像に基づいて、肺を構成する要素毎の変位ベクトルに関するヤコビアンの時間に対する変化を表す所定の近似関数を特定する関数特定パラメータを取得する。近似関数は、余弦関数のべき乗を含む。 An image processing apparatus that processes a three-dimensional image in which a lung as an object is photographed is known (for example, Patent Document 1). The image processing apparatus specifies a predetermined approximate function that represents a change in Jacobian with respect to time of a displacement vector for each element constituting the lung, based on a plurality of three-dimensional images respectively acquired at a plurality of different time points. Get parameters. The approximate function includes the power of the cosine function.
画像処理装置は、取得された関数特定パラメータに基づいて、各要素の状態を推定する。これにより、例えば、肺のうちの、換気を行なう機能が他の領域よりも高い領域を特定できる。この結果、例えば、肺に放射線を照射する場合において、特定された領域に照射される放射線の量を抑制できるので、肺が換気を行なう機能が低下することを抑制できる。 The image processing apparatus estimates the state of each element based on the acquired function specifying parameter. Thereby, the area | region where the function which performs ventilation among lungs is higher than another area | region can be pinpointed, for example. As a result, for example, in the case of irradiating the lung with radiation, the amount of radiation irradiated to the specified region can be suppressed, so that the ability of the lung to ventilate can be suppressed from decreasing.
ところで、例えば、三次元画像がノイズを含む場合、要素に対するヤコビアンと、当該要素の機能の高さと、の相関が弱くなることがある。また、上記画像処理装置が用いる近似関数は、余弦関数のべき乗を含む比較的複雑な関数である。このため、関数特定パラメータを取得する処理の負荷が過大となることがある。 By the way, for example, when a three-dimensional image includes noise, the correlation between the Jacobian for an element and the height of the function of the element may be weak. The approximate function used by the image processing apparatus is a relatively complex function including a power of a cosine function. For this reason, the processing load for acquiring the function specifying parameter may be excessive.
このように、上記画像処理装置においては、処理の負荷を抑制しながら、肺を構成する要素の機能の高さを高い精度にて推定できない虞があった。この種の課題は、対象物が肺と異なる場合にも同様に生じることがある。 As described above, in the image processing apparatus, there is a possibility that the height of the function of the elements constituting the lung cannot be estimated with high accuracy while suppressing the processing load. This type of problem may occur as well when the object is different from the lung.
本発明の目的の一つは、処理の負荷を抑制しながら、対象物を構成する要素の機能の高さを高い精度にて推定することにある。 One of the objects of the present invention is to estimate the height of the function of the elements constituting the object with high accuracy while suppressing the processing load.
一つの側面では、画像処理装置は、
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定する要素特定部と、
上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得する第1パラメータ取得部と、
上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する第2パラメータ取得部と、
を備える。
In one aspect, the image processing apparatus includes:
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, An element specifying unit for specifying an element constituting the object in each of the first image and the second image constituting the at least two image sets;
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter obtaining unit that obtains a first parameter representing a rate at which each of the at least two image sets is changed;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. A second parameter acquisition unit for acquiring a second parameter;
Is provided.
他の一つの側面では、画像処理方法は、
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定し、
上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得し、
上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する。
In another aspect, the image processing method includes:
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter representing a rate at which is changed for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. Obtain the second parameter.
他の一つの側面では、画像処理プログラムは、
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定し、
上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得し、
上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する、処理をコンピュータに実行させる。
In another aspect, the image processing program is
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter representing a rate at which is changed for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. The process for obtaining the second parameter is executed by the computer.
処理の負荷を抑制しながら、対象物を構成する要素の機能の高さを高い精度にて推定できる。 The height of the function of the element which comprises a target object can be estimated with high precision, suppressing the processing load.
以下、本発明の、画像処理装置、画像処理方法、及び、画像処理プログラム、に関する各実施形態について説明する。 Hereinafter, embodiments of the present invention relating to an image processing apparatus, an image processing method, and an image processing program will be described.
<第1実施形態>
(概要)
第1実施形態の画像処理装置は、時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定する。更に、画像処理装置は、上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得する。加えて、画像処理装置は、上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する。
<First Embodiment>
(Overview)
The image processing apparatus according to the first embodiment is configured by a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different time points, with an object whose volume changes over time. At least two image sets to be selected are selected, and elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets. Further, the image processing apparatus uses the element specified in the second image constituting the image set to the volume of the first image element that is the element specified in the first image constituting the image set. A first parameter representing a rate at which a volume of a second image element changes is acquired for each of the at least two image sets. In addition, the image processing apparatus is configured to detect the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. A second parameter representing the rate at which one parameter changes is acquired.
上記第2パラメータと、対象物を構成する要素が有する所定の機能と、は強い相関を有する。例えば、対象物が肺である場合、上記第2パラメータと、要素が換気を行なう機能と、は強い相関を有する。従って、上記構成によれば、第2パラメータに基づいて、要素の機能の高さを高い精度にて推定できる。このように、上記構成によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。
以下、第1実施形態の画像処理装置について、より詳細に説明する。
The second parameter has a strong correlation with a predetermined function of an element constituting the object. For example, when the object is the lung, the second parameter and the function of the element to perform ventilation have a strong correlation. Therefore, according to the said structure, the height of the function of an element can be estimated with high precision based on a 2nd parameter. Thus, according to the said structure, the height of the function of an element can be estimated with high precision, suppressing the processing load.
Hereinafter, the image processing apparatus according to the first embodiment will be described in more detail.
(構成)
図1に表されるように、第1実施形態の画像処理装置1は、バスBUを介して互いに接続された、処理装置11、記憶装置12、入力装置13、出力装置14、及び、通信装置15を備える。本例では、画像処理装置1は、生体内の対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像を処理する。なお、対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像は、四次元画像と表されてもよい。また、生体内の対象物が撮影された三次元画像は、医用三次元画像と表されてもよい。また、画像処理装置1は、医用画像処理装置と表されてもよい。
(Constitution)
As illustrated in FIG. 1, the image processing apparatus 1 according to the first embodiment includes a
本例では、対象物は、肺である。なお、対象物は、肺以外の器官(例えば、心臓、脳、又は、血管等)であってもよい。 In this example, the object is the lung. The object may be an organ other than the lung (for example, heart, brain, blood vessel, or the like).
処理装置11は、記憶装置12に記憶されているプログラムを実行することにより、記憶装置12、入力装置13、及び、出力装置14を制御する。本例では、処理装置11は、CPU(Central Processing Unit)である。なお、処理装置11は、CPUに代えて、又は、CPUに加えて、MPU(Micro Processing Unit)、又は、DSP(Digital Signal Processor)を含んでもよい。また、処理装置11が備えるCPUの数は、2以上であってもよい。
The
記憶装置12は、プログラムを予め記憶する。記憶装置12は、処理装置11によるプログラムの実行に伴って生成される情報を記憶する。本例では、記憶装置12は、RAM(Random Access Memory)、ROM(Read Only Memory)、半導体メモリ、有機メモリ、HDD(Hard Disk Drive)、及び、SSD(Solid State Drive)の少なくとも1つを含む。
The
なお、画像処理装置1は、処理装置11及び記憶装置12に代えて、又は、処理装置11及び記憶装置12に加えて、LSI(Large Scale Integration)回路、又は、プログラム可能な論理回路(例えば、PLD、又は、FPGA)等の処理回路を備えてもよい。PLDは、Programmable Logic Deviceの略記である。FPGAは、Field−Programmable Gate Arrayの略記である。
The image processing apparatus 1 may be an LSI (Large Scale Integration) circuit or a programmable logic circuit (for example, a programmable logic circuit (for example, instead of the
入力装置13は、画像処理装置1の外部から情報を入力する。本例では、入力装置13は、キーボード、及び、マウスを備える。なお、入力装置13は、マイクロフォン、又は、カメラを備えてもよい。
The
出力装置14は、画像処理装置1の外部に情報を出力する。本例では、出力装置14は、ディスプレイを備える。なお、出力装置14は、スピーカを備えてもよい。
なお、画像処理装置1は、入力装置13及び出力装置14の両方を構成するタッチパネル式のディスプレイを備えてもよい。
The output device 14 outputs information to the outside of the image processing device 1. In this example, the output device 14 includes a display. The output device 14 may include a speaker.
Note that the image processing apparatus 1 may include a touch panel display that forms both the
通信装置15は、画像処理装置1の外部の装置と通信する。本例では、通信装置15は、生体内の対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像を生成する画像生成装置に接続されるとともに、当該画像生成装置から複数の三次元画像を受信する。なお、通信装置15は、通信網を介して画像生成装置と接続されていてもよい。また、画像処理装置1は、画像生成装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。
The
本例では、画像生成装置は、CT(Computed Tomography)装置である。本例では、CT装置は、X線を用いることにより三次元画像を生成する。従って、本例では、三次元画像は、位置毎のCT値を表すCT画像である。本例では、CT値の単位は、Hounsfield Unit(HU)である。CT値は、X線を吸収する程度を表すとともに、水に対する相対値を表す。水に対するCT値は、0である。
なお、CT装置は、超音波を用いることにより三次元画像を生成してもよい。
In this example, the image generation apparatus is a CT (Computed Tomography) apparatus. In this example, the CT apparatus generates a three-dimensional image by using X-rays. Therefore, in this example, the three-dimensional image is a CT image representing the CT value for each position. In this example, the unit of CT value is Hounsfield Unit (HU). The CT value represents the degree of absorption of X-rays and represents a relative value with respect to water. The CT value for water is zero.
Note that the CT apparatus may generate a three-dimensional image by using ultrasonic waves.
なお、画像生成装置は、核磁気共鳴画像法(MRI;Magnetic Resonance Imaging)、ポジトロン断層法(PET;Positron Emission Tomography)、又は、単一光子放射断層撮影(SPECT;Single Photon Emission Computed Tomography)と呼ばれる技術を用いることにより三次元画像を生成してもよい。 Note that the image generation apparatus is referred to as nuclear magnetic resonance imaging (MRI), positron emission tomography (PET), or single photon emission tomography (SPECT). A three-dimensional image may be generated by using a technique.
また、通信装置15は、画像生成装置により生成された複数の三次元画像を保持する情報処理装置と通信網を介して接続されるとともに、当該情報処理装置から複数の三次元画像を受信してもよい。なお、画像処理装置1は、情報処理装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。
The
また、画像処理装置1は、複数の三次元画像が記録された記録媒体から複数の三次元画像を読み出すことにより、複数の三次元画像が入力されてもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、又は、半導体メモリである。
The image processing apparatus 1 may input a plurality of three-dimensional images by reading the plurality of three-dimensional images from a recording medium on which the plurality of three-dimensional images are recorded. In this case, the image processing apparatus 1 may not include the
また、通信装置15は、放射線を生体に照射する放射線照射装置に接続されるとともに、当該放射線照射装置による放射線の照射を制御するための制御情報を、当該放射線照射装置に送信してもよい。なお、通信装置15は、通信網を介して放射線照射装置と接続されていてもよい。また、画像処理装置1は、放射線照射装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。
The
また、通信装置15は、放射線照射装置による放射線の照射を制御するための制御情報を保持するための情報処理装置と通信網を介して接続されるとともに、当該情報処理装置へ制御情報を送信してもよい。なお、画像処理装置1は、情報処理装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。
The
また、画像処理装置1は、放射線照射装置による放射線の照射を制御するための制御情報を記録媒体に書き込むことにより、当該制御情報を出力してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。
Further, the image processing apparatus 1 may output the control information by writing control information for controlling the irradiation of radiation by the radiation irradiating apparatus on the recording medium. In this case, the image processing apparatus 1 may not include the
(機能)
図2に表されるように、画像処理装置1の機能は、画像取得部101と、要素特定部102と、第1パラメータ取得部103と、第2パラメータ取得部104と、出力部105と、を含む。
(function)
As illustrated in FIG. 2, the functions of the image processing apparatus 1 include an
画像取得部101は、処理装置11、記憶装置12及び通信装置15により実現される。
画像取得部101は、画像生成装置から、対象物がN個の異なる時点にてそれぞれ撮影されたN個の三次元画像を受信することにより、当該N個の三次元画像を取得する。上述したように、本例では、対象物は、肺である。従って、対象物は、時間の経過に伴って体積が変化する。なお、肺の体積は、肺容積と表されてよい。Nは、2以上の整数を表し、本例では、10を表す。
The
The
本例では、上記N個の時点の呼吸位相は、等しい間隔を有する。各時点の呼吸位相は、1回の呼吸運動における当該時点までの、所定の基準時点からの時間の、当該呼吸運動の周期である呼吸周期に対する割合を表す。本例では、基準時点は、当該呼吸運動において肺容積が最大となる時点である。なお、基準時点は、当該呼吸運動において肺容積が最小となる時点であってもよい。 In this example, the respiratory phases at the N time points have equal intervals. The respiratory phase at each time point represents the ratio of the time from a predetermined reference time point to the respiratory cycle, which is the cycle of the respiratory motion, up to that time point in one respiratory motion. In this example, the reference time point is a time point at which the lung volume becomes maximum in the respiratory motion. Note that the reference time point may be a time point at which the lung volume is minimized in the respiratory motion.
本例では、呼吸位相の間隔は、(100/N)%である。従って、本例では、図3に表されるように、上記N個の時点の呼吸位相は、それぞれ、0%、10%、…、及び、90%である。図3において、Tmは、呼吸位相がm%である時点を表す。 In this example, the breathing phase interval is (100 / N)%. Therefore, in this example, as shown in FIG. 3, the respiratory phases at the N time points are 0%, 10%,..., And 90%, respectively. In FIG. 3, Tm represents a point in time when the respiratory phase is m%.
なお、画像取得部101は、M(Mは、Nよりも大きい整数を表す。)個の異なる時点にてそれぞれ撮影されたM個の三次元画像に基づいて、N個の時点にてそれぞれ撮影されたN個の三次元画像を生成又は推定することにより、当該N個の三次元画像を取得してもよい。
The
要素特定部102は、処理装置11及び記憶装置12により実現される。
要素特定部102は、画像取得部101により取得されたN個の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択する。
The
The
本例では、要素特定部102は、画像取得部101により取得されたN個の三次元画像から、N−1組の画像組を選択する。本例では、要素特定部102は、画像取得部101により取得されたN個の三次元画像のうちの、1つの三次元画像を、N−1組の画像組に共通する第1画像として選択する。本例では、第1画像は、基準画像と表されてもよい。
In this example, the
本例では、基準画像は、呼吸運動において肺容積が略最小となる時点にて撮影された三次元画像である。例えば、要素特定部102は、呼吸位相が50%である時点T50にて撮影された三次元画像を基準画像として選択する。なお、要素特定部102は、呼吸位相が40%である時点T40にて撮影された三次元画像、又は、呼吸位相が60%である時点T60にて撮影された三次元画像を基準画像として選択してもよい。また、基準画像は、呼吸運動において肺容積が略最小となる時点と異なる時点(例えば、肺容積が略最大となる時点等)にて撮影された三次元画像であってもよい。
In this example, the reference image is a three-dimensional image taken at the time when the lung volume becomes substantially minimum in the respiratory motion. For example, the
更に、本例では、要素特定部102は、画像取得部101により取得されたN個の三次元画像のうちの、基準画像として選択された三次元画像以外のN−1個の三次元画像を、N−1組の画像組を構成するN−1個の第2画像としてそれぞれ選択する。本例では、第2画像は、比較画像と表されてもよい。このように、各画像組を構成する第1画像及び第2画像は、互いに異なる時点にて撮影された2つの三次元画像である。
Furthermore, in this example, the
なお、要素特定部102により選択される画像組の数は、2以上であり、且つ、N−1よりも小さくてもよい。また、要素特定部102により選択される画像組の数は、N以上であってもよい。
また、要素特定部102は、2組の画像組の間で異なる三次元画像を第1画像として選択してもよい。例えば、要素特定部102は、画像組毎に異なる三次元画像を第1画像として選択してもよい。
Note that the number of image sets selected by the
In addition, the
要素特定部102は、選択された基準画像において、対象物を構成するP個の異なる要素のそれぞれを特定する。Pは、2以上の整数を表す。基準画像における各要素は、基準画像要素と表されてもよい。本例では、各基準画像要素は、基準画像において、互いに直交する、X軸、Y軸及びZ軸の各方向において所定の長さを有する直方体である。各基準画像要素は、ボクセルと表されてもよい。本例では、基準画像要素は、第1画像要素と表されてもよい。
The
要素特定部102は、各基準画像要素に対応する要素である比較画像要素を、選択された比較画像のそれぞれにおいて特定する。本例では、要素特定部102は、非剛体位置合わせ(DIR;Deformable Image Registration)と呼ばれる技術を用いることにより、各基準画像要素に対応する比較画像要素を、選択された比較画像のそれぞれにおいて特定する。これにより、要素特定部102は、各基準画像要素の位置から、当該基準画像要素に対応する比較画像要素の位置への変位ベクトルを、選択された比較画像のそれぞれに対して取得する。本例では、比較画像要素は、第2画像要素と表されてもよい。
The
第1パラメータ取得部103は、処理装置11及び記憶装置12により実現される。
第1パラメータ取得部103は、各基準画像要素の体積に対して、当該基準画像要素に対応する比較画像要素の体積が変化する割合を表す第1パラメータを、要素特定部102により選択された画像組のそれぞれに対して取得する。
The first
The first
本例では、第1パラメータ取得部103は、各画像組に対して、基準画像要素毎に、数式1に基づいて第1パラメータVHU(x)を取得する。換言すると、本例では、第1パラメータ取得部103は、基準画像要素毎に、N−1組の画像組にそれぞれ対応するN−1個の第1パラメータVHU(x)を取得する。
数式1において、xは、基準画像要素の位置を表し、u(x)は、基準画像要素の位置から、比較画像要素の位置への変位ベクトルを表し、HU1は、基準画像要素のCT値を表し、且つ、HU2は、比較画像要素のCT値を表す。uは、変位ベクトル場を表すと捉えられてもよい。 In Equation 1, x represents the position of the reference image element, u (x) represents a displacement vector from the position of the reference image element to the position of the comparison image element, and HU 1 represents the CT value of the reference image element. HU 2 represents the CT value of the comparative image element. u may be taken to represent the displacement vector field.
なお、第1パラメータ取得部103は、数式1に代えて、数式2に基づいて、各画像組に対して基準画像要素毎に第1パラメータVjac(x)を取得してもよい。
第2パラメータ取得部104は、処理装置11及び記憶装置12により実現される。
第2パラメータ取得部104は、要素特定部102により選択された画像組のそれぞれにおいて対象物の体積の差(本例では、肺容積の差)を推定する。肺容積の差は、肺容積差と表されてもよい。
The second
The second
画像組における対象物の体積の差(換言すると、対象物体積差)は、当該画像組を構成する第1画像(本例では、基準画像)における対象物の体積と、当該画像組を構成する第2画像(本例では、比較画像)における対象物の体積と、の差である。本例では、対象物体積差は、当該画像組を構成する第2画像における対象物の体積から、当該画像組を構成する第1画像における対象物の体積を減じた値である。 The difference in the volume of the object in the image set (in other words, the object volume difference) forms the image set with the volume of the object in the first image (in this example, the reference image) constituting the image set. It is the difference between the volume of the object in the second image (comparative image in this example). In this example, the object volume difference is a value obtained by subtracting the volume of the object in the first image constituting the image set from the volume of the object in the second image constituting the image set.
第2パラメータ取得部104は、基準画像要素毎に、推定された対象物体積差に対して、第1パラメータ取得部103により取得された第1パラメータが変化する割合を表す第2パラメータを取得する。本例では、第2パラメータ取得部104は、基準画像要素毎に、推定された対象物体積差に対する、第1パラメータの変化を表す一次関数により表される直線の傾きを第2パラメータとして取得する。
The second
本例では、対象物体積差に対する、第1パラメータの変化を表す一次関数により表される直線の傾きは、対象物体積差に対して第1パラメータが変化する割合を表す。
本例では、第2パラメータ取得部104は、推定された対象物体積差に対する、第1パラメータの変化を表す一次関数を、最小二乗法を用いることにより推定する。
In this example, the slope of a straight line represented by a linear function that represents a change in the first parameter with respect to the object volume difference represents a rate at which the first parameter changes with respect to the object volume difference.
In this example, the second
例えば、図4に表されるように、第2パラメータ取得部104は、上記一次関数を推定する。図4において、円M1は、第1の基準画像要素に対して取得された、N−1個の第1パラメータを表し、直線L1は、第1の基準画像要素に対して第2パラメータ取得部104によって推定された一次関数を表す。同様に、四角M2は、第2の基準画像要素に対して取得された、N−1個の第1パラメータを表し、直線L2は、第2の基準画像要素に対して第2パラメータ取得部104によって推定された一次関数を表す。
For example, as shown in FIG. 4, the second
なお、本例のように、第1画像として、1つの三次元画像のみが選択される場合、第2パラメータ取得部104は、対象物体積差に代えて、第2画像(本例では、比較画像)における対象物の体積を用いて第2パラメータを取得してもよい。
When only one three-dimensional image is selected as the first image as in this example, the second
出力部105は、処理装置11、記憶装置12及び出力装置14により実現される。
出力部105は、対象物のうちの、当該対象物を構成する要素が有する所定の機能が他の領域よりも高い領域(換言すると、高機能領域)を、第2パラメータ取得部104により取得された第2パラメータに基づいて特定する。
The
In the
上述したように、本例では、対象物は、肺である。本例では、所定の機能は、換気を行なう機能である。なお、肺以外の器官である場合、所定の機能は、換気を行なう機能と異なる機能であってよい。
出力部105は、特定された高機能領域を表す情報を出力装置14を介して出力する。
As described above, in this example, the object is the lung. In this example, the predetermined function is a function of performing ventilation. In the case of an organ other than the lung, the predetermined function may be a function different from the function of performing ventilation.
The
本例では、出力部105は、対象物のうちの、第2パラメータ取得部104により取得された第2パラメータが所定の閾値以上である領域を高機能領域として特定する。
In this example, the
なお、出力部105は、高機能領域を表す情報の出力に代えて、又は、高機能領域を表す情報の出力に加えて、基準画像要素毎の第2パラメータを出力装置14を介して出力してもよい。
The
(動作)
次に、画像処理装置1の動作について説明する。
図5に表されるように、画像処理装置1は、画像生成装置から、対象物がN個の異なる時点にてそれぞれ撮影されたN個の三次元画像を受信することにより、当該N個の三次元画像を取得する(図5のステップS101)。
(Operation)
Next, the operation of the image processing apparatus 1 will be described.
As illustrated in FIG. 5, the image processing apparatus 1 receives N pieces of three-dimensional images, each of which is captured at N different points in time, from the image generation apparatus. A three-dimensional image is acquired (step S101 in FIG. 5).
次いで、画像処理装置1は、ステップS101にて取得されたN個の三次元画像のうちの、呼吸運動において肺容積が略最小となる時点にて撮影された三次元画像を、N−1組の画像組のそれぞれを構成する基準画像として選択する。更に、画像処理装置1は、ステップS101にて取得されたN個の三次元画像のうちの、基準画像として選択された三次元画像以外のN−1個の三次元画像を、N−1組の画像組を構成するN−1個の比較画像としてそれぞれ選択する。これにより、画像処理装置1は、N−1組の画像組を選択する(図5のステップS102)。 Next, the image processing apparatus 1 obtains N-1 sets of 3D images taken at the time when the lung volume becomes substantially minimum in the respiratory motion among the N 3D images acquired in step S101. Are selected as reference images constituting each of the image sets. Furthermore, the image processing apparatus 1 converts N−1 three-dimensional images other than the three-dimensional image selected as the reference image out of the N three-dimensional images acquired in step S101 into N−1 sets. Are selected as N-1 comparison images constituting each image set. As a result, the image processing apparatus 1 selects N-1 image sets (step S102 in FIG. 5).
次いで、画像処理装置1は、ステップS102にて選択された基準画像において、対象物を構成するP個の異なる要素(換言すると、基準画像要素)のそれぞれを特定する(図5のステップS103)。 Next, the image processing apparatus 1 specifies each of P different elements (in other words, reference image elements) constituting the object in the reference image selected in step S102 (step S103 in FIG. 5).
次いで、画像処理装置1は、ステップS103にて特定されたP個の基準画像要素のそれぞれに対応する要素である比較画像要素を、ステップS102にて選択された比較画像のそれぞれにおいて特定する。これにより、画像処理装置1は、ステップS103にて特定されたP個の基準画像要素のそれぞれの位置から、当該基準画像要素に対応する比較画像要素の位置への変位ベクトルを、ステップS102にて選択された画像組のそれぞれに対して取得する(図5のステップS104)。 Next, the image processing apparatus 1 specifies a comparison image element that is an element corresponding to each of the P reference image elements specified in step S103 in each of the comparison images selected in step S102. As a result, the image processing apparatus 1 uses, in step S102, the displacement vector from the position of each of the P reference image elements specified in step S103 to the position of the comparison image element corresponding to the reference image element. Obtained for each of the selected image sets (step S104 in FIG. 5).
次いで、画像処理装置1は、ステップS102にて選択された画像組のそれぞれに対して、基準画像要素毎に、数式1と、ステップS104にて取得された変位ベクトルと、に基づいて、第1パラメータVHU(x)を取得する(図5のステップS105)。 Next, the image processing apparatus 1 performs, based on Equation 1 and the displacement vector acquired in Step S104, for each reference image element for each of the image sets selected in Step S102. The parameter V HU (x) is acquired (step S105 in FIG. 5).
次いで、画像処理装置1は、ステップS102にて選択された画像組のそれぞれにおいて対象物体積差(本例では、肺容積差)を推定する。更に、画像処理装置1は、基準画像要素毎に、推定された対象物体積差に対して、ステップS105にて取得された第1パラメータが変化する割合を表す第2パラメータを取得する(図5のステップS106)。 Next, the image processing apparatus 1 estimates an object volume difference (in this example, a lung volume difference) in each of the image sets selected in step S102. Further, the image processing apparatus 1 acquires, for each reference image element, a second parameter that represents a rate at which the first parameter acquired in step S105 changes with respect to the estimated object volume difference (FIG. 5). Step S106).
次いで、画像処理装置1は、対象物のうちの高機能領域を、ステップS106にて取得された第2パラメータに基づいて特定し、特定された高機能領域を表す情報を出力装置14を介して出力する(図5のステップS107)。
次いで、画像処理装置1は、図5の処理を終了する。
Next, the image processing apparatus 1 specifies the high-function area of the target based on the second parameter acquired in step S106, and sends information representing the specified high-function area via the output device 14. Output (step S107 in FIG. 5).
Next, the image processing apparatus 1 ends the process of FIG.
以上、説明したように、第1実施形態の画像処理装置1は、時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定する。更に、画像処理装置1は、上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得する。加えて、画像処理装置1は、上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する。 As described above, the image processing apparatus 1 according to the first embodiment uses the first from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with the volume changing with time. At least two image sets constituted by the image and the second image are selected, and elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets. Further, the image processing apparatus 1 is configured to detect the element specified in the second image constituting the image set with respect to the volume of the first image element that is the specified element in the first image constituting the image set. The first parameter representing the rate at which the volume of the second image element is changed is acquired for each of the at least two image sets. In addition, the image processing apparatus 1 is configured to detect the difference between the volume of the object in the first image that configures the image set and the volume of the object in the second image that configures the image set. A second parameter representing the rate at which the first parameter changes is acquired.
上記第2パラメータと、対象物を構成する要素が有する所定の機能と、は強い相関を有する。例えば、対象物が肺である場合、上記第2パラメータと、要素が換気を行なう機能と、は強い相関を有する。従って、画像処理装置1によれば、第2パラメータに基づいて、要素の機能の高さを高い精度にて推定できる。このように、画像処理装置1によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。 The second parameter has a strong correlation with a predetermined function of an element constituting the object. For example, when the object is the lung, the second parameter and the function of the element to perform ventilation have a strong correlation. Therefore, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy based on the second parameter. Thus, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy while suppressing the processing load.
更に、第1実施形態の画像処理装置1は、上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対する、上記第1パラメータの変化を表す一次関数により表される直線の傾きを上記第2パラメータとして取得する。 Furthermore, the image processing apparatus 1 according to the first embodiment responds to the difference between the volume of the object in the first image that constitutes the image set and the volume of the object in the second image that constitutes the image set. Then, the slope of a straight line represented by a linear function representing the change of the first parameter is acquired as the second parameter.
上記直線の傾きと、対象物を構成する要素が有する機能と、は強い相関を有する。従って、画像処理装置1によれば、直線の傾きに基づいて、要素の機能の高さを高い精度にて推定できる。このように、画像処理装置1によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。 There is a strong correlation between the slope of the straight line and the function of the elements constituting the object. Therefore, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy based on the inclination of the straight line. Thus, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy while suppressing the processing load.
更に、第1実施形態の画像処理装置1は、上記対象物を構成する複数の異なる要素のそれぞれに対して上記第1画像要素及び上記第2画像要素の特定を行なう。更に、画像処理装置1は、上記複数の要素のそれぞれに対して上記第1パラメータの取得を行なう。加えて、画像処理装置1は、上記複数の要素のそれぞれに対して上記第2パラメータの取得を行なう。 Furthermore, the image processing apparatus 1 according to the first embodiment specifies the first image element and the second image element for each of a plurality of different elements constituting the object. Further, the image processing apparatus 1 acquires the first parameter for each of the plurality of elements. In addition, the image processing apparatus 1 acquires the second parameter for each of the plurality of elements.
これによれば、対象物を構成する複数の要素のそれぞれが有する機能の高さを高い精度にて推定できる。これにより、対象物のうちの、要素の機能が他の領域よりも高い領域を特定できる。従って、例えば、対象物が肺である場合、肺のうちの、換気を行なう機能が他の領域よりも高い領域を特定できる。この結果、例えば、肺に放射線を照射する場合において、特定された領域に照射される放射線の量を抑制できるので、肺が換気を行なう機能が低下することを抑制できる。 According to this, the height of the function which each of the some element which comprises a target object has can be estimated with high precision. Thereby, the area | region where the function of an element is higher than another area | region can be specified among objects. Therefore, for example, when the object is a lung, it is possible to specify a region of the lung that has a higher function of ventilation than other regions. As a result, for example, in the case of irradiating the lung with radiation, the amount of radiation irradiated to the specified region can be suppressed, so that the ability of the lung to ventilate can be suppressed from decreasing.
図6において、「比較例」は、比較例の画像処理装置により取得された第1パラメータと、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと、の間の相関係数を表す。核医学検査は、放射性同位元素(RI;Radioisotope)検査と表されてもよい。 In FIG. 6, “Comparative example” is a correlation between the first parameter acquired by the image processing apparatus of the comparative example and the parameter representing the height of the function of ventilation measured by the nuclear medicine examination. Represents a number. A nuclear medicine test may be referred to as a radioisotope (RI) test.
比較例の画像処理装置は、呼吸運動において肺容積が最小となる時点にて撮影された三次元画像を基準画像として選択するとともに、呼吸運動において肺容積が最大となる時点にて撮影された三次元画像を比較画像として選択する。 The image processing apparatus of the comparative example selects a three-dimensional image taken at the time when the lung volume becomes the smallest in the respiratory motion as a reference image, and the tertiary taken at the time when the lung volume becomes the largest in the respiratory motion. The original image is selected as a comparison image.
更に、比較例の画像処理装置は、基準画像において、対象物を構成するP個の異なる要素(換言すると、基準画像要素)のそれぞれを特定し、特定されたP個の基準画像要素のそれぞれに対応する要素である比較画像要素を、選択された比較画像において特定する。これにより、比較例の画像処理装置は、特定されたP個の基準画像要素のそれぞれの位置から、当該基準画像要素に対応する比較画像要素の位置への変位ベクトルを、選択された比較画像に対して取得する。 Furthermore, the image processing apparatus of the comparative example identifies each of P different elements (in other words, reference image elements) constituting the object in the reference image, and assigns each of the specified P reference image elements to each of the specified P image elements. A comparison image element which is a corresponding element is identified in the selected comparison image. Thereby, the image processing apparatus of the comparative example converts the displacement vector from the position of each of the specified P reference image elements to the position of the comparison image element corresponding to the reference image element to the selected comparison image. Get against.
比較例の画像処理装置は、選択された比較画像に対して、基準画像要素毎に、数式1と、取得された変位ベクトルと、に基づいて、第1パラメータVHU(x)を取得する。 The image processing apparatus of the comparative example acquires the first parameter V HU (x) for the selected comparison image based on Expression 1 and the acquired displacement vector for each reference image element.
図6において、「9位相」は、第1実施形態の画像処理装置1により取得された第2パラメータと、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと、の間の相関係数を表す。
また、図6において、「5位相」は、第1実施形態の画像処理装置1において、5組の画像組のみが選択された場合に画像処理装置1により取得された第2パラメータと、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと、の間の相関係数を表す。
In FIG. 6, “9 phase” is the interval between the second parameter acquired by the image processing apparatus 1 of the first embodiment and the parameter representing the height of the ventilation function measured by the nuclear medicine examination. Represents the correlation coefficient.
Further, in FIG. 6, “5 phase” indicates the second parameter acquired by the image processing apparatus 1 when only five image sets are selected in the image processing apparatus 1 of the first embodiment, and nuclear medicine. The correlation coefficient between the parameter showing the height of the function which performs ventilation measured by the test | inspection is represented.
このように、第1実施形態の画像処理装置1により取得された第2パラメータは、比較例の画像処理装置により取得された第1パラメータよりも、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと強い相関を有する。
従って、画像処理装置1によれば、第2パラメータに基づいて、要素の機能の高さを高い精度にて推定できる。このように、画像処理装置1によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。
As described above, the second parameter acquired by the image processing apparatus 1 according to the first embodiment is a function of performing ventilation, which is measured by the nuclear medicine examination, rather than the first parameter acquired by the image processing apparatus according to the comparative example. It has a strong correlation with the parameter representing the height of
Therefore, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy based on the second parameter. Thus, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy while suppressing the processing load.
なお、本発明は、上述した実施形態に限定されない。例えば、上述した実施形態に、本発明の趣旨を逸脱しない範囲内において当業者が理解し得る様々な変更が加えられてよい。例えば、本発明の趣旨を逸脱しない範囲内において、上述した実施形態の他の変形例として、上述した実施形態及び変形例の任意の組み合わせが採用されてもよい。 In addition, this invention is not limited to embodiment mentioned above. For example, various modifications that can be understood by those skilled in the art may be added to the above-described embodiments without departing from the spirit of the present invention. For example, any combination of the above-described embodiment and modification may be adopted as another modification of the above-described embodiment without departing from the spirit of the present invention.
1 画像処理装置
11 処理装置
12 記憶装置
13 入力装置
14 出力装置
15 通信装置
101 画像取得部
102 要素特定部
103 第1パラメータ取得部
104 第2パラメータ取得部
105 出力部
BU バス
DESCRIPTION OF SYMBOLS 1
Claims (9)
前記画像組を構成する第1画像において前記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において前記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、前記少なくとも2つの画像組のそれぞれに対して取得する第1パラメータ取得部と、
前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対して、前記第1パラメータが変化する割合を表す第2パラメータを取得する第2パラメータ取得部と、
を備える、画像処理装置。 Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, An element specifying unit for specifying an element constituting the object in each of the first image and the second image constituting the at least two image sets;
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter obtaining unit that obtains a first parameter representing a rate of change for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. A second parameter acquisition unit for acquiring a second parameter;
An image processing apparatus comprising:
前記第2パラメータ取得部は、前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対する、前記第1パラメータの変化を表す一次関数により表される直線の傾きを前記第2パラメータとして取得する、画像処理装置。 The image processing apparatus according to claim 1,
The second parameter acquisition unit is configured to determine the first parameter with respect to a difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. An image processing apparatus that acquires, as the second parameter, the slope of a straight line represented by a linear function that represents a change in.
前記三次元画像は、位置毎のCT(Computed Tomography)値を表すCT画像であり、
前記第1パラメータ取得部は、数式1に基づいて前記第1パラメータVHU(x)を取得し、前記数式1において、xは、前記第1画像要素の位置を表し、u(x)は、前記第1画像要素の位置から、前記第2画像要素の位置への変位ベクトルを表し、HU1は、前記第1画像要素のCT値を表し、HU2は、前記第2画像要素のCT値を表す、画像処理装置。
The three-dimensional image is a CT image representing a CT (Computed Tomography) value for each position,
The first parameter acquisition unit acquires the first parameter V HU (x) based on Equation 1, where x represents the position of the first image element, and u (x) is The displacement vector from the position of the first image element to the position of the second image element is represented, HU 1 represents the CT value of the first image element, and HU 2 represents the CT value of the second image element. An image processing apparatus representing
前記第1パラメータ取得部は、数式2に基づいて前記第1パラメータVjac(x)を取得し、前記数式2において、xは、前記第1画像要素の位置を表し、u(x)は、前記第1画像要素の位置から、前記第2画像要素の位置への変位ベクトルを表す、画像処理装置。
The first parameter acquisition unit acquires the first parameter V jac (x) based on Formula 2, where x represents the position of the first image element, and u (x) is An image processing apparatus representing a displacement vector from a position of the first image element to a position of the second image element.
前記要素特定部は、前記対象物を構成する複数の異なる要素のそれぞれに対して前記第1画像要素及び前記第2画像要素の特定を行ない、
前記第1パラメータ取得部は、前記複数の要素のそれぞれに対して前記第1パラメータの取得を行ない、
前記第2パラメータ取得部は、前記複数の要素のそれぞれに対して前記第2パラメータの取得を行なう、画像処理装置。 An image processing apparatus according to any one of claims 1 to 4,
The element specifying unit specifies the first image element and the second image element for each of a plurality of different elements constituting the object,
The first parameter acquisition unit acquires the first parameter for each of the plurality of elements,
The image processing apparatus, wherein the second parameter acquisition unit acquires the second parameter for each of the plurality of elements.
前記対象物のうちの、当該対象物を構成する要素が有する所定の機能が他の領域よりも高い領域を、前記取得された第2パラメータに基づいて特定し、前記特定された領域を表す情報を出力する出力部を備える、画像処理装置。 The image processing apparatus according to claim 5,
The information which specifies the area | region where the predetermined function which the element which comprises the target object has among the objects is higher than another area based on the acquired 2nd parameter, and represents the specified area An image processing apparatus comprising an output unit for outputting
前記出力部は、前記対象物のうちの、前記取得された第2パラメータが所定の閾値以上である領域を、前記対象物のうちの、前記機能が他の領域よりも高い領域として特定する、画像処理装置。 The image processing apparatus according to claim 6,
The output unit identifies an area of the object in which the acquired second parameter is equal to or greater than a predetermined threshold as an area of the object in which the function is higher than other areas. Image processing device.
前記画像組を構成する第1画像において前記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において前記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、前記少なくとも2つの画像組のそれぞれに対して取得し、
前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対して、前記第1パラメータが変化する割合を表す第2パラメータを取得する、画像処理方法。 Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two sets of images,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set Obtaining a first parameter representing a rate at which for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. An image processing method for acquiring a second parameter.
前記画像組を構成する第1画像において前記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において前記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、前記少なくとも2つの画像組のそれぞれに対して取得し、
前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対して、前記第1パラメータが変化する割合を表す第2パラメータを取得する、処理をコンピュータに実行させるための画像処理プログラム。 Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two sets of images,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set Obtaining a first parameter representing a rate at which for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. An image processing program for causing a computer to execute processing for acquiring a second parameter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016214226A JP2018068814A (en) | 2016-11-01 | 2016-11-01 | Image processing device, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016214226A JP2018068814A (en) | 2016-11-01 | 2016-11-01 | Image processing device, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018068814A true JP2018068814A (en) | 2018-05-10 |
Family
ID=62112321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016214226A Pending JP2018068814A (en) | 2016-11-01 | 2016-11-01 | Image processing device, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018068814A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007111207A1 (en) * | 2006-03-16 | 2007-10-04 | Osaka University | Three-dimensional spirogram measuring method and computer program |
JP2013530768A (en) * | 2010-07-09 | 2013-08-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Automatic point-by-point verification of respiratory motion estimation |
JP2013192912A (en) * | 2012-03-23 | 2013-09-30 | Fujifilm Corp | Image analysis device and method, and program |
JP2015521880A (en) * | 2012-06-27 | 2015-08-03 | コーニンクレッカ フィリップス エヌ ヴェ | Motion parameter estimation |
JP2015226852A (en) * | 2008-01-15 | 2015-12-17 | コニカミノルタ株式会社 | Kinetics image analysis device |
-
2016
- 2016-11-01 JP JP2016214226A patent/JP2018068814A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007111207A1 (en) * | 2006-03-16 | 2007-10-04 | Osaka University | Three-dimensional spirogram measuring method and computer program |
JP2015226852A (en) * | 2008-01-15 | 2015-12-17 | コニカミノルタ株式会社 | Kinetics image analysis device |
JP2013530768A (en) * | 2010-07-09 | 2013-08-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Automatic point-by-point verification of respiratory motion estimation |
JP2013192912A (en) * | 2012-03-23 | 2013-09-30 | Fujifilm Corp | Image analysis device and method, and program |
JP2015521880A (en) * | 2012-06-27 | 2015-08-03 | コーニンクレッカ フィリップス エヌ ヴェ | Motion parameter estimation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102560911B1 (en) | Image processing apparatus, image processing method, and storage medium | |
US9536316B2 (en) | Apparatus and method for lesion segmentation and detection in medical images | |
US9495725B2 (en) | Method and apparatus for medical image registration | |
US10213179B2 (en) | Tomography apparatus and method of reconstructing tomography image | |
US20110262015A1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN112770838B (en) | System and method for image enhancement using self-focused deep learning | |
JP2018505705A (en) | System and method for transforming medical imaging using machine learning | |
US20150289848A1 (en) | Method and apparatus for registration of medical images | |
US10867423B2 (en) | Deformation field calculation apparatus, method, and computer readable storage medium | |
CN105074775A (en) | Registration of medical images | |
US10032295B2 (en) | Tomography apparatus and method of processing tomography image | |
KR20100133950A (en) | Dose reduction and image enhancement in tomography through the utilization of the object's surroundings as dynamic constraints | |
JP2013514854A (en) | Bone suppression in X-ray radiographs | |
CN108553121B (en) | PET delay scanning method and device | |
US10013778B2 (en) | Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus | |
CN106462987B (en) | The improvement image reconstruction for volume based on data for projection collection | |
CN111540025A (en) | Predicting images for image processing | |
JP2013146541A (en) | Image processing device, image processing method, and image processing program | |
KR101885562B1 (en) | Method for mapping region of interest in first medical image onto second medical image and apparatus using the same | |
CN116157826A (en) | Depth unsupervised image quality enhancement | |
KR20200086919A (en) | Tomographic imaging apparatus and method for tomographic imaging | |
JPWO2020175445A1 (en) | Learning methods, learning devices, generative models and programs | |
WO2023061000A1 (en) | Generation method for ultrasonic mammary gland three-dimensional panoramic image and ultrasonic device | |
JP2018068814A (en) | Image processing device, image processing method and image processing program | |
JP7321271B2 (en) | LEARNING IMAGE GENERATION DEVICE, METHOD AND PROGRAM, AND LEARNING METHOD, DEVICE AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20161121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211130 |