JP2018068814A - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP2018068814A
JP2018068814A JP2016214226A JP2016214226A JP2018068814A JP 2018068814 A JP2018068814 A JP 2018068814A JP 2016214226 A JP2016214226 A JP 2016214226A JP 2016214226 A JP2016214226 A JP 2016214226A JP 2018068814 A JP2018068814 A JP 2018068814A
Authority
JP
Japan
Prior art keywords
image
parameter
volume
processing apparatus
constituting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016214226A
Other languages
Japanese (ja)
Inventor
倫之 角谷
Noriyuki KADOYA
倫之 角谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Priority to JP2016214226A priority Critical patent/JP2018068814A/en
Publication of JP2018068814A publication Critical patent/JP2018068814A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device which can estimate the level of the function of elements constituting an object with high accuracy while suppressing a load of processing.SOLUTION: An image processing device 1 includes: an element identification unit 102 which selects at least two sets of image sets formed of the first image and second image from a plurality of three-dimensional images obtained by photographing an object, and identifies elements constituting the object in each of the first image and second image; a first parameter acquisition unit 103 which acquires the first parameter expressing the ratio of change in the volume of the second image element identified in the second image with respect to the volume of the first image element identified in the first image for each image set; and a second parameter acquisition unit 104 which acquires the second parameter expressing the ratio of change of the first parameter with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、及び、画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

対象物としての肺が撮影された三次元画像を処理する画像処理装置が知られている(例えば、特許文献1)。画像処理装置は、複数の異なる時点にてそれぞれ取得された複数の三次元画像に基づいて、肺を構成する要素毎の変位ベクトルに関するヤコビアンの時間に対する変化を表す所定の近似関数を特定する関数特定パラメータを取得する。近似関数は、余弦関数のべき乗を含む。   An image processing apparatus that processes a three-dimensional image in which a lung as an object is photographed is known (for example, Patent Document 1). The image processing apparatus specifies a predetermined approximate function that represents a change in Jacobian with respect to time of a displacement vector for each element constituting the lung, based on a plurality of three-dimensional images respectively acquired at a plurality of different time points. Get parameters. The approximate function includes the power of the cosine function.

画像処理装置は、取得された関数特定パラメータに基づいて、各要素の状態を推定する。これにより、例えば、肺のうちの、換気を行なう機能が他の領域よりも高い領域を特定できる。この結果、例えば、肺に放射線を照射する場合において、特定された領域に照射される放射線の量を抑制できるので、肺が換気を行なう機能が低下することを抑制できる。   The image processing apparatus estimates the state of each element based on the acquired function specifying parameter. Thereby, the area | region where the function which performs ventilation among lungs is higher than another area | region can be pinpointed, for example. As a result, for example, in the case of irradiating the lung with radiation, the amount of radiation irradiated to the specified region can be suppressed, so that the ability of the lung to ventilate can be suppressed from decreasing.

特表2015−521880号公報Special table 2015-521880 gazette

ところで、例えば、三次元画像がノイズを含む場合、要素に対するヤコビアンと、当該要素の機能の高さと、の相関が弱くなることがある。また、上記画像処理装置が用いる近似関数は、余弦関数のべき乗を含む比較的複雑な関数である。このため、関数特定パラメータを取得する処理の負荷が過大となることがある。   By the way, for example, when a three-dimensional image includes noise, the correlation between the Jacobian for an element and the height of the function of the element may be weak. The approximate function used by the image processing apparatus is a relatively complex function including a power of a cosine function. For this reason, the processing load for acquiring the function specifying parameter may be excessive.

このように、上記画像処理装置においては、処理の負荷を抑制しながら、肺を構成する要素の機能の高さを高い精度にて推定できない虞があった。この種の課題は、対象物が肺と異なる場合にも同様に生じることがある。   As described above, in the image processing apparatus, there is a possibility that the height of the function of the elements constituting the lung cannot be estimated with high accuracy while suppressing the processing load. This type of problem may occur as well when the object is different from the lung.

本発明の目的の一つは、処理の負荷を抑制しながら、対象物を構成する要素の機能の高さを高い精度にて推定することにある。   One of the objects of the present invention is to estimate the height of the function of the elements constituting the object with high accuracy while suppressing the processing load.

一つの側面では、画像処理装置は、
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定する要素特定部と、
上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得する第1パラメータ取得部と、
上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する第2パラメータ取得部と、
を備える。
In one aspect, the image processing apparatus includes:
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, An element specifying unit for specifying an element constituting the object in each of the first image and the second image constituting the at least two image sets;
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter obtaining unit that obtains a first parameter representing a rate at which each of the at least two image sets is changed;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. A second parameter acquisition unit for acquiring a second parameter;
Is provided.

他の一つの側面では、画像処理方法は、
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定し、
上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得し、
上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する。
In another aspect, the image processing method includes:
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter representing a rate at which is changed for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. Obtain the second parameter.

他の一つの側面では、画像処理プログラムは、
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定し、
上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得し、
上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する、処理をコンピュータに実行させる。
In another aspect, the image processing program is
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter representing a rate at which is changed for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. The process for obtaining the second parameter is executed by the computer.

処理の負荷を抑制しながら、対象物を構成する要素の機能の高さを高い精度にて推定できる。   The height of the function of the element which comprises a target object can be estimated with high precision, suppressing the processing load.

第1実施形態の画像処理装置の構成を表す図である。It is a figure showing the structure of the image processing apparatus of 1st Embodiment. 図1の画像処理装置の機能を表すブロック図である。It is a block diagram showing the function of the image processing apparatus of FIG. 肺容積の時間に対する変化を表すグラフである。It is a graph showing the change with respect to time of lung volume. 第1パラメータの肺容積差に対する変化を表すグラフである。It is a graph showing the change with respect to the lung volume difference of the 1st parameter. 図1の画像処理装置が実行する処理を表すフローチャートである。3 is a flowchart illustrating processing executed by the image processing apparatus in FIG. 1. 図1の画像処理装置、又は、比較例の画像処理装置により取得されたパラメータと、核医学検査によって測定されたパラメータと、の間の相関係数を表す表である。It is a table | surface showing the correlation coefficient between the parameter acquired by the image processing apparatus of FIG. 1, or the image processing apparatus of a comparative example, and the parameter measured by the nuclear medicine test | inspection.

以下、本発明の、画像処理装置、画像処理方法、及び、画像処理プログラム、に関する各実施形態について説明する。   Hereinafter, embodiments of the present invention relating to an image processing apparatus, an image processing method, and an image processing program will be described.

<第1実施形態>
(概要)
第1実施形態の画像処理装置は、時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定する。更に、画像処理装置は、上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得する。加えて、画像処理装置は、上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する。
<First Embodiment>
(Overview)
The image processing apparatus according to the first embodiment is configured by a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different time points, with an object whose volume changes over time. At least two image sets to be selected are selected, and elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets. Further, the image processing apparatus uses the element specified in the second image constituting the image set to the volume of the first image element that is the element specified in the first image constituting the image set. A first parameter representing a rate at which a volume of a second image element changes is acquired for each of the at least two image sets. In addition, the image processing apparatus is configured to detect the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. A second parameter representing the rate at which one parameter changes is acquired.

上記第2パラメータと、対象物を構成する要素が有する所定の機能と、は強い相関を有する。例えば、対象物が肺である場合、上記第2パラメータと、要素が換気を行なう機能と、は強い相関を有する。従って、上記構成によれば、第2パラメータに基づいて、要素の機能の高さを高い精度にて推定できる。このように、上記構成によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。
以下、第1実施形態の画像処理装置について、より詳細に説明する。
The second parameter has a strong correlation with a predetermined function of an element constituting the object. For example, when the object is the lung, the second parameter and the function of the element to perform ventilation have a strong correlation. Therefore, according to the said structure, the height of the function of an element can be estimated with high precision based on a 2nd parameter. Thus, according to the said structure, the height of the function of an element can be estimated with high precision, suppressing the processing load.
Hereinafter, the image processing apparatus according to the first embodiment will be described in more detail.

(構成)
図1に表されるように、第1実施形態の画像処理装置1は、バスBUを介して互いに接続された、処理装置11、記憶装置12、入力装置13、出力装置14、及び、通信装置15を備える。本例では、画像処理装置1は、生体内の対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像を処理する。なお、対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像は、四次元画像と表されてもよい。また、生体内の対象物が撮影された三次元画像は、医用三次元画像と表されてもよい。また、画像処理装置1は、医用画像処理装置と表されてもよい。
(Constitution)
As illustrated in FIG. 1, the image processing apparatus 1 according to the first embodiment includes a processing device 11, a storage device 12, an input device 13, an output device 14, and a communication device that are connected to each other via a bus BU. 15. In this example, the image processing apparatus 1 processes a plurality of three-dimensional images obtained by capturing an in-vivo target object at a plurality of different time points. Note that a plurality of three-dimensional images obtained by shooting the object at a plurality of different points in time may be represented as four-dimensional images. In addition, a three-dimensional image obtained by photographing an object in a living body may be represented as a medical three-dimensional image. Further, the image processing apparatus 1 may be represented as a medical image processing apparatus.

本例では、対象物は、肺である。なお、対象物は、肺以外の器官(例えば、心臓、脳、又は、血管等)であってもよい。   In this example, the object is the lung. The object may be an organ other than the lung (for example, heart, brain, blood vessel, or the like).

処理装置11は、記憶装置12に記憶されているプログラムを実行することにより、記憶装置12、入力装置13、及び、出力装置14を制御する。本例では、処理装置11は、CPU(Central Processing Unit)である。なお、処理装置11は、CPUに代えて、又は、CPUに加えて、MPU(Micro Processing Unit)、又は、DSP(Digital Signal Processor)を含んでもよい。また、処理装置11が備えるCPUの数は、2以上であってもよい。   The processing device 11 controls the storage device 12, the input device 13, and the output device 14 by executing a program stored in the storage device 12. In this example, the processing device 11 is a CPU (Central Processing Unit). Note that the processing device 11 may include an MPU (Micro Processing Unit) or a DSP (Digital Signal Processor) instead of or in addition to the CPU. Further, the number of CPUs provided in the processing device 11 may be two or more.

記憶装置12は、プログラムを予め記憶する。記憶装置12は、処理装置11によるプログラムの実行に伴って生成される情報を記憶する。本例では、記憶装置12は、RAM(Random Access Memory)、ROM(Read Only Memory)、半導体メモリ、有機メモリ、HDD(Hard Disk Drive)、及び、SSD(Solid State Drive)の少なくとも1つを含む。   The storage device 12 stores a program in advance. The storage device 12 stores information generated as the processing device 11 executes the program. In this example, the storage device 12 includes at least one of RAM (Random Access Memory), ROM (Read Only Memory), semiconductor memory, organic memory, HDD (Hard Disk Drive), and SSD (Solid State Drive). .

なお、画像処理装置1は、処理装置11及び記憶装置12に代えて、又は、処理装置11及び記憶装置12に加えて、LSI(Large Scale Integration)回路、又は、プログラム可能な論理回路(例えば、PLD、又は、FPGA)等の処理回路を備えてもよい。PLDは、Programmable Logic Deviceの略記である。FPGAは、Field−Programmable Gate Arrayの略記である。   The image processing apparatus 1 may be an LSI (Large Scale Integration) circuit or a programmable logic circuit (for example, a programmable logic circuit (for example, instead of the processing apparatus 11 and the storage apparatus 12). A processing circuit such as PLD or FPGA) may be provided. PLD is an abbreviation for Programmable Logic Device. FPGA is an abbreviation for Field-Programmable Gate Array.

入力装置13は、画像処理装置1の外部から情報を入力する。本例では、入力装置13は、キーボード、及び、マウスを備える。なお、入力装置13は、マイクロフォン、又は、カメラを備えてもよい。   The input device 13 inputs information from outside the image processing device 1. In this example, the input device 13 includes a keyboard and a mouse. Note that the input device 13 may include a microphone or a camera.

出力装置14は、画像処理装置1の外部に情報を出力する。本例では、出力装置14は、ディスプレイを備える。なお、出力装置14は、スピーカを備えてもよい。
なお、画像処理装置1は、入力装置13及び出力装置14の両方を構成するタッチパネル式のディスプレイを備えてもよい。
The output device 14 outputs information to the outside of the image processing device 1. In this example, the output device 14 includes a display. The output device 14 may include a speaker.
Note that the image processing apparatus 1 may include a touch panel display that forms both the input device 13 and the output device 14.

通信装置15は、画像処理装置1の外部の装置と通信する。本例では、通信装置15は、生体内の対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像を生成する画像生成装置に接続されるとともに、当該画像生成装置から複数の三次元画像を受信する。なお、通信装置15は、通信網を介して画像生成装置と接続されていてもよい。また、画像処理装置1は、画像生成装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。   The communication device 15 communicates with a device external to the image processing device 1. In this example, the communication device 15 is connected to an image generation device that generates a plurality of three-dimensional images in which a target in a living body is captured at a plurality of different time points, and a plurality of tertiary images are generated from the image generation device. Receive the original image. Note that the communication device 15 may be connected to the image generation device via a communication network. Further, the image processing apparatus 1 may constitute a part of the image generation apparatus. In this case, the image processing apparatus 1 may not include the communication device 15.

本例では、画像生成装置は、CT(Computed Tomography)装置である。本例では、CT装置は、X線を用いることにより三次元画像を生成する。従って、本例では、三次元画像は、位置毎のCT値を表すCT画像である。本例では、CT値の単位は、Hounsfield Unit(HU)である。CT値は、X線を吸収する程度を表すとともに、水に対する相対値を表す。水に対するCT値は、0である。
なお、CT装置は、超音波を用いることにより三次元画像を生成してもよい。
In this example, the image generation apparatus is a CT (Computed Tomography) apparatus. In this example, the CT apparatus generates a three-dimensional image by using X-rays. Therefore, in this example, the three-dimensional image is a CT image representing the CT value for each position. In this example, the unit of CT value is Hounsfield Unit (HU). The CT value represents the degree of absorption of X-rays and represents a relative value with respect to water. The CT value for water is zero.
Note that the CT apparatus may generate a three-dimensional image by using ultrasonic waves.

なお、画像生成装置は、核磁気共鳴画像法(MRI;Magnetic Resonance Imaging)、ポジトロン断層法(PET;Positron Emission Tomography)、又は、単一光子放射断層撮影(SPECT;Single Photon Emission Computed Tomography)と呼ばれる技術を用いることにより三次元画像を生成してもよい。   Note that the image generation apparatus is referred to as nuclear magnetic resonance imaging (MRI), positron emission tomography (PET), or single photon emission tomography (SPECT). A three-dimensional image may be generated by using a technique.

また、通信装置15は、画像生成装置により生成された複数の三次元画像を保持する情報処理装置と通信網を介して接続されるとともに、当該情報処理装置から複数の三次元画像を受信してもよい。なお、画像処理装置1は、情報処理装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。   The communication device 15 is connected to an information processing device that holds a plurality of three-dimensional images generated by the image generation device via a communication network, and receives a plurality of three-dimensional images from the information processing device. Also good. Note that the image processing apparatus 1 may constitute a part of the information processing apparatus. In this case, the image processing apparatus 1 may not include the communication device 15.

また、画像処理装置1は、複数の三次元画像が記録された記録媒体から複数の三次元画像を読み出すことにより、複数の三次元画像が入力されてもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、又は、半導体メモリである。   The image processing apparatus 1 may input a plurality of three-dimensional images by reading the plurality of three-dimensional images from a recording medium on which the plurality of three-dimensional images are recorded. In this case, the image processing apparatus 1 may not include the communication device 15. For example, the recording medium is a flexible disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

また、通信装置15は、放射線を生体に照射する放射線照射装置に接続されるとともに、当該放射線照射装置による放射線の照射を制御するための制御情報を、当該放射線照射装置に送信してもよい。なお、通信装置15は、通信網を介して放射線照射装置と接続されていてもよい。また、画像処理装置1は、放射線照射装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。   The communication device 15 may be connected to a radiation irradiation device that irradiates a living body with radiation, and may transmit control information for controlling radiation irradiation by the radiation irradiation device to the radiation irradiation device. The communication device 15 may be connected to the radiation irradiation device via a communication network. Further, the image processing apparatus 1 may constitute a part of the radiation irradiation apparatus. In this case, the image processing apparatus 1 may not include the communication device 15.

また、通信装置15は、放射線照射装置による放射線の照射を制御するための制御情報を保持するための情報処理装置と通信網を介して接続されるとともに、当該情報処理装置へ制御情報を送信してもよい。なお、画像処理装置1は、情報処理装置の一部を構成してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。   The communication device 15 is connected to an information processing device for holding control information for controlling radiation irradiation by the radiation irradiation device via a communication network, and transmits control information to the information processing device. May be. Note that the image processing apparatus 1 may constitute a part of the information processing apparatus. In this case, the image processing apparatus 1 may not include the communication device 15.

また、画像処理装置1は、放射線照射装置による放射線の照射を制御するための制御情報を記録媒体に書き込むことにより、当該制御情報を出力してもよい。この場合、画像処理装置1は、通信装置15を備えなくてもよい。   Further, the image processing apparatus 1 may output the control information by writing control information for controlling the irradiation of radiation by the radiation irradiating apparatus on the recording medium. In this case, the image processing apparatus 1 may not include the communication device 15.

(機能)
図2に表されるように、画像処理装置1の機能は、画像取得部101と、要素特定部102と、第1パラメータ取得部103と、第2パラメータ取得部104と、出力部105と、を含む。
(function)
As illustrated in FIG. 2, the functions of the image processing apparatus 1 include an image acquisition unit 101, an element specifying unit 102, a first parameter acquisition unit 103, a second parameter acquisition unit 104, an output unit 105, including.

画像取得部101は、処理装置11、記憶装置12及び通信装置15により実現される。
画像取得部101は、画像生成装置から、対象物がN個の異なる時点にてそれぞれ撮影されたN個の三次元画像を受信することにより、当該N個の三次元画像を取得する。上述したように、本例では、対象物は、肺である。従って、対象物は、時間の経過に伴って体積が変化する。なお、肺の体積は、肺容積と表されてよい。Nは、2以上の整数を表し、本例では、10を表す。
The image acquisition unit 101 is realized by the processing device 11, the storage device 12, and the communication device 15.
The image acquisition unit 101 acquires N pieces of three-dimensional images by receiving N pieces of three-dimensional images taken at N different time points from the image generation apparatus. As described above, in this example, the object is the lung. Therefore, the volume of the object changes with time. Note that the lung volume may be expressed as a lung volume. N represents an integer of 2 or more, and represents 10 in this example.

本例では、上記N個の時点の呼吸位相は、等しい間隔を有する。各時点の呼吸位相は、1回の呼吸運動における当該時点までの、所定の基準時点からの時間の、当該呼吸運動の周期である呼吸周期に対する割合を表す。本例では、基準時点は、当該呼吸運動において肺容積が最大となる時点である。なお、基準時点は、当該呼吸運動において肺容積が最小となる時点であってもよい。   In this example, the respiratory phases at the N time points have equal intervals. The respiratory phase at each time point represents the ratio of the time from a predetermined reference time point to the respiratory cycle, which is the cycle of the respiratory motion, up to that time point in one respiratory motion. In this example, the reference time point is a time point at which the lung volume becomes maximum in the respiratory motion. Note that the reference time point may be a time point at which the lung volume is minimized in the respiratory motion.

本例では、呼吸位相の間隔は、(100/N)%である。従って、本例では、図3に表されるように、上記N個の時点の呼吸位相は、それぞれ、0%、10%、…、及び、90%である。図3において、Tmは、呼吸位相がm%である時点を表す。   In this example, the breathing phase interval is (100 / N)%. Therefore, in this example, as shown in FIG. 3, the respiratory phases at the N time points are 0%, 10%,..., And 90%, respectively. In FIG. 3, Tm represents a point in time when the respiratory phase is m%.

なお、画像取得部101は、M(Mは、Nよりも大きい整数を表す。)個の異なる時点にてそれぞれ撮影されたM個の三次元画像に基づいて、N個の時点にてそれぞれ撮影されたN個の三次元画像を生成又は推定することにより、当該N個の三次元画像を取得してもよい。   The image acquisition unit 101 captures images at N time points based on M three-dimensional images captured at M different time points (M represents an integer larger than N). The N three-dimensional images may be obtained by generating or estimating the generated N three-dimensional images.

要素特定部102は、処理装置11及び記憶装置12により実現される。
要素特定部102は、画像取得部101により取得されたN個の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択する。
The element specifying unit 102 is realized by the processing device 11 and the storage device 12.
The element specifying unit 102 selects at least two image sets composed of the first image and the second image from the N three-dimensional images acquired by the image acquisition unit 101.

本例では、要素特定部102は、画像取得部101により取得されたN個の三次元画像から、N−1組の画像組を選択する。本例では、要素特定部102は、画像取得部101により取得されたN個の三次元画像のうちの、1つの三次元画像を、N−1組の画像組に共通する第1画像として選択する。本例では、第1画像は、基準画像と表されてもよい。   In this example, the element specifying unit 102 selects N-1 sets of images from the N three-dimensional images acquired by the image acquisition unit 101. In this example, the element specifying unit 102 selects one three-dimensional image from among the N three-dimensional images acquired by the image acquisition unit 101 as the first image common to the N-1 image sets. To do. In this example, the first image may be represented as a reference image.

本例では、基準画像は、呼吸運動において肺容積が略最小となる時点にて撮影された三次元画像である。例えば、要素特定部102は、呼吸位相が50%である時点T50にて撮影された三次元画像を基準画像として選択する。なお、要素特定部102は、呼吸位相が40%である時点T40にて撮影された三次元画像、又は、呼吸位相が60%である時点T60にて撮影された三次元画像を基準画像として選択してもよい。また、基準画像は、呼吸運動において肺容積が略最小となる時点と異なる時点(例えば、肺容積が略最大となる時点等)にて撮影された三次元画像であってもよい。   In this example, the reference image is a three-dimensional image taken at the time when the lung volume becomes substantially minimum in the respiratory motion. For example, the element specifying unit 102 selects a three-dimensional image captured at time T50 when the respiratory phase is 50% as the reference image. The element specifying unit 102 selects, as a reference image, a 3D image taken at time T40 when the respiratory phase is 40% or a 3D image taken at time T60 when the respiratory phase is 60%. May be. Further, the reference image may be a three-dimensional image taken at a time different from the time when the lung volume becomes substantially minimum in the respiratory motion (for example, time when the lung volume becomes substantially maximum).

更に、本例では、要素特定部102は、画像取得部101により取得されたN個の三次元画像のうちの、基準画像として選択された三次元画像以外のN−1個の三次元画像を、N−1組の画像組を構成するN−1個の第2画像としてそれぞれ選択する。本例では、第2画像は、比較画像と表されてもよい。このように、各画像組を構成する第1画像及び第2画像は、互いに異なる時点にて撮影された2つの三次元画像である。   Furthermore, in this example, the element specifying unit 102 selects N−1 three-dimensional images other than the three-dimensional image selected as the reference image from among the N three-dimensional images acquired by the image acquisition unit 101. , N-1 second images constituting the N-1 image sets are selected respectively. In this example, the second image may be represented as a comparative image. As described above, the first image and the second image constituting each image set are two three-dimensional images taken at different time points.

なお、要素特定部102により選択される画像組の数は、2以上であり、且つ、N−1よりも小さくてもよい。また、要素特定部102により選択される画像組の数は、N以上であってもよい。
また、要素特定部102は、2組の画像組の間で異なる三次元画像を第1画像として選択してもよい。例えば、要素特定部102は、画像組毎に異なる三次元画像を第1画像として選択してもよい。
Note that the number of image sets selected by the element specifying unit 102 may be two or more and smaller than N-1. Further, the number of image sets selected by the element specifying unit 102 may be N or more.
In addition, the element specifying unit 102 may select a three-dimensional image that differs between the two image sets as the first image. For example, the element specifying unit 102 may select a different three-dimensional image for each image set as the first image.

要素特定部102は、選択された基準画像において、対象物を構成するP個の異なる要素のそれぞれを特定する。Pは、2以上の整数を表す。基準画像における各要素は、基準画像要素と表されてもよい。本例では、各基準画像要素は、基準画像において、互いに直交する、X軸、Y軸及びZ軸の各方向において所定の長さを有する直方体である。各基準画像要素は、ボクセルと表されてもよい。本例では、基準画像要素は、第1画像要素と表されてもよい。   The element specifying unit 102 specifies each of P different elements constituting the object in the selected reference image. P represents an integer of 2 or more. Each element in the reference image may be represented as a reference image element. In this example, each reference image element is a rectangular parallelepiped having a predetermined length in each direction of the X axis, the Y axis, and the Z axis, which are orthogonal to each other in the reference image. Each reference image element may be represented as a voxel. In this example, the reference image element may be expressed as a first image element.

要素特定部102は、各基準画像要素に対応する要素である比較画像要素を、選択された比較画像のそれぞれにおいて特定する。本例では、要素特定部102は、非剛体位置合わせ(DIR;Deformable Image Registration)と呼ばれる技術を用いることにより、各基準画像要素に対応する比較画像要素を、選択された比較画像のそれぞれにおいて特定する。これにより、要素特定部102は、各基準画像要素の位置から、当該基準画像要素に対応する比較画像要素の位置への変位ベクトルを、選択された比較画像のそれぞれに対して取得する。本例では、比較画像要素は、第2画像要素と表されてもよい。   The element specifying unit 102 specifies a comparison image element that is an element corresponding to each reference image element in each of the selected comparison images. In this example, the element specifying unit 102 specifies a comparison image element corresponding to each reference image element in each of the selected comparison images by using a technique called non-rigid registration (DIR; Deformable Image Registration). To do. Thereby, the element specifying unit 102 acquires a displacement vector from the position of each reference image element to the position of the comparison image element corresponding to the reference image element for each of the selected comparison images. In this example, the comparative image element may be represented as a second image element.

第1パラメータ取得部103は、処理装置11及び記憶装置12により実現される。
第1パラメータ取得部103は、各基準画像要素の体積に対して、当該基準画像要素に対応する比較画像要素の体積が変化する割合を表す第1パラメータを、要素特定部102により選択された画像組のそれぞれに対して取得する。
The first parameter acquisition unit 103 is realized by the processing device 11 and the storage device 12.
The first parameter acquisition unit 103 is an image in which the element specifying unit 102 selects a first parameter that represents a rate at which the volume of the comparison image element corresponding to the reference image element changes with respect to the volume of each reference image element. Get for each of the pairs.

本例では、第1パラメータ取得部103は、各画像組に対して、基準画像要素毎に、数式1に基づいて第1パラメータVHU(x)を取得する。換言すると、本例では、第1パラメータ取得部103は、基準画像要素毎に、N−1組の画像組にそれぞれ対応するN−1個の第1パラメータVHU(x)を取得する。

Figure 2018068814
In this example, the first parameter acquisition unit 103 acquires the first parameter V HU (x) for each reference image element based on Equation 1 for each reference image element. In other words, in this example, the first parameter acquisition unit 103 acquires N−1 first parameters V HU (x) corresponding to the N−1 image sets for each reference image element.
Figure 2018068814

数式1において、xは、基準画像要素の位置を表し、u(x)は、基準画像要素の位置から、比較画像要素の位置への変位ベクトルを表し、HUは、基準画像要素のCT値を表し、且つ、HUは、比較画像要素のCT値を表す。uは、変位ベクトル場を表すと捉えられてもよい。 In Equation 1, x represents the position of the reference image element, u (x) represents a displacement vector from the position of the reference image element to the position of the comparison image element, and HU 1 represents the CT value of the reference image element. HU 2 represents the CT value of the comparative image element. u may be taken to represent the displacement vector field.

なお、第1パラメータ取得部103は、数式1に代えて、数式2に基づいて、各画像組に対して基準画像要素毎に第1パラメータVjac(x)を取得してもよい。

Figure 2018068814
The first parameter acquisition unit 103 may acquire the first parameter V jac (x) for each reference image element for each image set based on Expression 2 instead of Expression 1.
Figure 2018068814

第2パラメータ取得部104は、処理装置11及び記憶装置12により実現される。
第2パラメータ取得部104は、要素特定部102により選択された画像組のそれぞれにおいて対象物の体積の差(本例では、肺容積の差)を推定する。肺容積の差は、肺容積差と表されてもよい。
The second parameter acquisition unit 104 is realized by the processing device 11 and the storage device 12.
The second parameter acquisition unit 104 estimates the volume difference of the object (in this example, the lung volume difference) in each of the image sets selected by the element specifying unit 102. The difference in lung volume may be expressed as a lung volume difference.

画像組における対象物の体積の差(換言すると、対象物体積差)は、当該画像組を構成する第1画像(本例では、基準画像)における対象物の体積と、当該画像組を構成する第2画像(本例では、比較画像)における対象物の体積と、の差である。本例では、対象物体積差は、当該画像組を構成する第2画像における対象物の体積から、当該画像組を構成する第1画像における対象物の体積を減じた値である。   The difference in the volume of the object in the image set (in other words, the object volume difference) forms the image set with the volume of the object in the first image (in this example, the reference image) constituting the image set. It is the difference between the volume of the object in the second image (comparative image in this example). In this example, the object volume difference is a value obtained by subtracting the volume of the object in the first image constituting the image set from the volume of the object in the second image constituting the image set.

第2パラメータ取得部104は、基準画像要素毎に、推定された対象物体積差に対して、第1パラメータ取得部103により取得された第1パラメータが変化する割合を表す第2パラメータを取得する。本例では、第2パラメータ取得部104は、基準画像要素毎に、推定された対象物体積差に対する、第1パラメータの変化を表す一次関数により表される直線の傾きを第2パラメータとして取得する。   The second parameter acquisition unit 104 acquires, for each reference image element, a second parameter that represents a rate at which the first parameter acquired by the first parameter acquisition unit 103 changes with respect to the estimated object volume difference. . In this example, the second parameter acquisition unit 104 acquires, for each reference image element, the slope of a straight line represented by a linear function representing the change in the first parameter with respect to the estimated object volume difference as the second parameter. .

本例では、対象物体積差に対する、第1パラメータの変化を表す一次関数により表される直線の傾きは、対象物体積差に対して第1パラメータが変化する割合を表す。
本例では、第2パラメータ取得部104は、推定された対象物体積差に対する、第1パラメータの変化を表す一次関数を、最小二乗法を用いることにより推定する。
In this example, the slope of a straight line represented by a linear function that represents a change in the first parameter with respect to the object volume difference represents a rate at which the first parameter changes with respect to the object volume difference.
In this example, the second parameter acquisition unit 104 estimates a linear function representing a change in the first parameter with respect to the estimated object volume difference by using the least square method.

例えば、図4に表されるように、第2パラメータ取得部104は、上記一次関数を推定する。図4において、円M1は、第1の基準画像要素に対して取得された、N−1個の第1パラメータを表し、直線L1は、第1の基準画像要素に対して第2パラメータ取得部104によって推定された一次関数を表す。同様に、四角M2は、第2の基準画像要素に対して取得された、N−1個の第1パラメータを表し、直線L2は、第2の基準画像要素に対して第2パラメータ取得部104によって推定された一次関数を表す。   For example, as shown in FIG. 4, the second parameter acquisition unit 104 estimates the linear function. In FIG. 4, a circle M <b> 1 represents N−1 first parameters acquired for the first reference image element, and a straight line L <b> 1 is a second parameter acquisition unit for the first reference image element. A linear function estimated by 104 is represented. Similarly, a square M2 represents N−1 first parameters acquired for the second reference image element, and a straight line L2 indicates the second parameter acquisition unit 104 for the second reference image element. Represents a linear function estimated by.

なお、本例のように、第1画像として、1つの三次元画像のみが選択される場合、第2パラメータ取得部104は、対象物体積差に代えて、第2画像(本例では、比較画像)における対象物の体積を用いて第2パラメータを取得してもよい。   When only one three-dimensional image is selected as the first image as in this example, the second parameter acquisition unit 104 replaces the object volume difference with the second image (in this example, the comparison You may acquire a 2nd parameter using the volume of the target object in an image.

出力部105は、処理装置11、記憶装置12及び出力装置14により実現される。
出力部105は、対象物のうちの、当該対象物を構成する要素が有する所定の機能が他の領域よりも高い領域(換言すると、高機能領域)を、第2パラメータ取得部104により取得された第2パラメータに基づいて特定する。
The output unit 105 is realized by the processing device 11, the storage device 12, and the output device 14.
In the output unit 105, a region (in other words, a high-function region) in which a predetermined function of an element constituting the target object is higher than other regions is acquired by the second parameter acquisition unit 104. Based on the second parameter.

上述したように、本例では、対象物は、肺である。本例では、所定の機能は、換気を行なう機能である。なお、肺以外の器官である場合、所定の機能は、換気を行なう機能と異なる機能であってよい。
出力部105は、特定された高機能領域を表す情報を出力装置14を介して出力する。
As described above, in this example, the object is the lung. In this example, the predetermined function is a function of performing ventilation. In the case of an organ other than the lung, the predetermined function may be a function different from the function of performing ventilation.
The output unit 105 outputs information representing the specified high-functional area via the output device 14.

本例では、出力部105は、対象物のうちの、第2パラメータ取得部104により取得された第2パラメータが所定の閾値以上である領域を高機能領域として特定する。   In this example, the output unit 105 identifies an area of the target object in which the second parameter acquired by the second parameter acquisition unit 104 is greater than or equal to a predetermined threshold as a high-function area.

なお、出力部105は、高機能領域を表す情報の出力に代えて、又は、高機能領域を表す情報の出力に加えて、基準画像要素毎の第2パラメータを出力装置14を介して出力してもよい。   The output unit 105 outputs the second parameter for each reference image element via the output device 14 instead of outputting the information representing the high-function area or in addition to outputting the information representing the high-function area. May be.

(動作)
次に、画像処理装置1の動作について説明する。
図5に表されるように、画像処理装置1は、画像生成装置から、対象物がN個の異なる時点にてそれぞれ撮影されたN個の三次元画像を受信することにより、当該N個の三次元画像を取得する(図5のステップS101)。
(Operation)
Next, the operation of the image processing apparatus 1 will be described.
As illustrated in FIG. 5, the image processing apparatus 1 receives N pieces of three-dimensional images, each of which is captured at N different points in time, from the image generation apparatus. A three-dimensional image is acquired (step S101 in FIG. 5).

次いで、画像処理装置1は、ステップS101にて取得されたN個の三次元画像のうちの、呼吸運動において肺容積が略最小となる時点にて撮影された三次元画像を、N−1組の画像組のそれぞれを構成する基準画像として選択する。更に、画像処理装置1は、ステップS101にて取得されたN個の三次元画像のうちの、基準画像として選択された三次元画像以外のN−1個の三次元画像を、N−1組の画像組を構成するN−1個の比較画像としてそれぞれ選択する。これにより、画像処理装置1は、N−1組の画像組を選択する(図5のステップS102)。   Next, the image processing apparatus 1 obtains N-1 sets of 3D images taken at the time when the lung volume becomes substantially minimum in the respiratory motion among the N 3D images acquired in step S101. Are selected as reference images constituting each of the image sets. Furthermore, the image processing apparatus 1 converts N−1 three-dimensional images other than the three-dimensional image selected as the reference image out of the N three-dimensional images acquired in step S101 into N−1 sets. Are selected as N-1 comparison images constituting each image set. As a result, the image processing apparatus 1 selects N-1 image sets (step S102 in FIG. 5).

次いで、画像処理装置1は、ステップS102にて選択された基準画像において、対象物を構成するP個の異なる要素(換言すると、基準画像要素)のそれぞれを特定する(図5のステップS103)。   Next, the image processing apparatus 1 specifies each of P different elements (in other words, reference image elements) constituting the object in the reference image selected in step S102 (step S103 in FIG. 5).

次いで、画像処理装置1は、ステップS103にて特定されたP個の基準画像要素のそれぞれに対応する要素である比較画像要素を、ステップS102にて選択された比較画像のそれぞれにおいて特定する。これにより、画像処理装置1は、ステップS103にて特定されたP個の基準画像要素のそれぞれの位置から、当該基準画像要素に対応する比較画像要素の位置への変位ベクトルを、ステップS102にて選択された画像組のそれぞれに対して取得する(図5のステップS104)。   Next, the image processing apparatus 1 specifies a comparison image element that is an element corresponding to each of the P reference image elements specified in step S103 in each of the comparison images selected in step S102. As a result, the image processing apparatus 1 uses, in step S102, the displacement vector from the position of each of the P reference image elements specified in step S103 to the position of the comparison image element corresponding to the reference image element. Obtained for each of the selected image sets (step S104 in FIG. 5).

次いで、画像処理装置1は、ステップS102にて選択された画像組のそれぞれに対して、基準画像要素毎に、数式1と、ステップS104にて取得された変位ベクトルと、に基づいて、第1パラメータVHU(x)を取得する(図5のステップS105)。 Next, the image processing apparatus 1 performs, based on Equation 1 and the displacement vector acquired in Step S104, for each reference image element for each of the image sets selected in Step S102. The parameter V HU (x) is acquired (step S105 in FIG. 5).

次いで、画像処理装置1は、ステップS102にて選択された画像組のそれぞれにおいて対象物体積差(本例では、肺容積差)を推定する。更に、画像処理装置1は、基準画像要素毎に、推定された対象物体積差に対して、ステップS105にて取得された第1パラメータが変化する割合を表す第2パラメータを取得する(図5のステップS106)。   Next, the image processing apparatus 1 estimates an object volume difference (in this example, a lung volume difference) in each of the image sets selected in step S102. Further, the image processing apparatus 1 acquires, for each reference image element, a second parameter that represents a rate at which the first parameter acquired in step S105 changes with respect to the estimated object volume difference (FIG. 5). Step S106).

次いで、画像処理装置1は、対象物のうちの高機能領域を、ステップS106にて取得された第2パラメータに基づいて特定し、特定された高機能領域を表す情報を出力装置14を介して出力する(図5のステップS107)。
次いで、画像処理装置1は、図5の処理を終了する。
Next, the image processing apparatus 1 specifies the high-function area of the target based on the second parameter acquired in step S106, and sends information representing the specified high-function area via the output device 14. Output (step S107 in FIG. 5).
Next, the image processing apparatus 1 ends the process of FIG.

以上、説明したように、第1実施形態の画像処理装置1は、時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、上記対象物を構成する要素を、上記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定する。更に、画像処理装置1は、上記画像組を構成する第1画像において上記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において上記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、上記少なくとも2つの画像組のそれぞれに対して取得する。加えて、画像処理装置1は、上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対して、上記第1パラメータが変化する割合を表す第2パラメータを取得する。   As described above, the image processing apparatus 1 according to the first embodiment uses the first from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with the volume changing with time. At least two image sets constituted by the image and the second image are selected, and elements constituting the object are specified in each of the first image and the second image constituting the at least two image sets. Further, the image processing apparatus 1 is configured to detect the element specified in the second image constituting the image set with respect to the volume of the first image element that is the specified element in the first image constituting the image set. The first parameter representing the rate at which the volume of the second image element is changed is acquired for each of the at least two image sets. In addition, the image processing apparatus 1 is configured to detect the difference between the volume of the object in the first image that configures the image set and the volume of the object in the second image that configures the image set. A second parameter representing the rate at which the first parameter changes is acquired.

上記第2パラメータと、対象物を構成する要素が有する所定の機能と、は強い相関を有する。例えば、対象物が肺である場合、上記第2パラメータと、要素が換気を行なう機能と、は強い相関を有する。従って、画像処理装置1によれば、第2パラメータに基づいて、要素の機能の高さを高い精度にて推定できる。このように、画像処理装置1によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。   The second parameter has a strong correlation with a predetermined function of an element constituting the object. For example, when the object is the lung, the second parameter and the function of the element to perform ventilation have a strong correlation. Therefore, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy based on the second parameter. Thus, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy while suppressing the processing load.

更に、第1実施形態の画像処理装置1は、上記画像組を構成する第1画像における上記対象物の体積と、当該画像組を構成する第2画像における上記対象物の体積と、の差に対する、上記第1パラメータの変化を表す一次関数により表される直線の傾きを上記第2パラメータとして取得する。   Furthermore, the image processing apparatus 1 according to the first embodiment responds to the difference between the volume of the object in the first image that constitutes the image set and the volume of the object in the second image that constitutes the image set. Then, the slope of a straight line represented by a linear function representing the change of the first parameter is acquired as the second parameter.

上記直線の傾きと、対象物を構成する要素が有する機能と、は強い相関を有する。従って、画像処理装置1によれば、直線の傾きに基づいて、要素の機能の高さを高い精度にて推定できる。このように、画像処理装置1によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。   There is a strong correlation between the slope of the straight line and the function of the elements constituting the object. Therefore, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy based on the inclination of the straight line. Thus, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy while suppressing the processing load.

更に、第1実施形態の画像処理装置1は、上記対象物を構成する複数の異なる要素のそれぞれに対して上記第1画像要素及び上記第2画像要素の特定を行なう。更に、画像処理装置1は、上記複数の要素のそれぞれに対して上記第1パラメータの取得を行なう。加えて、画像処理装置1は、上記複数の要素のそれぞれに対して上記第2パラメータの取得を行なう。   Furthermore, the image processing apparatus 1 according to the first embodiment specifies the first image element and the second image element for each of a plurality of different elements constituting the object. Further, the image processing apparatus 1 acquires the first parameter for each of the plurality of elements. In addition, the image processing apparatus 1 acquires the second parameter for each of the plurality of elements.

これによれば、対象物を構成する複数の要素のそれぞれが有する機能の高さを高い精度にて推定できる。これにより、対象物のうちの、要素の機能が他の領域よりも高い領域を特定できる。従って、例えば、対象物が肺である場合、肺のうちの、換気を行なう機能が他の領域よりも高い領域を特定できる。この結果、例えば、肺に放射線を照射する場合において、特定された領域に照射される放射線の量を抑制できるので、肺が換気を行なう機能が低下することを抑制できる。   According to this, the height of the function which each of the some element which comprises a target object has can be estimated with high precision. Thereby, the area | region where the function of an element is higher than another area | region can be specified among objects. Therefore, for example, when the object is a lung, it is possible to specify a region of the lung that has a higher function of ventilation than other regions. As a result, for example, in the case of irradiating the lung with radiation, the amount of radiation irradiated to the specified region can be suppressed, so that the ability of the lung to ventilate can be suppressed from decreasing.

図6において、「比較例」は、比較例の画像処理装置により取得された第1パラメータと、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと、の間の相関係数を表す。核医学検査は、放射性同位元素(RI;Radioisotope)検査と表されてもよい。   In FIG. 6, “Comparative example” is a correlation between the first parameter acquired by the image processing apparatus of the comparative example and the parameter representing the height of the function of ventilation measured by the nuclear medicine examination. Represents a number. A nuclear medicine test may be referred to as a radioisotope (RI) test.

比較例の画像処理装置は、呼吸運動において肺容積が最小となる時点にて撮影された三次元画像を基準画像として選択するとともに、呼吸運動において肺容積が最大となる時点にて撮影された三次元画像を比較画像として選択する。   The image processing apparatus of the comparative example selects a three-dimensional image taken at the time when the lung volume becomes the smallest in the respiratory motion as a reference image, and the tertiary taken at the time when the lung volume becomes the largest in the respiratory motion. The original image is selected as a comparison image.

更に、比較例の画像処理装置は、基準画像において、対象物を構成するP個の異なる要素(換言すると、基準画像要素)のそれぞれを特定し、特定されたP個の基準画像要素のそれぞれに対応する要素である比較画像要素を、選択された比較画像において特定する。これにより、比較例の画像処理装置は、特定されたP個の基準画像要素のそれぞれの位置から、当該基準画像要素に対応する比較画像要素の位置への変位ベクトルを、選択された比較画像に対して取得する。   Furthermore, the image processing apparatus of the comparative example identifies each of P different elements (in other words, reference image elements) constituting the object in the reference image, and assigns each of the specified P reference image elements to each of the specified P image elements. A comparison image element which is a corresponding element is identified in the selected comparison image. Thereby, the image processing apparatus of the comparative example converts the displacement vector from the position of each of the specified P reference image elements to the position of the comparison image element corresponding to the reference image element to the selected comparison image. Get against.

比較例の画像処理装置は、選択された比較画像に対して、基準画像要素毎に、数式1と、取得された変位ベクトルと、に基づいて、第1パラメータVHU(x)を取得する。 The image processing apparatus of the comparative example acquires the first parameter V HU (x) for the selected comparison image based on Expression 1 and the acquired displacement vector for each reference image element.

図6において、「9位相」は、第1実施形態の画像処理装置1により取得された第2パラメータと、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと、の間の相関係数を表す。
また、図6において、「5位相」は、第1実施形態の画像処理装置1において、5組の画像組のみが選択された場合に画像処理装置1により取得された第2パラメータと、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと、の間の相関係数を表す。
In FIG. 6, “9 phase” is the interval between the second parameter acquired by the image processing apparatus 1 of the first embodiment and the parameter representing the height of the ventilation function measured by the nuclear medicine examination. Represents the correlation coefficient.
Further, in FIG. 6, “5 phase” indicates the second parameter acquired by the image processing apparatus 1 when only five image sets are selected in the image processing apparatus 1 of the first embodiment, and nuclear medicine. The correlation coefficient between the parameter showing the height of the function which performs ventilation measured by the test | inspection is represented.

このように、第1実施形態の画像処理装置1により取得された第2パラメータは、比較例の画像処理装置により取得された第1パラメータよりも、核医学検査によって測定された、換気を行なう機能の高さを表すパラメータと強い相関を有する。
従って、画像処理装置1によれば、第2パラメータに基づいて、要素の機能の高さを高い精度にて推定できる。このように、画像処理装置1によれば、処理の負荷を抑制しながら、要素の機能の高さを高い精度にて推定できる。
As described above, the second parameter acquired by the image processing apparatus 1 according to the first embodiment is a function of performing ventilation, which is measured by the nuclear medicine examination, rather than the first parameter acquired by the image processing apparatus according to the comparative example. It has a strong correlation with the parameter representing the height of
Therefore, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy based on the second parameter. Thus, according to the image processing apparatus 1, the height of the function of the element can be estimated with high accuracy while suppressing the processing load.

なお、本発明は、上述した実施形態に限定されない。例えば、上述した実施形態に、本発明の趣旨を逸脱しない範囲内において当業者が理解し得る様々な変更が加えられてよい。例えば、本発明の趣旨を逸脱しない範囲内において、上述した実施形態の他の変形例として、上述した実施形態及び変形例の任意の組み合わせが採用されてもよい。   In addition, this invention is not limited to embodiment mentioned above. For example, various modifications that can be understood by those skilled in the art may be added to the above-described embodiments without departing from the spirit of the present invention. For example, any combination of the above-described embodiment and modification may be adopted as another modification of the above-described embodiment without departing from the spirit of the present invention.

1 画像処理装置
11 処理装置
12 記憶装置
13 入力装置
14 出力装置
15 通信装置
101 画像取得部
102 要素特定部
103 第1パラメータ取得部
104 第2パラメータ取得部
105 出力部
BU バス

DESCRIPTION OF SYMBOLS 1 Image processing apparatus 11 Processing apparatus 12 Storage apparatus 13 Input apparatus 14 Output apparatus 15 Communication apparatus 101 Image acquisition part 102 Element specific | specification part 103 1st parameter acquisition part 104 2nd parameter acquisition part 105 Output part BU Bus

Claims (9)

時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、前記対象物を構成する要素を、前記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定する要素特定部と、
前記画像組を構成する第1画像において前記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において前記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、前記少なくとも2つの画像組のそれぞれに対して取得する第1パラメータ取得部と、
前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対して、前記第1パラメータが変化する割合を表す第2パラメータを取得する第2パラメータ取得部と、
を備える、画像処理装置。
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, An element specifying unit for specifying an element constituting the object in each of the first image and the second image constituting the at least two image sets;
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set A first parameter obtaining unit that obtains a first parameter representing a rate of change for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. A second parameter acquisition unit for acquiring a second parameter;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記第2パラメータ取得部は、前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対する、前記第1パラメータの変化を表す一次関数により表される直線の傾きを前記第2パラメータとして取得する、画像処理装置。
The image processing apparatus according to claim 1,
The second parameter acquisition unit is configured to determine the first parameter with respect to a difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. An image processing apparatus that acquires, as the second parameter, the slope of a straight line represented by a linear function that represents a change in.
請求項1又は請求項2に記載の画像処理装置であって、
前記三次元画像は、位置毎のCT(Computed Tomography)値を表すCT画像であり、
前記第1パラメータ取得部は、数式1に基づいて前記第1パラメータVHU(x)を取得し、前記数式1において、xは、前記第1画像要素の位置を表し、u(x)は、前記第1画像要素の位置から、前記第2画像要素の位置への変位ベクトルを表し、HUは、前記第1画像要素のCT値を表し、HUは、前記第2画像要素のCT値を表す、画像処理装置。
Figure 2018068814
The image processing apparatus according to claim 1 or 2,
The three-dimensional image is a CT image representing a CT (Computed Tomography) value for each position,
The first parameter acquisition unit acquires the first parameter V HU (x) based on Equation 1, where x represents the position of the first image element, and u (x) is The displacement vector from the position of the first image element to the position of the second image element is represented, HU 1 represents the CT value of the first image element, and HU 2 represents the CT value of the second image element. An image processing apparatus representing
Figure 2018068814
請求項1又は請求項2に記載の画像処理装置であって、
前記第1パラメータ取得部は、数式2に基づいて前記第1パラメータVjac(x)を取得し、前記数式2において、xは、前記第1画像要素の位置を表し、u(x)は、前記第1画像要素の位置から、前記第2画像要素の位置への変位ベクトルを表す、画像処理装置。
Figure 2018068814
The image processing apparatus according to claim 1 or 2,
The first parameter acquisition unit acquires the first parameter V jac (x) based on Formula 2, where x represents the position of the first image element, and u (x) is An image processing apparatus representing a displacement vector from a position of the first image element to a position of the second image element.
Figure 2018068814
請求項1乃至請求項4のいずれか一項に記載の画像処理装置であって、
前記要素特定部は、前記対象物を構成する複数の異なる要素のそれぞれに対して前記第1画像要素及び前記第2画像要素の特定を行ない、
前記第1パラメータ取得部は、前記複数の要素のそれぞれに対して前記第1パラメータの取得を行ない、
前記第2パラメータ取得部は、前記複数の要素のそれぞれに対して前記第2パラメータの取得を行なう、画像処理装置。
An image processing apparatus according to any one of claims 1 to 4,
The element specifying unit specifies the first image element and the second image element for each of a plurality of different elements constituting the object,
The first parameter acquisition unit acquires the first parameter for each of the plurality of elements,
The image processing apparatus, wherein the second parameter acquisition unit acquires the second parameter for each of the plurality of elements.
請求項5に記載の画像処理装置であって、
前記対象物のうちの、当該対象物を構成する要素が有する所定の機能が他の領域よりも高い領域を、前記取得された第2パラメータに基づいて特定し、前記特定された領域を表す情報を出力する出力部を備える、画像処理装置。
The image processing apparatus according to claim 5,
The information which specifies the area | region where the predetermined function which the element which comprises the target object has among the objects is higher than another area based on the acquired 2nd parameter, and represents the specified area An image processing apparatus comprising an output unit for outputting
請求項6に記載の画像処理装置であって、
前記出力部は、前記対象物のうちの、前記取得された第2パラメータが所定の閾値以上である領域を、前記対象物のうちの、前記機能が他の領域よりも高い領域として特定する、画像処理装置。
The image processing apparatus according to claim 6,
The output unit identifies an area of the object in which the acquired second parameter is equal to or greater than a predetermined threshold as an area of the object in which the function is higher than other areas. Image processing device.
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、前記対象物を構成する要素を、前記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定し、
前記画像組を構成する第1画像において前記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において前記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、前記少なくとも2つの画像組のそれぞれに対して取得し、
前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対して、前記第1パラメータが変化する割合を表す第2パラメータを取得する、画像処理方法。
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two sets of images,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set Obtaining a first parameter representing a rate at which for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. An image processing method for acquiring a second parameter.
時間の経過に伴って体積が変化する対象物が複数の異なる時点にてそれぞれ撮影された複数の三次元画像から、第1画像及び第2画像により構成される画像組を少なくとも2組選択し、前記対象物を構成する要素を、前記少なくとも2組の画像組を構成する第1画像及び第2画像のそれぞれにおいて特定し、
前記画像組を構成する第1画像において前記特定された要素である第1画像要素の体積に対して、当該画像組を構成する第2画像において前記特定された要素である第2画像要素の体積が変化する割合を表す第1パラメータを、前記少なくとも2つの画像組のそれぞれに対して取得し、
前記画像組を構成する第1画像における前記対象物の体積と、当該画像組を構成する第2画像における前記対象物の体積と、の差に対して、前記第1パラメータが変化する割合を表す第2パラメータを取得する、処理をコンピュータに実行させるための画像処理プログラム。
Selecting at least two sets of images composed of a first image and a second image from a plurality of three-dimensional images, each of which is taken at a plurality of different points in time, with an object whose volume changes over time, The elements constituting the object are specified in each of the first image and the second image constituting the at least two sets of images,
The volume of the second image element that is the specified element in the second image that constitutes the image set with respect to the volume of the first image element that is the specified element in the first image that constitutes the image set Obtaining a first parameter representing a rate at which for each of the at least two image sets;
Represents the rate at which the first parameter changes with respect to the difference between the volume of the object in the first image constituting the image set and the volume of the object in the second image constituting the image set. An image processing program for causing a computer to execute processing for acquiring a second parameter.
JP2016214226A 2016-11-01 2016-11-01 Image processing device, image processing method and image processing program Pending JP2018068814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016214226A JP2018068814A (en) 2016-11-01 2016-11-01 Image processing device, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016214226A JP2018068814A (en) 2016-11-01 2016-11-01 Image processing device, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2018068814A true JP2018068814A (en) 2018-05-10

Family

ID=62112321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016214226A Pending JP2018068814A (en) 2016-11-01 2016-11-01 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2018068814A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007111207A1 (en) * 2006-03-16 2007-10-04 Osaka University Three-dimensional spirogram measuring method and computer program
JP2013530768A (en) * 2010-07-09 2013-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Automatic point-by-point verification of respiratory motion estimation
JP2013192912A (en) * 2012-03-23 2013-09-30 Fujifilm Corp Image analysis device and method, and program
JP2015521880A (en) * 2012-06-27 2015-08-03 コーニンクレッカ フィリップス エヌ ヴェ Motion parameter estimation
JP2015226852A (en) * 2008-01-15 2015-12-17 コニカミノルタ株式会社 Kinetics image analysis device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007111207A1 (en) * 2006-03-16 2007-10-04 Osaka University Three-dimensional spirogram measuring method and computer program
JP2015226852A (en) * 2008-01-15 2015-12-17 コニカミノルタ株式会社 Kinetics image analysis device
JP2013530768A (en) * 2010-07-09 2013-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Automatic point-by-point verification of respiratory motion estimation
JP2013192912A (en) * 2012-03-23 2013-09-30 Fujifilm Corp Image analysis device and method, and program
JP2015521880A (en) * 2012-06-27 2015-08-03 コーニンクレッカ フィリップス エヌ ヴェ Motion parameter estimation

Similar Documents

Publication Publication Date Title
KR102560911B1 (en) Image processing apparatus, image processing method, and storage medium
US9536316B2 (en) Apparatus and method for lesion segmentation and detection in medical images
US9495725B2 (en) Method and apparatus for medical image registration
US10213179B2 (en) Tomography apparatus and method of reconstructing tomography image
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
CN112770838B (en) System and method for image enhancement using self-focused deep learning
JP2018505705A (en) System and method for transforming medical imaging using machine learning
US20150289848A1 (en) Method and apparatus for registration of medical images
US10867423B2 (en) Deformation field calculation apparatus, method, and computer readable storage medium
CN105074775A (en) Registration of medical images
US10032295B2 (en) Tomography apparatus and method of processing tomography image
KR20100133950A (en) Dose reduction and image enhancement in tomography through the utilization of the object&#39;s surroundings as dynamic constraints
JP2013514854A (en) Bone suppression in X-ray radiographs
CN108553121B (en) PET delay scanning method and device
US10013778B2 (en) Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus
CN106462987B (en) The improvement image reconstruction for volume based on data for projection collection
CN111540025A (en) Predicting images for image processing
JP2013146541A (en) Image processing device, image processing method, and image processing program
KR101885562B1 (en) Method for mapping region of interest in first medical image onto second medical image and apparatus using the same
CN116157826A (en) Depth unsupervised image quality enhancement
KR20200086919A (en) Tomographic imaging apparatus and method for tomographic imaging
JPWO2020175445A1 (en) Learning methods, learning devices, generative models and programs
WO2023061000A1 (en) Generation method for ultrasonic mammary gland three-dimensional panoramic image and ultrasonic device
JP2018068814A (en) Image processing device, image processing method and image processing program
JP7321271B2 (en) LEARNING IMAGE GENERATION DEVICE, METHOD AND PROGRAM, AND LEARNING METHOD, DEVICE AND PROGRAM

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20161121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211130