JP2018089301A - Organism image processing device, output image production method, learning result production method and program - Google Patents

Organism image processing device, output image production method, learning result production method and program Download PDF

Info

Publication number
JP2018089301A
JP2018089301A JP2016237623A JP2016237623A JP2018089301A JP 2018089301 A JP2018089301 A JP 2018089301A JP 2016237623 A JP2016237623 A JP 2016237623A JP 2016237623 A JP2016237623 A JP 2016237623A JP 2018089301 A JP2018089301 A JP 2018089301A
Authority
JP
Japan
Prior art keywords
image
biological
target object
output
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016237623A
Other languages
Japanese (ja)
Other versions
JP6813178B2 (en
Inventor
山本 めぐみ
Megumi Yamamoto
めぐみ 山本
保彦 大倉
Yasuhiko Okura
保彦 大倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Josho Gakuen Educational Foundation
Original Assignee
Josho Gakuen Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Josho Gakuen Educational Foundation filed Critical Josho Gakuen Educational Foundation
Priority to JP2016237623A priority Critical patent/JP6813178B2/en
Publication of JP2018089301A publication Critical patent/JP2018089301A/en
Application granted granted Critical
Publication of JP6813178B2 publication Critical patent/JP6813178B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an organism image processing device for generating an organism image from which a target is removed from an organism image including the target.SOLUTION: An organism image processing device 1 comprises: a reception part 11 for receiving a training image for input which is an organism image including a target, a training image for output which is an organism image including no target, and an input image which is an organism image including the target; a learning part 12 for learning a neural network which performs image processing for generating the organism image including no target from the organism image including the target, using the training image for input and training image for output; and an image processing part 13 for generating an output image obtained by removing the target from the input image using image processing of the neural network which is a learning result, in which the neural network has plural convolution layers.SELECTED DRAWING: Figure 1

Description

本発明は、生体画像に関する処理を行う生体画像処理装置等に関する。   The present invention relates to a biological image processing apparatus that performs processing related to a biological image.

従来、被検体の血管構造を把握するため、デジタル差分血管造影法(以下、「DSA」(Digital Subtraction Angiography)とすることがある。)が用いられている。DSAでは、造影剤投与の前後において被検体のX線画像を取得し、造影剤投与後のX線画像であるオリジナル画像から、造影剤投与前のX線画像であるマスク画像を差し引くことによって、血管像を描出するDSA画像を得るものである。また、近年は、3次元的な撮影方法を採用した3次元DSAも行われるようになってきている(例えば、特許文献1参照)。   Conventionally, digital differential angiography (hereinafter sometimes referred to as “DSA” (Digital Subtraction Angiography)) has been used to grasp the vascular structure of a subject. In DSA, X-ray images of a subject are acquired before and after contrast medium administration, and a mask image that is an X-ray image before contrast medium administration is subtracted from an original image that is an X-ray image after contrast medium administration. A DSA image for rendering a blood vessel image is obtained. In recent years, three-dimensional DSA employing a three-dimensional imaging method has been performed (see, for example, Patent Document 1).

DSAでは、造影対象や撮影系が動く場合には、適切なDSA画像を取得できないという問題が知られている。例えば、心臓のように動きのある臓器を撮影する場合には、オリジナル画像と同じ臓器の位置であるマスク画像を用意することが拍動及び呼吸による位置移動のため困難であり、その他の部位についても体位や運動による移動があると困難であり、その結果、DSA画像にアーチファクトが生じることになる、という問題があった。また、例えば、マスク画像を取得していない範囲に撮影系が移動されるなどのように、撮影系が動かされる場合にも、適切なDSA画像を取得できないという問題があった。   In DSA, there is a problem that an appropriate DSA image cannot be acquired when a contrast target or an imaging system moves. For example, when photographing a moving organ such as the heart, it is difficult to prepare a mask image that is the same organ position as the original image because of position movement due to pulsation and respiration. However, there is a problem in that movement due to body position and exercise is difficult, resulting in artifacts in the DSA image. In addition, there is a problem that an appropriate DSA image cannot be acquired even when the imaging system is moved, such as when the imaging system is moved to a range where a mask image is not acquired.

なお、心臓のDSA画像の場合には、あらかじめ一心周期に対応する複数のマスク画像を用意しておき、撮影されたオリジナル画像に近似するマスク画像をパターンマッチングの手法によって選択し、その選択したマスク画像を用いてDSA画像を取得する方法が知られている。また、比較的小さな被検体の動きに対しては、マスク画像の位置を手動で移動させるピクセルシフトや、マスク画像の位置を計算によって線形または非線形に移動させるワーピング等も行われている(例えば、特許文献2参照)。   In the case of a DSA image of the heart, a plurality of mask images corresponding to one cardiac cycle are prepared in advance, a mask image that approximates the photographed original image is selected by a pattern matching method, and the selected mask is selected. A method for acquiring a DSA image using an image is known. For relatively small movements of the subject, pixel shift for manually moving the position of the mask image, warping for moving the position of the mask image linearly or non-linearly by calculation (for example, Patent Document 2).

また、そのような造影前のマスク画像の撮影を行わなくてよいようにするため、ぼかした像を別途得て、オリジナル画像からマスク画像を取得する方法や、オリジナル画像の撮影時にマスク画像も撮影する方法なども開発されている(例えば、特許文献3,4参照)。   In addition, in order to avoid the need to take such a mask image before contrast, a method for obtaining a mask image from the original image by separately obtaining a blurred image, or taking a mask image when photographing the original image The method of doing is also developed (for example, refer patent documents 3 and 4).

特開2010−193975号公報JP 2010-193975 A 特開2015−213536号公報Japanese Unexamined Patent Publication No. 2015-213536 特開平10−322597号公報Japanese Patent Laid-Open No. 10-322597 特開2002−135655号公報JP 2002-135655 A

しかしながら、造影前のマスク画像の撮影を行う従来のDSAでは、被検体や撮影系に大きな動きがある場合には、パターンマッチングやピクセルシフト、ワーピング等を行ってもオリジナル画像とマスク画像との背景が一致せず、DSA画像にアーチファクトが生じることになる。
また、造影前にマスク画像を取得する場合には、それだけ検査時間が長くなり、被検者に対する負荷が大きくなるという問題があった。例えば、3次元DSAでは、マスク画像を撮影するために、検査時間が約2倍になり、被検者を拘束する時間が長くなるという問題があった。また、造影前のマスク画像の撮影を行わないDSAにおいても、ぼけた画像を生成するため、マスク画像を撮影するための構成や、オリジナル画像からマスク画像を生成するための光学的な構成等が必要になり、それだけ装置が複雑化または大型化するという問題もあった。
However, in a conventional DSA that captures a mask image before contrast enhancement, if there is a large movement in the subject or the imaging system, the background between the original image and the mask image even if pattern matching, pixel shift, warping, or the like is performed. Will not match and artifacts will occur in the DSA image.
In addition, when a mask image is acquired before contrast enhancement, there is a problem that the examination time becomes longer and the load on the subject increases. For example, in the three-dimensional DSA, since the mask image is taken, there is a problem that the inspection time is approximately doubled, and the time for restraining the subject becomes long. In addition, even in DSA that does not capture a mask image before contrast enhancement, a configuration for capturing a mask image, an optical configuration for generating a mask image from an original image, etc. are provided in order to generate a blurred image. There is also a problem that the apparatus becomes more complicated or larger as it becomes necessary.

したがって、DSAにおいて、造影前のマスク画像の撮影を行わなくても、適切なDSA画像を取得できるようにすると共に、光学的な構成等を用いることなく、マスク画像を取得できるようにしたい、という要望があった。
一般的に言えば、目的物(例えば、造影血管等)を含む生体画像から、直接、目的物を除去した生体画像(例えば、DSAのマスク画像等)を生成できるようにしたい、という要望があった。
Therefore, in DSA, it is desired to obtain an appropriate DSA image without taking a mask image before contrast enhancement, and to obtain a mask image without using an optical configuration or the like. There was a request.
Generally speaking, there is a desire to be able to generate a biological image (for example, a DSA mask image) from which a target object is removed directly from a biological image including the target object (for example, contrasted blood vessels). It was.

本発明は、上記課題を解決するためになされたものであり、目的物を含む生体画像から、直接、目的物を除去した生体画像を生成できる生体画像処理装置等を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a biological image processing apparatus that can generate a biological image in which a target object is directly removed from a biological image including the target object. .

上記目的を達成するため、本発明による生体画像処理装置は、目的物を含む生体画像である入力用訓練画像、目的物を含まない生体画像である出力用訓練画像、及び目的物を含む生体画像である入力画像を受け付ける受付部と、受付部によって受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する学習部と、学習部による学習結果であるニューラルネットワークの画像処理を用いて、受付部によって受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理部と、を備え、ニューラルネットワークは、複数の畳み込み層を有している、ものである。
このような構成により、複数の畳み込み層を有するニューラルネットワークを学習し、その学習結果を用いて、目的物を含む生体画像から、その目的物を除去した生体画像を生成することができるようになる。その結果、例えば、DSAのオリジナル画像からマスク画像を生成したり、ステントやコイルを含む生体画像からステント等を除去した生体画像を生成したりすることができるようになる。
In order to achieve the above object, a biological image processing apparatus according to the present invention includes an input training image that is a biological image including a target object, an output training image that is a biological image that does not include the target object, and a biological image including the target object. An input image that is an input image, and an input training image and an output training image received by the reception unit, and performing image processing that generates a biological image that does not include the target object from the biological image that includes the target object A learning unit that learns a neural network, and an image processing unit that generates an output image obtained by removing an object from an input image received by the receiving unit, using image processing of the neural network that is a learning result of the learning unit. The neural network includes a plurality of convolution layers.
With such a configuration, it becomes possible to learn a neural network having a plurality of convolution layers and generate a biological image in which the target object is removed from the biological image including the target object using the learning result. . As a result, for example, a mask image can be generated from an original image of DSA, or a biological image obtained by removing a stent or the like from a biological image including a stent or a coil can be generated.

また、本発明による生体画像処理装置は、目的物を含む生体画像である入力画像を受け付ける受付部と、目的物を含む生体画像から目的物を含まない生体画像を生成するニューラルネットワークの学習結果の画像処理を用いて、受付部によって受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理部と、を備え、ニューラルネットワークは、複数の畳み込み層を有している、ものである。
このような構成により、複数の畳み込み層を有するニューラルネットワークの学習結果を用いて、目的物を含む生体画像から、その目的物を除去した生体画像を生成することができるようになる。その結果、例えば、DSAのオリジナル画像からマスク画像を生成することができるようになり、また、ステントやコイルを含む生体画像からステント等を除去した生体画像を生成することができるようになる。
The biological image processing apparatus according to the present invention includes a receiving unit that receives an input image that is a biological image including a target object, and a learning result of a neural network that generates a biological image that does not include the target object from the biological image including the target object. An image processing unit that generates an output image obtained by removing an object from an input image received by the receiving unit using image processing, and the neural network has a plurality of convolutional layers. .
With such a configuration, it is possible to generate a biological image obtained by removing the target object from the biological image including the target object, using the learning result of the neural network having a plurality of convolution layers. As a result, for example, a mask image can be generated from an original image of DSA, and a biological image in which a stent or the like is removed from a biological image including a stent or a coil can be generated.

また、本発明による生体画像処理装置では、ニューラルネットワークにおける中間層及び出力層はすべて畳み込み層であってもよい。   In the biological image processing apparatus according to the present invention, the intermediate layer and the output layer in the neural network may all be convolutional layers.

また、本発明による生体画像処理装置では、目的物を含む生体画像は、造影剤を投与した生体のX線画像である血管造影画像であり、目的物を含まない生体画像は、造影剤を投与していない生体のX線画像であり、出力画像は、デジタル差分血管造影法に用いられるマスク画像であってもよい。
このような構成により、血管造影画像から、DSAで用いられるマスク画像を生成することができるようになる。その結果、マスク画像のためのX線撮影が不要になり、被検者の被曝量を低減することができる。また、マスク画像の撮影のための時間が不要になるため、被検者の拘束時間も短くなる。
In the biological image processing apparatus according to the present invention, the biological image including the target object is an angiographic image that is an X-ray image of the biological body administered with the contrast agent, and the biological image not including the target object is administered with the contrast agent. It is an X-ray image of a living body that is not, and the output image may be a mask image used in digital differential angiography.
With such a configuration, a mask image used in DSA can be generated from an angiographic image. As a result, X-ray imaging for the mask image becomes unnecessary, and the exposure dose of the subject can be reduced. In addition, since the time for photographing the mask image is not required, the subject's restraint time is shortened.

また、本発明による生体画像処理装置では、ニューラルネットワークにおける1層目の中間層は、一辺が3mm以上の長さに対応するフィルタを用いた畳み込み層であってもよい。
このような構成により、ニューラルネットワークにおいて、血管造影画像から目的物である造影血管を適切に除去できるようになる。
In the biological image processing apparatus according to the present invention, the first intermediate layer in the neural network may be a convolution layer using a filter whose side corresponds to a length of 3 mm or more.
With such a configuration, in the neural network, the contrasted blood vessel that is the object can be appropriately removed from the angiographic image.

また、本発明による生体画像処理装置では、受付部によって受け付けられた入力画像である血管造影画像から、画像処理部によって血管造影画像から生成された出力画像であるマスク画像を減算処理する減算処理部と、減算処理部によって減算処理された減算画像を出力する減算画像出力部と、をさらに備えもよい。
このような構成により、例えば、動きのある臓器であっても、また、撮影系が大きく移動されても、血管以外の背景が適切に除去された減算画像(DSA画像)を取得することができる。
Further, in the biological image processing apparatus according to the present invention, a subtraction processing unit that subtracts a mask image that is an output image generated from an angiographic image by an image processing unit from an angiographic image that is an input image received by the receiving unit. And a subtracted image output unit that outputs the subtracted image subtracted by the subtracting unit.
With such a configuration, for example, a subtracted image (DSA image) in which backgrounds other than blood vessels are appropriately removed can be acquired even if the organ is in motion or the imaging system is moved greatly. .

また、本発明による出力画像製造方法は、目的物を含む生体画像である入力用訓練画像、及び目的物を含まない生体画像である出力用訓練画像を受け付ける第1の受付ステップと、第1の受付ステップにおいて受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する学習ステップと、目的物を含む生体画像である入力画像を受け付ける第2の受付ステップと、学習ステップにおける学習結果であるニューラルネットワークの画像処理を用いて、第2の受付ステップにおいて受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理ステップと、を備え、ニューラルネットワークは、複数の畳み込み層を有している、ものである。
このような構成により、ニューラルネットワークの学習結果を用いて、入力画像から目的物を除去した出力画像を製造することができる。
The output image manufacturing method according to the present invention includes a first receiving step of receiving an input training image that is a biological image including a target object, and an output training image that is a biological image not including the target object; A learning step for learning a neural network that performs image processing for generating a biological image not including a target object from a biological image including a target object using the input training image and the output training image received in the receiving step; A second reception step that receives an input image that is a biological image including an object, and an image processing of a neural network that is a learning result in the learning step, and an object is removed from the input image received in the second reception step And an image processing step for generating an output image, wherein the neural network includes a plurality of convolution layers. It has been, is intended.
With such a configuration, it is possible to produce an output image obtained by removing the target object from the input image using the learning result of the neural network.

また、本発明による学習結果製造方法は、目的物を含む生体画像である入力用訓練画像、及び目的物を含まない生体画像である出力用訓練画像を受け付ける受付ステップと、受付ステップにおいて受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習することによって学習結果を取得する学習ステップと、を備え、ニューラルネットワークは、複数の畳み込み層を有している、ものである。
このような構成により、入力画像から目的物を除去した出力画像を生成する画像処理に用いられるニューラルネットワークの学習結果を製造することができる。
In addition, the learning result manufacturing method according to the present invention is received in the receiving step for receiving the training image for input that is a biological image including the target object and the training image for output that is a biological image not including the target object. A learning step of acquiring a learning result by learning a neural network that performs image processing for generating a biological image not including a target object from a biological image including a target object using the input training image and the output training image; And the neural network has a plurality of convolutional layers.
With such a configuration, it is possible to manufacture a learning result of a neural network used for image processing for generating an output image obtained by removing an object from an input image.

本発明による生体画像処理装置等によれば、複数の畳み込み層を有するニューラルネットワークを用いて、目的物を含む生体画像から、その目的物を除去した生体画像を生成することができるようになる。   According to the biological image processing apparatus and the like according to the present invention, it is possible to generate a biological image in which a target object is removed from a biological image including the target object, using a neural network having a plurality of convolution layers.

本発明の実施の形態による生体画像処理装置の構成を示すブロック図The block diagram which shows the structure of the biometric image processing apparatus by embodiment of this invention 同実施の形態による生体画像処理装置の動作を示すフローチャートThe flowchart which shows operation | movement of the biometric image processing apparatus by the embodiment 同実施の形態におけるニューラルネットワークのモデルの一例を示す図The figure which shows an example of the model of the neural network in the embodiment 同実施の形態における各層の情報の一例を示す図The figure which shows an example of the information of each layer in the embodiment 同実施の形態における各層の情報の一例を示す図The figure which shows an example of the information of each layer in the embodiment 同実施の形態における各層の情報の一例を示す図The figure which shows an example of the information of each layer in the embodiment 同実施の形態における訓練データの一例を示す図The figure which shows an example of the training data in the embodiment 同実施の形態における血管造影画像とマスク画像との一例を示す図The figure which shows an example of the angiographic image and mask image in the embodiment 同実施の形態における血管造影画像とマスク画像との一例を示す図The figure which shows an example of the angiographic image and mask image in the embodiment 同実施の形態における血管造影画像とマスク画像との一例を示す図The figure which shows an example of the angiographic image and mask image in the embodiment 従来のDSA画像と同実施の形態によるDSA画像との一例を示す図The figure which shows an example of the DSA image by the conventional DSA image and the same embodiment 従来のDSA画像と同実施の形態によるDSA画像との一例を示す図The figure which shows an example of the DSA image by the conventional DSA image and the same embodiment 従来のDSA画像と同実施の形態によるDSA画像との一例を示す図The figure which shows an example of the DSA image by the conventional DSA image and the same embodiment 従来のDSA画像と同実施の形態によるDSA画像との一例を示す図The figure which shows an example of the DSA image by the conventional DSA image and the same embodiment 同実施の形態におけるコンピュータシステムの外観一例を示す模式図Schematic diagram showing an example of the appearance of the computer system in the embodiment 同実施の形態におけるコンピュータシステムの構成の一例を示す図The figure which shows an example of a structure of the computer system in the embodiment

以下、本発明による生体画像処理装置について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による生体画像処理装置は、複数の畳み込み層を有するニューラルネットワークを学習し、その学習結果を用いて、生体画像から目的物を除去した出力画像を生成するものである。   Hereinafter, a biological image processing apparatus according to the present invention will be described using embodiments. In the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repetitive description may be omitted. The biological image processing apparatus according to the present embodiment learns a neural network having a plurality of convolution layers, and generates an output image obtained by removing an object from a biological image using the learning result.

図1は、本実施の形態による生体画像処理装置1の構成を示すブロック図である。本実施の形態による生体画像処理装置1は、受付部11と、学習部12と、画像処理部13と、記憶部14と、減算処理部15と、減算画像出力部16とを備える。本実施の形態では、まず、生体画像処理装置1によってDSA画像である減算画像を生成する場合について説明し、その後に、それ以外の場合について説明する。   FIG. 1 is a block diagram showing a configuration of a biological image processing apparatus 1 according to the present embodiment. The biological image processing apparatus 1 according to the present embodiment includes a receiving unit 11, a learning unit 12, an image processing unit 13, a storage unit 14, a subtraction processing unit 15, and a subtraction image output unit 16. In the present embodiment, first, a case where a subtracted image that is a DSA image is generated by the biological image processing apparatus 1 will be described, and then other cases will be described.

受付部11は、学習に用いられる訓練データと、学習結果を用いた実際の処理に用いられる実データとを受け付ける。訓練データは、目的物を含む生体画像である入力用訓練画像と、目的物を含まない生体画像である出力用訓練画像とである。通常、入力用訓練画像と、出力用訓練画像との多くの組が、受付部11で受け付けられることになる。なお、ある組に含まれる入力用訓練画像と出力用訓練画像とは、目的物が含まれているかどうか以外は、同じ画像、すなわち生体の同じ位置に関する画像であるとする。実データは、目的物を含む生体画像である入力画像である。ここでは、目的物が造影血管であり、生体画像がX線画像である場合、すなわち、目的物を含む生体画像が、造影剤を投与した生体のX線画像である血管造影画像であり、目的物を含まない生体画像が、造影剤を投与していない生体のX線画像である場合について説明し、それ以外の場合については後記する。   The reception unit 11 receives training data used for learning and actual data used for actual processing using a learning result. The training data includes an input training image that is a biological image including the target object, and an output training image that is a biological image not including the target object. Usually, many sets of input training images and output training images are received by the receiving unit 11. It is assumed that the input training image and the output training image included in a certain group are the same images, that is, images related to the same position of the living body, except whether or not the object is included. The actual data is an input image that is a biological image including the object. Here, when the target is a contrast-enhanced blood vessel and the living body image is an X-ray image, that is, the living body image including the target is an angiographic image that is an X-ray image of a living body administered with a contrast agent. A case where the living body image that does not include an object is an X-ray image of a living body that is not administered with a contrast agent will be described.

受付部11は、例えば、有線または無線の通信回線を介して送信されたデータを受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)から読み出されたデータを受け付けてもよい。なお、受付部11は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、または含まなくてもよい。また、受付部11は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The reception unit 11 may receive data transmitted via a wired or wireless communication line, for example, and read data read from a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.). It may be accepted. The reception unit 11 may or may not include a device (for example, a modem or a network card) for reception. The receiving unit 11 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

学習部12は、受付部11によって受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する。画像処理を行うニューラルネットワークは、入力画像の各画素値に対して所定の演算を行い、出力画像の各画素値を出力するものである。その学習によって、学習部12は、学習結果を取得することになる。この学習では、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)における各フィルタの各画素値(パラメータの値)が算出されることになる。そのニューラルネットワークは、複数の畳み込み層(convolution layer)を有している。したがって、そのニューラルネットワークは、少なくとも1個の中間層(隠れ層)を有することになるため、そのニューラルネットワークの学習は、深層学習(ディープラーニング、Deep Learning)であるといえる。なお、そのニューラルネットワークは、プーリング層(pooling layer)を有していてもよく、または、有していなくてもよく、全結合層(fully-connected layer)を有していてもよく、または、有していなくてもよい。本実施の形態では、ニューラルネットワークにおける中間層及び出力層がすべて畳み込み層であり、プーリング層及び全結合層を有しない場合について主に説明する。本実施の形態のニューラルネットワークは、例えば、3層以上の畳み込み層を有していてもよい。以下の実施例においては、ニューラルネットワークが3層及び5層の畳み込み層から構成される場合について具体的に説明する。なお、ニューラルネットワークの中間層の層数は、例えば、1層でもよく、2層でもよく、3層以上であってもよい。また、ニューラルネットワークに含まれる畳み込み層も、2層でもよく、4層でもよく、6層以上であってもよい。また、本実施の形態における画像処理では、通常、入力画像と出力画像との画素数が一緒であることが好適であるため、ニューラルネットワークの各層において、適宜、パディングが行われてもよい。そのパディングは、例えば、ゼロパディングであってもよく、画像の最外周の画素値を外挿するパディングであってもよく、画像の各辺で折り返した画素値とするパディングであってもよい。また、各層におけるストライドは問わないが、例えば、畳み込み層におけるストライドは、1であることが好適であり、ニューラルネットワークがプーリング層を有する場合に、そのプーリング層のストライドは、2以上であることが好適である。また、各層において、バイアスを用いてもよく、または、用いなくてもよい。バイアスを用いるかどうかは、層ごとに独立して決められてもよい。そのバイアスは、例えば、層ごとのバイアスであってもよく、または、フィルタごとのバイアスであってもよい。前者の場合には、各層において1個のバイアスが用いられることになり、後者の場合には、各層において1個以上(フィルタと同数)のバイアスが用いられることになる。畳み込み層でバイアスを用いる場合には、各画素値にフィルタのパラメータを掛けて足し合わせた結果にバイアスを加算したものが、活性化関数に入力されることになる。   The learning unit 12 uses the input training image and the output training image received by the receiving unit 11 to learn a neural network that performs image processing for generating a biological image that does not include the target object from the biological image that includes the target object. To do. A neural network that performs image processing performs a predetermined calculation on each pixel value of an input image and outputs each pixel value of an output image. By the learning, the learning unit 12 acquires a learning result. In this learning, each pixel value (parameter value) of each filter in a convolutional neural network (CNN) is calculated. The neural network has a plurality of convolution layers. Therefore, since the neural network has at least one intermediate layer (hidden layer), it can be said that learning of the neural network is deep learning. Note that the neural network may or may not have a pooling layer, may have a fully-connected layer, or It may not have. In the present embodiment, a case will be mainly described in which the intermediate layer and the output layer in the neural network are all convolutional layers and do not have the pooling layer and the total coupling layer. The neural network of the present embodiment may have, for example, three or more convolution layers. In the following embodiments, the case where the neural network is composed of three and five convolutional layers will be described in detail. The number of intermediate layers in the neural network may be one layer, two layers, or three or more layers, for example. Further, the convolutional layer included in the neural network may be two layers, four layers, or six layers or more. In the image processing according to the present embodiment, it is usually preferable that the number of pixels of the input image and the output image are the same, and therefore padding may be appropriately performed in each layer of the neural network. The padding may be, for example, zero padding, may be padding that extrapolates the outermost pixel value of the image, or may be padding that is a pixel value folded at each side of the image. In addition, the stride in each layer is not limited, but for example, the stride in the convolution layer is preferably 1, and when the neural network has a pooling layer, the stride of the pooling layer may be 2 or more. Is preferred. In each layer, a bias may or may not be used. Whether to use a bias may be determined independently for each layer. The bias may be, for example, a layer-by-layer bias or a filter-by-filter bias. In the former case, one bias is used in each layer, and in the latter case, one or more biases (the same number as the filter) are used in each layer. When a bias is used in the convolution layer, a result obtained by multiplying each pixel value by the filter parameter and adding the bias is input to the activation function.

ニューラルネットワークにおける各設定は、次のようであってもよい。活性化関数は、例えば、ReLU(正規化線形関数)であってもよく、シグモイド関数であってもよく、その他の活性化関数であってもよい。ReLUは、f(u)=max(u,0)である関数である。また、学習部12における学習では、通常の深層学習と同様に、誤差逆伝搬法を用いてもよく、ミニバッチ法を用いてもよい。また、損失関数(誤差関数)は、平均二乗誤差であってもよい。また、epoch数は特に問わないが、例えば、100〜5000であってもよい。   Each setting in the neural network may be as follows. The activation function may be, for example, a ReLU (normalized linear function), a sigmoid function, or another activation function. ReLU is a function where f (u) = max (u, 0). In the learning in the learning unit 12, the error back-propagation method may be used or the mini-batch method may be used as in the normal deep learning. The loss function (error function) may be a mean square error. The number of epochs is not particularly limited, but may be 100 to 5000, for example.

画像処理部13は、学習部12による学習結果であるニューラルネットワークの画像処理を用いて、受付部11によって受け付けられた入力画像から目的物を除去した出力画像を生成する。この画像処理は、学習結果のパラメータを用いたニューラルネットワークを動作させることによって行われる。画像処理部13による画像処理によって、血管造影画像である入力画像から、DSAに用いられるマスク画像、すなわち造影血管が除去された画像が生成されることになる。その生成されたマスク画像は、記憶部14に蓄積される。なお、複数の血管造影画像が入力された場合に、画像処理部13は、血管造影画像ごとにマスク画像を生成してもよい。従来のDSAでは、通常、複数の血管造影画像に対して、1個のマスク画像が用いられたが、本実施の形態による生体画像処理装置1では、各血管造影画像に対応するマスク画像を生成することができるため、より精度の高いDSAが可能となる。なお、学習部12による学習において、生体のある部位(例えば、心臓の冠動脈)に関する学習を行った場合には、画像処理部13は、その部位の入力画像に対して目的物である造影血管を除去する画像処理を行うことが好適である。学習部12による学習において、生体の複数の部位(例えば、心臓の冠動脈と頭部等)に関する学習を行った場合には、画像処理部13は、学習を行ったいずれかの部位の入力画像に対して目的物である造影血管を除去する画像処理を行ってもよい。   The image processing unit 13 generates an output image obtained by removing the target object from the input image received by the receiving unit 11 using the image processing of the neural network that is the learning result by the learning unit 12. This image processing is performed by operating a neural network using the learning result parameters. By the image processing by the image processing unit 13, a mask image used for DSA, that is, an image in which the contrasted blood vessels are removed is generated from an input image that is an angiographic image. The generated mask image is accumulated in the storage unit 14. Note that when a plurality of angiographic images are input, the image processing unit 13 may generate a mask image for each angiographic image. In the conventional DSA, one mask image is usually used for a plurality of angiographic images, but the biological image processing apparatus 1 according to the present embodiment generates a mask image corresponding to each angiographic image. Therefore, DSA with higher accuracy is possible. In the learning by the learning unit 12, when learning about a certain part of the living body (for example, the coronary artery of the heart) is performed, the image processing unit 13 selects the target contrast blood vessel from the input image of the part. It is preferable to perform image processing to be removed. In the learning by the learning unit 12, when learning is performed on a plurality of parts of the living body (for example, the coronary artery and the head of the heart), the image processing unit 13 applies the input image of any part of the learning to the input image. On the other hand, image processing for removing a contrasting blood vessel as a target may be performed.

なお、ニューラルネットワークの画像処理を行う際に、処理対象の画像が分割された分割画像に対して処理が行われてもよい。後記の実施例1のように、例えば、512×512の入力画像が分割された64×64の分割画像について、ニューラルネットワークの画像処理が行われ、その画像処理の後に分割画像が結合されることによって出力画像が構成されてもよい。なお、この場合には、分割画像を用いて学習が行われることになる。また、この場合には、分割後の分割画像(例えば、64×64の画像)が入力画像であると考えてもよく、または、分割前の画像(例えば、512×512の画像)が入力画像であると考えてもよい。後者の場合には、画像処理部13における画像処理に、入力画像の分割と、ニューラルネットワークによる画像処理後の画像の結合とが含まれていると考えてもよい。本実施の形態では、主にこの場合について説明する。なお、画像を分割する際には、重複が生じるように分割してもよく、または、重複が生じないように分割してもよい。結合後の画像に分割箇所の線が出にくいという観点からは、前者の方が好適である。   Note that when performing neural network image processing, processing may be performed on a divided image obtained by dividing an image to be processed. As in Example 1 described later, for example, a 64 × 64 divided image obtained by dividing a 512 × 512 input image is subjected to neural network image processing, and the divided images are combined after the image processing. The output image may be configured by. In this case, learning is performed using the divided images. In this case, the divided image after division (for example, 64 × 64 image) may be considered as the input image, or the image before division (for example, 512 × 512 image) is the input image. You may think that In the latter case, it may be considered that the image processing in the image processing unit 13 includes the division of the input image and the combination of the images after the image processing by the neural network. In this embodiment, this case will be mainly described. In addition, when dividing | segmenting an image, you may divide | segment so that duplication may arise or may divide | segment so that duplication may not arise. The former is more preferable from the viewpoint that it is difficult to produce lines at the divided portions in the combined image.

記憶部14では、生成されたマスク画像(出力画像)が記憶される。そのマスク画像は、例えば、画像処理部13によって蓄積されたものであってもよい。記憶部14での記憶は、RAM等における一時的な記憶でもよく、または、長期的な記憶でもよい。記憶部14は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。   In the storage unit 14, the generated mask image (output image) is stored. For example, the mask image may be accumulated by the image processing unit 13. The storage in the storage unit 14 may be temporary storage in a RAM or the like, or may be long-term storage. The storage unit 14 can be realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.).

減算処理部15は、受付部11によって受け付けられた入力画像である血管造影画像から、画像処理部13によってその血管造影画像から生成された出力画像であるマスク画像を減算処理する。したがって、DSAにおける減算処理では、ある血管造影画像と、その血管造影画像から生成されたマスク画像とを用いて、減算処理が行われることになる。その結果、マスク画像を撮影することなく、1個の血管造影画像から1個のDSA画像を取得できることになる。なお、受付部11によって、時系列に沿った複数の入力画像が受け付けられた場合には、減算処理部15は、その各入力画像について減算処理を行って時系列に沿った複数のDSA画像を生成してもよい。   The subtraction processing unit 15 subtracts a mask image that is an output image generated from the angiographic image by the image processing unit 13 from the angiographic image that is the input image received by the receiving unit 11. Therefore, in the subtraction process in DSA, the subtraction process is performed using a certain angiographic image and a mask image generated from the angiographic image. As a result, one DSA image can be acquired from one angiographic image without taking a mask image. When a plurality of input images along the time series are received by the reception unit 11, the subtraction processing unit 15 performs a subtraction process on each input image to obtain a plurality of DSA images along the time series. It may be generated.

減算画像出力部16は、減算処理部15によって減算処理された減算画像を出力する。ここでは、減算画像はDSA画像である。この減算画像出力部16による出力は、例えば、表示デバイス(例えば、液晶ディスプレイや有機ELディスプレイなど)への表示でもよく、所定の機器への通信回線を介した送信でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。なお、減算画像出力部16は、出力を行うデバイス(例えば、表示デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、減算画像出力部16は、ハードウェアによって実現されてもよく、または、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The subtraction image output unit 16 outputs the subtraction image subjected to the subtraction process by the subtraction processing unit 15. Here, the subtraction image is a DSA image. The output by the subtracted image output unit 16 may be, for example, displayed on a display device (for example, a liquid crystal display or an organic EL display), transmitted via a communication line to a predetermined device, or stored in a recording medium. Or it may be delivered to other components. Note that the subtracted image output unit 16 may or may not include a device that performs output (for example, a display device or a communication device). The subtracted image output unit 16 may be realized by hardware, or may be realized by software such as a driver that drives these devices.

次に、生体画像処理装置1の動作について図2のフローチャートを用いて説明する。
(ステップS101)受付部11は、入力用訓練画像と出力用訓練画像との組を複数受け付けたかどうか判断する。そして、入力用訓練画像と出力用訓練画像との複数の組を受け付けた場合には、ステップS102に進み、そうでない場合には、それらを受け付けるまで、ステップS101の処理を繰り返す。
Next, the operation of the biological image processing apparatus 1 will be described using the flowchart of FIG.
(Step S101) The receiving unit 11 determines whether a plurality of sets of input training images and output training images have been received. If a plurality of sets of input training images and output training images are received, the process proceeds to step S102. If not, the process of step S101 is repeated until they are received.

(ステップS102)学習部12は、受付部11で受け付けられた入力用訓練画像と出力用訓練画像とを用いて、ニューラルネットワークの学習を行う。学習部12は、この学習で得られた学習結果である複数のパラメータを、図示しない記録媒体に蓄積してもよい。   (Step S <b> 102) The learning unit 12 learns a neural network using the input training image and the output training image received by the receiving unit 11. The learning unit 12 may accumulate a plurality of parameters, which are learning results obtained by this learning, in a recording medium (not shown).

(ステップS103)受付部11は、処理対象の画像データである入力画像を受け付けたかどうか判断する。この入力画像は、血管造影画像である。そして、入力画像を受け付けた場合には、ステップS104に進み、そうでない場合には、入力画像を受け付けるまでステップS103の処理を繰り返す。   (Step S103) The receiving unit 11 determines whether an input image that is image data to be processed has been received. This input image is an angiographic image. If an input image is received, the process proceeds to step S104. If not, the process of step S103 is repeated until the input image is received.

(ステップS104)画像処理部13は、学習部12による学習結果であるニューラルネットワークを用いて、受付部11で受け付けられた入力画像から、目的物である造影血管を除去した出力画像を生成する。その出力画像は、DSAで用いられるマスク画像である。   (Step S <b> 104) The image processing unit 13 uses the neural network that is a learning result by the learning unit 12 to generate an output image in which the contrasted blood vessels that are target objects are removed from the input image received by the receiving unit 11. The output image is a mask image used in DSA.

(ステップS105)減算処理部15は、ステップS103において受付部11によって受け付けられた入力画像から、ステップS104で生成された出力画像を減算処理することによって、減算画像を生成する。この減算画像は、DSA画像である。   (Step S105) The subtraction processing unit 15 generates a subtraction image by subtracting the output image generated in step S104 from the input image received by the reception unit 11 in step S103. This subtracted image is a DSA image.

(ステップS106)減算画像出力部16は、ステップS105で生成された減算画像を出力する。そして、ステップS103に戻る。   (Step S106) The subtraction image output unit 16 outputs the subtraction image generated in step S105. Then, the process returns to step S103.

なお、図2のフローチャートでは、複数の入力画像が連続的に受け付けられる場合について示しているが、そうでない場合、例えば、1個の入力画像のみが受け付けられる場合には、ステップS106の処理の後に、一連の処理が終了となってもよい。また、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。   In the flowchart of FIG. 2, a case where a plurality of input images are continuously received is shown. However, in a case where this is not the case, for example, when only one input image is received, the processing after step S106 is performed. The series of processing may be terminated. In the flowchart of FIG. 2, the process is ended by power-off or a process end interrupt.

次に、本実施の形態による生体画像処理装置1によるDSA画像の生成について、実施例を用いて説明する。
[実施例1]
本実施例では、ニューラルネットワークが3層の畳み込み層を有する場合について説明する。図3は、本実施例におけるニューラルネットワークの構成を示す図である。本実施例のニューラルネットワークの入力画像は、64×64画素の1チャネルの画像である。各画素は、8bitである。1層目の畳み込み層(conv1)では、9×9の1個のフィルタを64セット用いて、64チャネルの64×64の画像を生成した。なお、conv1では、入力と出力の画像サイズを同じにするためゼロパディングを行った。2層目の畳み込み層(conv2)では、1×1の64個のフィルタを32セット用いて、32チャネルの64×64の画像を生成した。3層目の畳み込み層(conv3)では、5×5の32個のフィルタを1セット用いて、1チャネルの64×64の画像を生成した。conv3でも、入力と出力の画像サイズを同じにするためゼロパディングを行った。conv3の出力が、ニューラルネットワークにおける最終的な出力、すなわち出力画像(マスク画像)となる。CNNによる画像処理では、1層目、2層目のように層が深くなるにしたがってフィルタのサイズが大きくなることが一般的であるが、本実施例のニューラルネットワークは、1層目と2層目のように、深い方の層のフィルタのサイズが小さくなる隣接した畳み込み層を有していることが特徴的である。また、本実施例では、ストライドを1に設定し、バイアスを用いなかった。
Next, generation of a DSA image by the biological image processing apparatus 1 according to the present embodiment will be described using an example.
[Example 1]
In this embodiment, a case where the neural network has three convolution layers will be described. FIG. 3 is a diagram showing the configuration of the neural network in this embodiment. The input image of the neural network of this embodiment is a one-channel image of 64 × 64 pixels. Each pixel is 8 bits. In the first convolution layer (conv1), 64 sets of 64 × 64 images were generated using 64 sets of one 9 × 9 filter. In conv1, zero padding was performed to make the input and output image sizes the same. In the second convolutional layer (conv2), 32 sets of 64 × 64 images were generated using 32 sets of 64 1 × 1 filters. In the third convolutional layer (conv3), a set of 32 filters of 5 × 5 was used to generate a 64 × 64 image of 1 channel. Even in conv3, zero padding was performed to make the input and output image sizes the same. The output of conv3 is the final output in the neural network, that is, the output image (mask image). In the image processing by CNN, the size of the filter generally increases as the layers become deeper as in the first layer and the second layer, but the neural network of the present embodiment has the first layer and the second layer. As is evident, it has adjacent convolutional layers that reduce the size of the deeper layer filter. In this example, the stride was set to 1 and no bias was used.

各層の活性化関数は、ReLUを用いた。本実施例の各層に関する情報は、図4Aで示されるとおりである。1層目では、81(=9×9)個のパラメータを有する1チャネル分のフィルタが64セット必要であるため、学習によって決めなければならないパラメータ数は、5184(=81×1×64)個になる。また、2層目では、1個のパラメータを有する64チャネル分のフィルタが32セット必要であるため、学習によって決めなければならないパラメータ数は、2048(=1×64×32)個になる。また、3層目では、同様にして、パラメータ数は800個になる。したがって、本実施例では、学習によって決めるパラメータ数は、合計8032個となる。なお、図4Aの出力マップサイズW×W×Kは、画像の縦横の画素数がW×Wであり、チャネル数がKであることを示している。   ReLU was used as the activation function for each layer. The information regarding each layer of the present example is as shown in FIG. 4A. In the first layer, 64 sets of filters for one channel having 81 (= 9 × 9) parameters are required, so the number of parameters that must be determined by learning is 5184 (= 81 × 1 × 64). become. In the second layer, 32 sets of filters for 64 channels having one parameter are required, and the number of parameters that must be determined by learning is 2048 (= 1 × 64 × 32). Similarly, in the third layer, the number of parameters is 800. Therefore, in this embodiment, the total number of parameters determined by learning is 8032. The output map size W × W × K in FIG. 4A indicates that the number of vertical and horizontal pixels of the image is W × W and the number of channels is K.

訓練データ、及び実データには、X線映像装置(SIEMENS-CROSKTOP T・O・P PlusAngio system)によって冠動脈を撮影した映像を用いた。その映像の情報は、次のとおりである。
フレームレート:15〜30(frame/s)
フレーム:512×512(8bit)
ケース数:29
For training data and actual data, images obtained by photographing coronary arteries using an X-ray imaging device (SIEMENS-CROSKTOP T • O • P PlusAngio system) were used. The information of the video is as follows.
Frame rate: 15-30 (frame / s)
Frame: 512 x 512 (8 bits)
Number of cases: 29

その映像から、血管造影後フレームと血管造影前フレームとの組を50組取得した。なお、512×512の血管造影後フレームと血管造影前フレームから、図5で示されるように、64×64の入力用訓練画像と出力用訓練画像とを切り出して用いた。入力用訓練画像と出力用訓練画像とは、フレームにおける同じ位置の画像である。なお、血管造影後フレームと血管造影前フレームとの位置あわせは手動で行った。また、入力用訓練画像と出力用訓練画像との組を21025個用意した。   From the image, 50 sets of a post-angiographic frame and a pre-angiographic frame were acquired. Note that, as shown in FIG. 5, a 64 × 64 input training image and an output training image were cut out from the 512 × 512 post-angiographic frame and the pre-angiographic frame and used. The training image for input and the training image for output are images at the same position in the frame. The alignment between the post-angiographic frame and the pre-angiographic frame was performed manually. In addition, 21025 sets of input training images and output training images were prepared.

その21025個の組について、上述のニューラルネットワークの学習を行い、8032個のパラメータを決定した。その学習では、ミニバッチ法を用いた。また、その学習における各種の設定は、次のとおりである。
バッチサイズ:400
epoch数:5000
最適化:Adam法
損失関数:平均二乗誤差
The above neural network learning was performed on the 21025 sets, and 8032 parameters were determined. In the learning, a mini batch method was used. Various settings in the learning are as follows.
Batch size: 400
Number of epochs: 5000
Optimization: Adam method Loss function: Mean square error

また、ニューラルネットワークの学習で用いたシステムは、次のとおりである。
CPU:Xeon E5−1650 3.5GHz
GPU:NVIDIA GeForce TITAN X×1
OS:Linux(登録商標) (Ubuntu 14.04)
フレームワーク:Chainer ver.1.8
プログラム言語:Python
The system used for learning the neural network is as follows.
CPU: Xeon E5-1650 3.5GHz
GPU: NVIDIA GeForce TITAN X × 1
OS: Linux (registered trademark) (Ubuntu 14.04)
Framework: Chainer ver. 1.8
Programming language: Python

学習部12による学習の後、学習に使用していない冠動脈の血管造影画像を用いて、画像処理部13によるマスク画像(出力画像)の生成を行った。その際にも、血管造影画像を64×64の複数画像に分割し、その各入力分割画像(64×64)を入力として出力分割画像(64×64)を生成し、その生成した出力分割画像を結合したものを最終的なマスク画像(出力画像)とした。なお、画像の分割は、分割画像に重複(重なり)がないように行った。図6Aは、血管造影画像(入力画像)と、本実施例のマスク画像との一例を示す図である。図6Aで示されるように、学習結果であるニューラルネットワークを用いることによって、造影血管を除去したマスク画像を取得できることが分かる。また、図7Aは、図6Aで示される血管造影画像及びマスク画像を用いた本実施例のDSA画像(本手法のDSA画像)と、血管造影前の画像をマスク画像として用いたDSA画像(従来のDSA画像)との一例を示す図である。図7Aで示されるように、本実施例において生成されたDSA画像の方が、従来のDSA画像よりも、造影血管をよりクリアに示せることが分かる。このように、本実施の形態による生体画像処理装置1では、DSA画像において造影血管を高いコントラストで示すことができるため、造影剤の1回の使用量を低減することができる。その結果、造影剤を投与される者の体への負担を軽減させることができる。   After learning by the learning unit 12, a mask image (output image) is generated by the image processing unit 13 using angiographic images of coronary arteries that are not used for learning. Also in this case, the angiographic image is divided into a plurality of 64 × 64 images, and each output divided image (64 × 64) is input to generate an output divided image (64 × 64). The generated output divided image The combined image was used as the final mask image (output image). The image was divided so that there was no overlap (overlap) in the divided images. FIG. 6A is a diagram illustrating an example of an angiographic image (input image) and a mask image of the present embodiment. As shown in FIG. 6A, it can be seen that a mask image from which contrast blood vessels have been removed can be acquired by using a neural network that is a learning result. FIG. 7A shows a DSA image (DSA image of the present technique) of the present example using the angiographic image and mask image shown in FIG. 6A and a DSA image using the image before angiography as a mask image (conventional). It is a figure which shows an example with DSA image). As shown in FIG. 7A, it can be seen that the DSA image generated in the present embodiment can more clearly show the contrasted blood vessels than the conventional DSA image. Thus, in the biological image processing apparatus 1 according to the present embodiment, the contrast blood vessels can be shown with high contrast in the DSA image, so that the amount of the contrast agent used once can be reduced. As a result, the burden on the body of the person who receives the contrast agent can be reduced.

図8は、冠動脈に関する従来のDSA画像と本実施例によって生成されたDSA画像との他の一例を示す図である。その図8の画像を用いて2名の医師による主観評価を行った結果、2名の医師の両方が、従来のDSA画像より本手法のDSA画像の方が画質が高いと評価した。したがって、本実施の形態による生体画像処理装置1は、医師のよりよい診断をサポートするために役立つといえる。   FIG. 8 is a diagram showing another example of a conventional DSA image related to a coronary artery and a DSA image generated by this embodiment. As a result of subjective evaluation by two doctors using the image of FIG. 8, both of the two doctors evaluated that the DSA image of the present method had higher image quality than the conventional DSA image. Therefore, it can be said that the biological image processing apparatus 1 according to the present embodiment is useful for supporting a better diagnosis of a doctor.

[実施例2]
本実施例では、ニューラルネットワークの畳み込み層が5層になった以外は、実施例1と同様にして学習を行い、また、マスク画像の生成やDSA画像の生成を行った。なお、5層の畳み込み層に関する情報は、図4Bで示されるとおりである。
[Example 2]
In this example, learning was performed in the same manner as in Example 1 except that the number of convolution layers of the neural network was five, and mask images and DSA images were generated. Information about the five convolutional layers is as shown in FIG. 4B.

図6Bは、血管造影画像と、本実施例のマスク画像との一例を示す図である。図6Bで示されるように、5層のニューラルネットワークの学習結果を用いた場合にも、造影血管を適切に除去できることが分かる。また、図7Bは、図6Bで示される血管造影画像及びマスク画像を用いた本実施例のDSA画像(本手法のDSA画像)と、血管造影前の画像をマスク画像として用いたDSA画像(従来のDSA画像)との一例を示す図である。実施例1と同様に、本実施例でも、DSA画像において造影血管をよりクリアに示せることが分かる。なお、本実施例においても、ニューラルネットワークは、深い方の層のフィルタのサイズが小さくなる隣接した畳み込み層を有しているという特徴がある。   FIG. 6B is a diagram illustrating an example of an angiographic image and a mask image according to the present embodiment. As shown in FIG. 6B, it can be seen that the contrasted blood vessels can be appropriately removed even when the learning result of the five-layer neural network is used. FIG. 7B shows a DSA image (DSA image of the present technique) of the present example using the angiographic image and mask image shown in FIG. 6B and a DSA image using the image before angiography as a mask image (conventional image). It is a figure which shows an example with DSA image). Similar to the first embodiment, it can be seen that the contrast blood vessel can be shown more clearly in the DSA image in this embodiment as well. In this embodiment as well, the neural network is characterized by having adjacent convolutional layers in which the filter size of the deeper layer is reduced.

なお、上記実施例1,2において、1層目の中間層である畳み込み層のフィルタサイズを9×9としたのは、目的物である造影血管の多くが、そのフィルタサイズに含まれるようにするためである。その1層目の畳み込み層のフィルタサイズをそれ以外に設定したニューラルネットワークも用いたが、1層目のフィルタサイズを7×7未満にすると、冠動脈のDSAにおいて生成したマスク画像が、品質のあまり高くないものになった。具体的には、1層目のフィルタサイズを5×5にした場合には、マスク画像に残る造影血管が、1層目のフィルタサイズを7×7にした場合よりも多くなった。したがって、ニューラルネットワークを、目的物である造影血管の除去に用いる場合には、1層目の畳み込み層のフィルタサイズを7×7以上にすることが好適である。なお、実用的には、1層目では、9×9以上のフィルタサイズの畳み込み層を用いることが好適である。ここで、7×7のフィルタの一辺(7ピクセル)は、冠動脈における最も太い血管径の約半分程度の長さに対応するものであった。その1層目の畳み込み層のフィルタサイズは、処理対象となる生体画像の解像度によって変化することは明らかである。例えば、解像度が2倍の生体画像の処理する場合には、1層目の畳み込み層のフィルタサイズは、14×14以上にすることが好適になる。そのため、1層目の中間層を、一辺が3mm以上の長さに対応するフィルタを用いた畳み込み層としてもよく、3.5mm以上の長さに対応するフィルタを用いた畳み込み層としてもよく、3.75mm以上の長さに対応するフィルタを用いた畳み込み層としてもよく、4mm以上の長さに対応するフィルタを用いた畳み込み層としてもよく、5mm以上の長さに対応するフィルタを用いた畳み込み層としてもよい。その3mm等は、生体における長さである。したがって、フィルタの1辺の画素数に対応する生体における長さが3mm以上となるフィルタを用いることが好適である、ということもできる。冠動脈の直径は、3〜5mm程度であるため、フィルタの一辺が3mmである場合には、一辺の長さが冠動脈の最も大きい直径の約半分程度の長さに対応したフィルタとなる。なお、1層目の中間層とは、入力層の次の層のことである。   In Examples 1 and 2, the filter size of the convolutional layer, which is the first intermediate layer, is set to 9 × 9 so that many of the contrasted blood vessels that are the target are included in the filter size. It is to do. A neural network in which the filter size of the first convolution layer was set to other values was also used. However, when the filter size of the first layer was set to less than 7 × 7, the mask image generated in the DSA of the coronary artery had a poor quality. It was not expensive. Specifically, when the filter size of the first layer is 5 × 5, the number of contrast blood vessels remaining in the mask image is larger than when the filter size of the first layer is 7 × 7. Therefore, when the neural network is used for removing the target contrast blood vessel, it is preferable that the filter size of the first convolution layer is 7 × 7 or more. Practically, it is preferable to use a convolution layer having a filter size of 9 × 9 or more for the first layer. Here, one side (7 pixels) of the 7 × 7 filter corresponds to about half the length of the thickest blood vessel diameter in the coronary artery. It is clear that the filter size of the first convolution layer varies depending on the resolution of the biological image to be processed. For example, when processing a biological image having a double resolution, the filter size of the first convolution layer is preferably 14 × 14 or more. Therefore, the first intermediate layer may be a convolution layer using a filter corresponding to a length of 3 mm or more on one side, or a convolution layer using a filter corresponding to a length of 3.5 mm or more, It may be a convolution layer using a filter corresponding to a length of 3.75 mm or more, or may be a convolution layer using a filter corresponding to a length of 4 mm or more, and a filter corresponding to a length of 5 mm or more was used. It is good also as a convolution layer. The 3 mm or the like is the length in the living body. Therefore, it can be said that it is preferable to use a filter whose length in the living body corresponding to the number of pixels on one side of the filter is 3 mm or more. Since the diameter of the coronary artery is about 3 to 5 mm, when one side of the filter is 3 mm, the length of one side corresponds to about half of the largest diameter of the coronary artery. The first intermediate layer is a layer next to the input layer.

また、最適化の方法として、Adam法と、MomentumSGD法とを比較したところ、Adam法を採用した方が、より品質の高いマスク画像を生成することができた。したがって、DSAを行う場合には、Adam法で最適化することが好適であると考えられる。   As an optimization method, the Adam method and the Momentum SGD method were compared. As a result, a higher quality mask image could be generated by using the Adam method. Therefore, when performing DSA, it is considered preferable to optimize by the Adam method.

[実施例3]
本実施例では、5層の畳み込み層を有するニューラルネットワークを用いて、頭部についてDSA画像の生成を行った。5層の畳み込み層に関する情報は、図4Cで示されるとおりである。また、本実施例では、学習において、352セットのフレーム(512×512)を用いた。なお、各フレームは、原フレーム(1024×1024)を縮小したものである。また、そのフレームのセットから、1267200組の入力用訓練画像と出力用訓練画像との組を切り出して用いた。なお、入力用訓練画像及び出力用訓練画像は、32×32の画像とした。したがって、入力画像(512×512)も32×32の分割画像に分割し、その各入力分割画像(32×32)から出力分割画像(32×32)を生成し、その生成した出力分割画像を結合することによって、最終的なマスク画像(出力画像)を生成した。また、バッチサイズを1000とし、epoch数を100とした。また、本実施例では、ニューラルネットワークの学習を行うシステムにおいて、Corei5−3570 3.4GHzのCPUを用いた。それ以外は、実施例1と同様に学習を行った。
[Example 3]
In this embodiment, a DSA image is generated for the head using a neural network having five convolution layers. Information about the five convolutional layers is as shown in FIG. 4C. In this embodiment, 352 sets of frames (512 × 512) are used in learning. Each frame is a reduction of the original frame (1024 × 1024). Further, 1267200 sets of input training images and output training images were cut out from the set of frames and used. The input training image and the output training image were 32 × 32 images. Therefore, the input image (512 × 512) is also divided into 32 × 32 divided images, an output divided image (32 × 32) is generated from each input divided image (32 × 32), and the generated output divided image is The final mask image (output image) was generated by combining. The batch size was 1000 and the number of epochs was 100. In this embodiment, a Corei 5-3570 3.4 GHz CPU is used in a system for learning a neural network. Other than that, learning was performed in the same manner as in Example 1.

図6Cは、血管造影画像と、本実施例のマスク画像との一例を示す図である。図6Cで示されるように、5層のニューラルネットワークの学習結果を用いた頭部DSAにおいても、造影血管を除去できることが分かる。また、図7Cは、図6Cで示される血管造影画像及びマスク画像を用いた本実施例の頭部のDSA画像(本手法のDSA画像)と、血管造影前の画像をマスク画像として用いた頭部のDSA画像(従来のDSA画像)との一例を示す図である。従来のDSA画像では、楕円の範囲のように、動きに応じたアーチファクトが残っているが、本実施例のDSA画像では、そのようなアーチファクトが消えていることが分かる。したがって、被検体の頭部の大きな動きや、口、顎の動きがあった場合に、本実施例の効果が大きいことになる。なお、アーチファクトが存在しない部分において、本実施例のDSA画像は、従来のDSA画像と同程度の精度でDSAを実行できていることが分かる。したがって、本手法によるDSA画像の生成は、動きに起因するアーチファクトがある場合であっても、ない場合であっても、有効であることが分かる。   FIG. 6C is a diagram illustrating an example of an angiographic image and a mask image of the present embodiment. As shown in FIG. 6C, it can be seen that contrast blood vessels can be removed even in the head DSA using the learning result of the five-layer neural network. FIG. 7C shows a head DSA image (DSA image of the present technique) of the present embodiment using the angiographic image and mask image shown in FIG. 6C and a head using an image before angiography as a mask image. It is a figure which shows an example with the DSA image (conventional DSA image) of a part. In the conventional DSA image, an artifact corresponding to the motion remains as in the range of an ellipse, but it can be seen that such an artifact disappears in the DSA image of this embodiment. Therefore, the effect of the present embodiment is great when there is a large movement of the head of the subject and movements of the mouth and chin. Note that it can be seen that the DSA image of this example can execute DSA with the same degree of accuracy as the conventional DSA image in a portion where no artifact exists. Therefore, it can be seen that the DSA image generation by this method is effective whether or not there is an artifact caused by motion.

また、本実施例において、1層目の中間層である畳み込み層のフィルタサイズ15×15の一辺は、生体において約7mm程度となる。したがって、本実施例においても、1層目の中間層は、一辺が3mm以上の長さに対応するフィルタを用いた畳み込み層となっている。   Further, in this embodiment, one side of the filter size 15 × 15 of the convolution layer that is the first intermediate layer is about 7 mm in the living body. Therefore, also in the present embodiment, the first intermediate layer is a convolution layer using a filter whose side corresponds to a length of 3 mm or more.

なお、本実施の形態による生体画像処理装置1は、以上の実施例に限定されることなく、種々の変更が可能であることは言うまでもない。例えば、上記実施例1〜3では、ニューラルネットワークの中間層及び出力層がすべて畳み込み層であるとしたが、ニューラルネットワークにプーリング層等の畳み込み層以外の層が含まれてもよいことは言うまでもない。例えば、ニューラルネットワークの入力層に入力される画像サイズが512×512である場合には、畳み込み層の後段にプーリング層を設けることが好適である。また、各画像のサイズや、各画素のビット数も問わない。また、上記実施例1〜3の訓練データに関しては、入力用フレームと出力用フレームとを手動で対応付けたが、例えば、パターンマッチング等の手法を用いて、両者の対応付けを自動で行うようにしてもよい。また、各層においてバイアスを用いてもよい。   Needless to say, the biological image processing apparatus 1 according to the present embodiment is not limited to the above-described examples, and various modifications can be made. For example, in the first to third embodiments, the intermediate layer and the output layer of the neural network are all convolutional layers. Needless to say, the neural network may include layers other than the convolutional layer such as a pooling layer. . For example, when the image size input to the input layer of the neural network is 512 × 512, it is preferable to provide a pooling layer after the convolution layer. Further, the size of each image and the number of bits of each pixel are not limited. In addition, regarding the training data of the first to third embodiments, the input frame and the output frame are manually associated with each other. However, for example, a method such as pattern matching is automatically associated with each other. It may be. Further, a bias may be used in each layer.

以上のように、本実施の形態による生体画像処理装置1によれば、ニューラルネットワークの学習結果を用いることにより、目的物である造影血管を含む血管造影画像から、造影血管を除去したマスク画像を生成することができる。したがって、マスク画像用のX線撮影を行わなくても、マスク画像を得ることができることになるため、被検者の被曝量を低減でき、また、被検者の検査時間を短くすることができる。また、血管造影画像からマスク画像を生成するため、動きのある臓器についても、また、撮影系が大きく移動されたとしても、血管以外の背景が適切に除去されたDSA画像を取得することができ、アーチファクトを低減したDSAを実現できる。また、マスク画像を撮影するための構成や、オリジナル画像からマスク画像を生成するための光学的な構成を用いることなくマスク画像を生成できるため、装置の大型化を回避しながら、マスク画像を生成することができるメリットもある。   As described above, according to the biological image processing apparatus 1 according to the present embodiment, the mask image obtained by removing the contrasted blood vessels from the blood vessel contrast image including the contrasted blood vessels as the target object is obtained by using the learning result of the neural network. Can be generated. Therefore, since the mask image can be obtained without performing X-ray imaging for the mask image, the exposure dose of the subject can be reduced and the examination time of the subject can be shortened. . In addition, since the mask image is generated from the angiographic image, it is possible to obtain a DSA image in which a background other than blood vessels is appropriately removed even for a moving organ or even if the imaging system is moved greatly. DSA with reduced artifacts can be realized. In addition, since it is possible to generate a mask image without using a configuration for capturing a mask image or an optical configuration for generating a mask image from an original image, the mask image can be generated while avoiding an increase in the size of the apparatus. There is also a merit that can be done.

なお、血管の除去は、ノイズの除去と同様であると考えることもできるため、本願の発明者らは、ノイズの除去を行うことができるautoencoder(Denoising Autoencoder)を用いてDSAの血管造影画像からマスク画像の生成を行ったが、適切に造影血管を除去することはできなかった。したがって、上記のニューラルネットワークを用いた手法は、そのようなautoencoderより、血管等の除去に対して効果的であるということができる。なお、autoencoderを用いたノイズ除去については、例えば、次の文献を参照されたい。
文献:西尾瑞穂、「深層学習を用いた超低線量CTのノイズ除去とその臨床応用」、公益財団法人ひょうご科学技術協会、学術研究助成成果報告書、2016年
Since removal of blood vessels can be considered to be similar to removal of noise, the inventors of the present application can use an autoencoder (Denoising Autoencoder) that can remove noise from a DSA angiographic image. Although the mask image was generated, the contrasted blood vessels could not be removed appropriately. Therefore, it can be said that the technique using the neural network is more effective for removing blood vessels and the like than such an autoencoder. For noise removal using autoencoder, refer to the following document, for example.
References: Mizuho Nishio, “Noise removal of ultra-low dose CT using deep learning and its clinical application”, Hyogo Science and Technology Association, Academic Research Grant Results Report, 2016

以下、撮影部位ごとに、本実施の形態によるDSAの効果について説明する。
頭部:意識障害等で静止不可能な被検者についてもDSAを行って血管の形態を観察することができるようになる。
腹部:肝動脈の栄養血管の塞栓治療では、従来、呼吸による横隔膜の動きによるアーチファクトを削減するため、息止めをした状態で撮影・治療を行っていたが、本手法により、息止めをしなくてもDSAを行うことができるため、息止めのできない被検者に適応可能となる。
冠動脈:心臓の拍動や肋骨、横隔膜の動きが大きく、アーチファクトを生じるため、従来はDSAが行われていなかったが、本手法により、DSAを行うことができるようになる。その結果、狭窄した血管を映し出すことが可能になる。例えば、心臓の閉塞性心疾患において、冠状動脈の狭窄の程度を精密かつ詳細に評価可能となるため、心臓バイパス手術が必要なのか、またはステント留置術のような侵襲性の少ない治療を適用できるのかといった治療方針の決定に寄与することになる。また、ステント留置後に開通した微細血管も観察可能となる。そのため、患者の予後判断に寄与することになる。
肺:本手法により、息止めのできない被検者にもDSAを行うことができるようになる。
上肢・下肢:上肢・下肢においては、撮影系の移動が大きいため、従来はDSAが行われていないが、本手法では、DSAを行うことができるようになる。
Hereinafter, the effects of the DSA according to the present embodiment will be described for each imaging region.
Head: A subject who cannot be stationary due to disturbance of consciousness or the like can also perform DSA to observe the form of blood vessels.
Abdomen: In the embolization treatment of hepatic artery feeding blood vessels, in order to reduce the artifacts caused by the movement of the diaphragm due to breathing, imaging and treatment were performed in the state of holding the breath. However, since DSA can be performed, it can be applied to a subject who cannot hold his / her breath.
Coronary arteries: Heart pulsation, ribs, and diaphragm movement are large, and artifacts are generated, so DSA has not been performed in the past, but this method makes it possible to perform DSA. As a result, a narrowed blood vessel can be projected. For example, since the degree of coronary artery stenosis can be evaluated precisely and in detail in occlusive heart disease of the heart, cardiac bypass surgery is required or less invasive treatment such as stent placement can be applied It will contribute to the decision of the treatment policy. It is also possible to observe the fine blood vessels opened after the stent placement. Therefore, it contributes to the patient's prognosis determination.
Lung: This technique makes it possible to perform DSA even on subjects who cannot hold their breath.
Upper extremity / lower extremity: In the upper extremity / lower extremity, since the movement of the imaging system is large, DSA is not performed conventionally, but in this method, DSA can be performed.

なお、上記説明では、2次元のDSAについて主に説明したが、3次元のDSAについても同様にして回転する撮影系でマスク像を得て、造影剤を投与したのち、同様に回転する撮影系で画像をえる3次元DSAにおいても、マスク画像を生成することができる。また、本実施の形態による手法を用いて、DSA以外の処理を行ってもよいことは上記のとおりである。本実施の形態による生体画像処理装置1で扱う生体画像は、例えば、単純X線写真、CT画像、MRI画像、核医学画像(例えば、PET画像、SPECT画像等)、超音波画像、サーモグラフィー画像等の生体画像であってもよい。また、生体画像は、通常、人間の画像であるが、人間以外の生物の画像を生体画像として用いてもよい。例えば、生体画像は、動物の画像であってもよい。また、画像処理部13による画像処理や、減算処理部15による減算処理としては、例えば、次のようなものもある。   In the above description, the two-dimensional DSA is mainly described. However, the three-dimensional DSA is also rotated in the same manner, and a mask image is obtained by the imaging system that rotates in the same manner. A mask image can be generated even in a three-dimensional DSA that obtains an image by the above method. In addition, as described above, processing other than DSA may be performed using the method according to the present embodiment. The biological images handled by the biological image processing apparatus 1 according to the present embodiment are, for example, simple X-ray photographs, CT images, MRI images, nuclear medicine images (for example, PET images, SPECT images, etc.), ultrasonic images, thermographic images, etc. It may be a living body image. The biological image is normally a human image, but an image of a living organism other than a human may be used as the biological image. For example, the biological image may be an animal image. Examples of the image processing by the image processing unit 13 and the subtraction processing by the subtraction processing unit 15 include the following.

1.目的物の抽出処理
被検者の画像から目的物を抽出することを目的とする。上記DSAも、この処理に含まれる。目的物は、例えば、骨、血管、尿管、膵管、胆管、肺、肝臓、腎臓、膵臓等であってもよい。また、目的物は、病変や異常構造であってもよい。病変や異常構造は、例えば、炎症、腫瘍、結石、狭窄、動脈瘤等であってもよい。
1. Object extraction processing The object is to extract the object from the subject's image. The DSA is also included in this process. The target object may be, for example, bone, blood vessel, ureter, pancreatic duct, bile duct, lung, liver, kidney, pancreas and the like. Further, the target object may be a lesion or an abnormal structure. The lesion or abnormal structure may be, for example, inflammation, tumor, calculus, stenosis, aneurysm or the like.

目的物が血管である場合には、上記DSAとなる。また、目的物が尿管、膵管、胆管である場合にも、造影後のX線画像を、目的物を含む生体画像とし、造影前のX線画像、すなわち造影剤を投与していない生体のX線画像を、目的物を含まない生体画像として学習を行うことによって、上記DSAと同様に、学習後のニューラルネットワークを用いて、造影後のX線画像から、造影箇所を除去したマスク画像である出力画像を生成することができる。そして、造影後のX線画像から、そのマスク画像を減算処理することによって、上記DSAと同様に、尿管や膵管、胆管の造影画像の抽出された減算画像を生成することができる。   When the target is a blood vessel, the DSA is used. In addition, even when the target object is a ureter, pancreatic duct, or bile duct, the X-ray image after the contrast is made into a biological image including the target object, and the X-ray image before the contrast, that is, the living body not administered with the contrast agent By learning an X-ray image as a living body image that does not include a target object, a mask image obtained by removing a contrast portion from an X-ray image after contrast using a neural network after learning, as in the case of the DSA. An output image can be generated. Then, by subtracting the mask image from the contrast-enhanced X-ray image, a subtracted image in which contrast images of the ureter, pancreatic duct, and bile duct are extracted can be generated in the same manner as the DSA.

目的物が血管、尿管、膵管、胆管以外の臓器や骨である場合には、生体画像は、CTやMRIの断層画像であってもよい。その場合には、断層画像そのものが、目的物を含む生体画像となる。また、その断層画像から、手作業の画像処理により目的物である臓器や骨を削除した画像を、目的物を含まない生体画像としてもよい。そして、それらを用いた学習結果のニューラルネットワークによって、断層画像から、目的物である臓器や骨を除去したマスク画像である出力画像を生成することができる。その後、断層画像である入力画像から、その断層画像から生成されたマスク画像を減算処理することによって、目的物である臓器や骨の抽出された減算画像を生成することができる。   When the target object is an organ or bone other than a blood vessel, ureter, pancreatic duct, or bile duct, the biological image may be a CT or MRI tomographic image. In that case, the tomographic image itself becomes a biological image including the target object. Further, an image obtained by deleting the target organ or bone from the tomographic image by manual image processing may be used as a biological image that does not include the target object. Then, an output image, which is a mask image obtained by removing the target organs and bones, can be generated from the tomographic image by a neural network of learning results using them. Thereafter, by subtracting the mask image generated from the tomographic image from the input image that is a tomographic image, a subtracted image in which the target organ or bone is extracted can be generated.

目的物が病変や異常構造である場合にも、目的物が骨等である場合と同様にして、目的物を抽出することができる。その場合には、病変や異常構造を含むX線画像やCT画像、MRI画像、PET画像、SPECT画像、超音波画像、サーモグラフィー画像等が、目的物を含む生体画像であってもよい。また、その病変や異常構造を含む生体画像から、病変や異常構造を手作業の画像処理によって削除した画像を、目的物を含まない生体画像としてもよい。また、可能であれば、同一の被検者について取得された、病変や異常構造の発生する前の生体画像、すなわち、病変や異常構造を含まない生体画像を、目的物を含まない生体画像としてもよい。また、病変や異常構造を有する第1の被検者の生体画像を、目的物を含む生体画像とし、病変や異常構造を有していない第2の被検者の生体画像を、目的物を含まない生体画像としてもよい。第1の被検者と第2の被検者とは、異なる被検者である。その場合であっても、目的物を含む生体画像と、目的物を含まない生体画像とは、同じ箇所の近似している生体画像であることが好適である。具体的には、両生体画像が肝臓や腎臓等の生体画像である場合には、肝臓や腎臓等を同じ方向から、同じ範囲で含む近似した生体画像であることが好適である。また、被検者の病変や異常構造の箇所の生体画像を、目的物を含む生体画像とし、同じ被検者の病変や異常構造の存在しない箇所の生体画像を、目的物を含まない生体画像としてもよい。その場合であっても、目的物を含む生体画像と、目的物を含まない生体画像とは、近似している生体画像であることが好適である。そして、それらを用いた学習結果のニューラルネットワークによって、目的物である病変や異常構造を含む生体画像から、病変や異常構造を除去したマスク画像である出力画像を生成することができる。その後、目的物である病変や異常構造を含む生体画像である入力画像から、その生体画像から生成されたマスク画像を減算処理することによって、目的物である病変や異常構造(例えば、結石や腫瘍等)の抽出された減算画像を生成することができる。   Even when the target object is a lesion or an abnormal structure, the target object can be extracted in the same manner as when the target object is a bone or the like. In that case, X-ray images, CT images, MRI images, PET images, SPECT images, ultrasound images, thermographic images, and the like including lesions and abnormal structures may be biological images including the target object. Further, an image obtained by deleting the lesion or abnormal structure by manual image processing from the biological image including the lesion or abnormal structure may be a biological image not including the target object. If possible, a biometric image obtained for the same subject before the occurrence of a lesion or an abnormal structure, that is, a biometric image that does not include a lesion or an abnormal structure is used as a biological image that does not include a target object. Also good. Further, the biological image of the first subject having a lesion or abnormal structure is used as a biological image including the target object, and the biological image of the second subject having no lesion or abnormal structure is used as the target object. It may be a biological image not included. The first subject and the second subject are different subjects. Even in such a case, it is preferable that the biological image including the target object and the biological image not including the target object are biological images that approximate the same part. Specifically, when both biological images are biological images such as a liver and a kidney, it is preferable that they are approximated biological images including the liver, the kidney, and the like in the same range from the same direction. In addition, a biological image of a subject's lesion or abnormal structure is taken as a biological image including the target object, and a biological image of a part where the same subject's lesion or abnormal structure does not exist is a biological image not including the target object It is good. Even in that case, it is preferable that the biological image including the target object and the biological image not including the target object are approximated biological images. Then, an output image, which is a mask image obtained by removing lesions and abnormal structures, from a biological image including lesions and abnormal structures, which are target objects, can be generated by a neural network of learning results using them. After that, by subtracting the mask image generated from the biological image from the input image, which is a biological image including the target lesion or abnormal structure, the target lesion or abnormal structure (for example, calculus or tumor) Etc.) can be generated.

2.目的物の除去及び付加
被検者の画像から目的物を除去したり、付加したりすることを目的とする。目的物は、例えば、体内の医療機器であってもよい。体内の医療機器とは、例えば、ステント、コイル、クリップ、カテーテル、人工骨頭、インプラント等である。
2. Removal and addition of target object The purpose is to remove or add the target object from the subject's image. The target object may be, for example, a medical device in the body. Examples of the medical device in the body include a stent, a coil, a clip, a catheter, an artificial bone head, and an implant.

(1)目的物の除去
目的物であるステント等を体内に埋め込んだ後に撮影したX線画像やCT画像、MRI画像等が目的物を含む生体画像となる。また、目的物であるステント等を体内に埋め込む前に撮影したX線画像等を、目的物を含まない生体画像としてもよい。また、目的物を含む生体画像から、目的物を手作業の画像処理によって削除した画像を、目的物を含まない生体画像としてもよい。そして、それらを用いた学習結果のニューラルネットワークによって、目的物であるステント等を含む生体画像から、目的物であるステント等を除去した出力画像を生成することができる。この場合には、生体画像処理装置1は、減算処理部15や減算画像出力部16を備えていなくてもよい。また、生体画像処理装置1は、出力画像を出力する出力部を備えていてもよい。その出力部は、出力対象が異なる以外、減算画像出力部16と同様のものであってもよい。
(1) Removal of target object An X-ray image, a CT image, an MRI image, etc. taken after a target stent or the like is implanted in the body is a biological image including the target object. Further, an X-ray image or the like taken before the target stent or the like is implanted in the body may be a biological image that does not include the target object. Further, an image obtained by deleting a target object by manual image processing from a biological image including the target object may be used as a biological image not including the target object. Then, an output image obtained by removing the target stent or the like from the biological image including the target stent or the like can be generated by a learning result neural network. In this case, the biological image processing apparatus 1 may not include the subtraction processing unit 15 and the subtraction image output unit 16. The biological image processing apparatus 1 may include an output unit that outputs an output image. The output unit may be the same as the subtraction image output unit 16 except that the output target is different.

(2)目的物の付加
上記(1)と同様に学習を行い、その学習結果を用いた出力画像の生成によって、マスク画像を生成する。そして、そのマスク画像と、出力画像の生成で用いられた目的物であるステント等を含む生体画像とを用いて、ステント等を含む生体画像からマスク画像を減算処理することによって、目的物であるステント等の抽出された減算画像を生成することができる。
(2) Addition of object Learning is performed in the same manner as in (1) above, and a mask image is generated by generating an output image using the learning result. Then, the mask image is subtracted from the biological image including the stent or the like using the mask image and the biological image including the stent or the like that is the target used in generating the output image. An extracted subtracted image of a stent or the like can be generated.

ここで、上記1.において、骨や血管等の抽出を行った場合には、マスク画像にステント等も含まれることになるため、ステント等の除去された減算画像が生成されることになる。したがって、その場合には、上記1.の減算画像に、上記のようにして生成された、目的物であるステント等の抽出された減算画像を合成することによって、目的物であるステント等を含む血管や骨などの画像を取得することができる。なお、この場合には、1.の処理と、2.(2)の処理とにおいて、入力画像は同じ画像となる。また、1.の減算画像と、2.(2)の減算画像とを合成するとは、1.の減算画像に含まれる目的物(例えば、血管等)と、2.(2)の減算画像に含まれる目的物(例えば、ステント等)との位置関係が分かるように両者が合成されることを意味しており、そのような合成が行われるのであれば、合成の方法は問わない。また、上記1.のDSAの減算画像において、ステント等が残っていることもある。例えば、血管造影画像においてステント像が血管と似ている場合には、上記1.においてマスク画像を生成する際に、ステント等が除去されたマスク画像が生成されることになり、その結果、1.の減算画像には、ステント等が残ることになる。そのように、DSAの減算画像にステント等が残っている場合には、(2)の目的物の付加の処理を行わなくてもよいことになる。また、目的物がカテーテルである場合には、通常、冠動脈の血管造影画像において、カテーテル像は血管に類似したものとなるため、上記1.においてマスク画像を生成する際には、カテーテルが除去されたマスク画像が生成され、その結果、1.のDSAの減算画像にカテーテル像が残る。したがって、目的物がカテーテルである冠動脈のDSAの場合には、(2)の目的物の付加の処理を行わなくてもよい。   Here, the above 1. In this case, when extracting bones and blood vessels, the stent image is included in the mask image, so that a subtracted image from which the stent is removed is generated. Therefore, in that case, the above 1. By synthesizing the extracted subtracted image of the target stent, etc., generated as described above, with the subtracted image, the image of blood vessels, bones, etc. including the target stent, etc. is acquired. Can do. In this case, 1. 1 and 2. In the process (2), the input image is the same image. In addition, 1. 1. Subtracted image of 2. To combine the subtracted image of (2): 1. an object (for example, a blood vessel) included in the subtracted image of 2. This means that both are combined so that the positional relationship with the target object (for example, stent) included in the subtracted image in (2) can be understood. It doesn't matter how. The above 1. In the DSA subtraction image, a stent or the like may remain. For example, when the stent image resembles a blood vessel in an angiographic image, the above 1. When the mask image is generated in step 1, a mask image from which the stent and the like are removed is generated. In this subtracted image, a stent or the like remains. As described above, when a stent or the like remains in the DSA subtraction image, it is not necessary to perform the object addition processing in (2). When the target is a catheter, the catheter image is usually similar to a blood vessel in angiographic images of coronary arteries. When generating a mask image in step 1, a mask image from which the catheter has been removed is generated. A catheter image remains in the DSA subtraction image. Therefore, in the case of a coronary artery DSA in which the object is a catheter, the object addition process of (2) may not be performed.

なお、上記説明のように、減算処理が不要である場合もありうる。そのような場合には、生体画像処理装置1は、減算処理部15と減算画像出力部16とを備えていなくてもよい。また、その場合には、生体画像処理装置1は、上記のように、画像処理部13によって生成された出力画像を出力する出力部を備えていてもよい。   As described above, there may be a case where the subtraction process is unnecessary. In such a case, the biological image processing apparatus 1 may not include the subtraction processing unit 15 and the subtraction image output unit 16. In this case, the biological image processing apparatus 1 may include an output unit that outputs the output image generated by the image processing unit 13 as described above.

また、本実施の形態では、学習と、学習結果を用いた処理とが一連の処理として行われる場合について説明したが、そうでなくてもよい。学習と、学習結果を用いた処理とは、別々に行われてもよい。学習を行う生体画像処理装置は、例えば、入力用訓練画像と出力用訓練画像とを受け付ける受付部11と、両訓練画像を用いて目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する学習部12とを備えていてもよい。また、その装置は、学習結果である複数のパラメータを出力する出力部を備えていてもよい。その出力は、例えば、情報の送信や、記録媒体への情報の蓄積、他の構成要素への情報の引き渡し等であってもよい。また、学習結果を用いた処理を行う生体画像処理装置は、例えば、入力画像を受け付ける受付部11と、目的物を含む生体画像から目的物を含まない生体画像を生成するニューラルネットワークの学習結果の画像処理を用いて、受付部11によって受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理部13とを備えていてもよい。その画像処理部13は、別の装置による学習結果である複数のパラメータを用いて、画像処理を行うものである。また、その生体画像処理装置は、出力画像を出力する出力部をさらに備えていてもよく、または、減算処理部15や減算画像出力部16をさらに備えていてもよい。   In the present embodiment, the case where learning and processing using the learning result are performed as a series of processing has been described, but this need not be the case. The learning and the process using the learning result may be performed separately. The biological image processing apparatus that performs learning generates, for example, a reception unit 11 that receives an input training image and an output training image, and generates a biological image that does not include a target object from a biological image that includes the target object using both training images. And a learning unit 12 that learns a neural network that performs image processing. In addition, the apparatus may include an output unit that outputs a plurality of parameters that are learning results. The output may be, for example, transmission of information, accumulation of information on a recording medium, delivery of information to other components, and the like. The biological image processing apparatus that performs processing using the learning result includes, for example, a reception unit 11 that receives an input image and a learning result of a neural network that generates a biological image that does not include a target object from a biological image that includes the target object. An image processing unit 13 that generates an output image obtained by removing an object from the input image received by the receiving unit 11 using image processing may be provided. The image processing unit 13 performs image processing using a plurality of parameters as learning results from another device. The biological image processing apparatus may further include an output unit that outputs an output image, or may further include a subtraction processing unit 15 and a subtraction image output unit 16.

なお、上記のように、目的物を含まない生体画像は、例えば、目的物のないときに取得された生体画像であってもよく、目的物を含む生体画像から目的物が消去された生体画像であってもよい。   Note that, as described above, the biological image that does not include the target object may be, for example, a biological image acquired when there is no target object, or a biological image in which the target object is deleted from the biological image that includes the target object. It may be.

また、本実施の形態において、受付部11は、例えば、血管造影装置や、PET・SPECT・MRI等の装置から入力画像等を受け付けてもよく、または、記録媒体から入力画像等を受け付けてもよい。前者の場合には、生体画像処理装置1は、リアルタイム処理で入力画像から出力画像を生成してもよい。また、生体画像処理装置1は、リアルタイム処理ではなく、バッチ処理で入力画像から出力画像を生成してもよい。   In the present embodiment, the accepting unit 11 may accept an input image or the like from an angiography apparatus, an apparatus such as PET / SPECT / MRI, or may accept an input image or the like from a recording medium. Good. In the former case, the biological image processing apparatus 1 may generate an output image from the input image by real-time processing. The biological image processing apparatus 1 may generate an output image from an input image by batch processing instead of real-time processing.

また、上記実施の形態では、生体画像処理装置1がスタンドアロンである場合について説明したが、生体画像処理装置1は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、受付部や出力部は、通信回線を介して情報を受け付けたり、情報を出力したりしてもよい。   In the above embodiment, the case where the biological image processing apparatus 1 is a stand-alone has been described. However, the biological image processing apparatus 1 may be a stand-alone apparatus or a server apparatus in a server / client system. Good. In the latter case, the receiving unit and the output unit may receive information or output information via a communication line.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。   In the above embodiment, each process or each function may be realized by centralized processing by a single device or a single system, or may be distributedly processed by a plurality of devices or a plurality of systems. It may be realized by doing.

また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。   In the above embodiment, the information exchange between the components is performed by one component when, for example, the two components that exchange the information are physically different from each other. It may be performed by outputting information and receiving information by the other component, or when two components that exchange information are physically the same, one component May be performed by moving from the phase of the process corresponding to to the phase of the process corresponding to the other component.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。   In the above embodiment, information related to processing executed by each component, for example, information received, acquired, selected, generated, transmitted, or received by each component In addition, information such as threshold values, mathematical formulas, addresses, and the like used by each constituent element in processing may be temporarily or for a long time held in a recording medium (not shown), even if not specified in the above description. Further, the storage of information on the recording medium (not shown) may be performed by each component or a storage unit (not shown). Further, reading of information from the recording medium (not shown) may be performed by each component or a reading unit (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。   In the above embodiment, when information used by each component, for example, information such as a threshold value, an address, and various setting values used by each component may be changed by the user, Even if it is not specified in the description, the user may be able to change the information as appropriate, or may not be so. If the information can be changed by the user, the change is realized by, for example, a not-shown receiving unit that receives a change instruction from the user and a changing unit (not shown) that changes the information in accordance with the change instruction. May be. The change instruction received by the receiving unit (not shown) may be received from an input device, information received via a communication line, or information read from a predetermined recording medium, for example. .

また、上記実施の形態において、生体画像処理装置1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。   In the above embodiment, when two or more constituent elements included in the biological image processing apparatus 1 have a communication device, an input device, etc., the two or more constituent elements have a physically single device. Or may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。なお、上記実施の形態における生体画像処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、目的物を含む生体画像である入力用訓練画像、目的物を含まない生体画像である出力用訓練画像、及び目的物を含む生体画像である入力画像を受け付ける受付部、受付部によって受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する学習部、学習部による学習結果であるニューラルネットワークの画像処理を用いて、受付部によって受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理部として機能させ、ニューラルネットワークは、複数の畳み込み層を有している、プログラムである。   In the above-described embodiment, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. At the time of execution, the program execution unit may execute the program while accessing the storage unit or the recording medium. The software that realizes the biological image processing apparatus in the above embodiment is the following program. That is, this program accepts a computer to accept an input training image that is a biological image including a target object, an output training image that is a biological image not including the target object, and an input image that is a biological image including the target object. A learning unit that learns a neural network that performs image processing to generate a biological image that does not include a target object from a biological image that includes the target object, using the training image for input and the training image for output received by the reception unit, Using the neural network image processing that is the learning result of the learning unit, the neural network functions as an image processing unit that generates an output image obtained by removing the target object from the input image received by the receiving unit. It is a program that has

なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を受け付ける受付部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。   In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, functions that can be realized only by hardware such as a modem and an interface card in a reception unit that receives information and an output unit that outputs information are not included in at least the functions realized by the program.

また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。   Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, or the like) is read out. May be executed by Further, this program may be used as a program constituting a program product.

また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。   Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

図9は、上記プログラムを実行して、上記実施の形態による生体画像処理装置1を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現されうる。
図9において、コンピュータシステム900は、CD−ROMドライブ905を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。
FIG. 9 is a schematic diagram showing an example of the external appearance of a computer that executes the program and realizes the biological image processing apparatus 1 according to the embodiment. The above-described embodiment can be realized by computer hardware and a computer program executed on the computer hardware.
In FIG. 9, the computer system 900 includes a computer 901 including a CD-ROM drive 905, a keyboard 902, a mouse 903, and a monitor 904.

図10は、コンピュータシステム900の内部構成を示す図である。図10において、コンピュータ901は、CD−ROMドライブ905に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM913と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANやWAN等への接続を提供する図示しないネットワークカードを含んでいてもよい。   FIG. 10 is a diagram showing an internal configuration of the computer system 900. In FIG. 10, in addition to the CD-ROM drive 905, a computer 901 is connected to an MPU (Micro Processing Unit) 911, a ROM 912 for storing a program such as a boot-up program, and the MPU 911. A RAM 913 that temporarily stores and provides a temporary storage space, a hard disk 914 that stores application programs, system programs, and data, and a bus 915 that interconnects the MPU 911, the ROM 912, and the like are provided. The computer 901 may include a network card (not shown) that provides connection to a LAN, WAN, or the like.

コンピュータシステム900に、上記実施の形態による生体画像処理装置1の機能を実行させるプログラムは、CD−ROM921に記憶されて、CD−ROMドライブ905に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD−ROM921、またはネットワークから直接、ロードされてもよい。また、CD−ROM921に代えて他の記録媒体(例えば、DVD等)を介して、プログラムがコンピュータシステム900に読み込まれてもよい。   A program that causes the computer system 900 to execute the functions of the biological image processing apparatus 1 according to the above-described embodiment may be stored in the CD-ROM 921, inserted into the CD-ROM drive 905, and transferred to the hard disk 914. Instead, the program may be transmitted to the computer 901 via a network (not shown) and stored in the hard disk 914. The program is loaded into the RAM 913 when executed. The program may be loaded directly from the CD-ROM 921 or the network. Further, the program may be read into the computer system 900 via another recording medium (for example, a DVD) instead of the CD-ROM 921.

プログラムは、コンピュータ901に、上記実施の形態による生体画像処理装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。   The program does not necessarily include an operating system (OS) or a third-party program that causes the computer 901 to execute the functions of the biological image processing apparatus 1 according to the above-described embodiment. The program may include only a part of an instruction that calls an appropriate function or module in a controlled manner and obtains a desired result. How the computer system 900 operates is well known and will not be described in detail.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   Further, the present invention is not limited to the above-described embodiment, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上より、本発明による生体画像処理装置等によれば、目的物を含む生体画像から、目的物を除去した生体画像を生成することができ、例えば、DSAのマスク画像の生成等に有用である。   As described above, according to the biological image processing apparatus and the like according to the present invention, it is possible to generate a biological image from which a target object is removed from a biological image including the target object, which is useful for generating a DSA mask image, for example. .

1 生体画像処理装置
11 受付部
12 学習部
13 画像処理部
14 記憶部
15 減算処理部
16 減算画像出力部
DESCRIPTION OF SYMBOLS 1 Living body image processing apparatus 11 Reception part 12 Learning part 13 Image processing part 14 Memory | storage part 15 Subtraction process part 16 Subtraction image output part

Claims (9)

目的物を含む生体画像である入力用訓練画像、目的物を含まない生体画像である出力用訓練画像、及び目的物を含む生体画像である入力画像を受け付ける受付部と、
前記受付部によって受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する学習部と、
前記学習部による学習結果であるニューラルネットワークの画像処理を用いて、前記受付部によって受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理部と、を備え、
前記ニューラルネットワークは、複数の畳み込み層を有している、生体画像処理装置。
A receiving unit that receives an input training image that is a biological image including a target object, an output training image that is a biological image not including the target object, and an input image that is a biological image including the target object;
A learning unit that learns a neural network that performs image processing for generating a biological image that does not include a target object from a biological image that includes a target object, using the training image for input and the training image for output received by the reception unit;
Using an image processing of a neural network that is a learning result by the learning unit, and an image processing unit that generates an output image by removing a target object from the input image received by the receiving unit,
The neural network has a plurality of convolution layers, and is a biological image processing apparatus.
目的物を含む生体画像である入力画像を受け付ける受付部と、
目的物を含む生体画像から目的物を含まない生体画像を生成するニューラルネットワークの学習結果の画像処理を用いて、前記受付部によって受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理部と、を備え、
前記ニューラルネットワークは、複数の畳み込み層を有している、生体画像処理装置。
A reception unit that receives an input image that is a biological image including a target;
An image for generating an output image obtained by removing the target object from the input image received by the receiving unit by using image processing of a learning result of the neural network that generates a biological image not including the target object from the biological image including the target object A processing unit,
The neural network has a plurality of convolution layers, and is a biological image processing apparatus.
前記ニューラルネットワークにおける中間層及び出力層はすべて畳み込み層である、請求項1または請求項2記載の生体画像処理装置。 The biological image processing apparatus according to claim 1, wherein the intermediate layer and the output layer in the neural network are all convolutional layers. 目的物を含む生体画像は、造影剤を投与した生体のX線画像である血管造影画像であり、
目的物を含まない生体画像は、造影剤を投与していない生体のX線画像であり、
前記出力画像は、デジタル差分血管造影法に用いられるマスク画像である、請求項1から請求項3のいずれか記載の生体画像処理装置。
The living body image including the target object is an angiographic image that is an X-ray image of a living body to which a contrast medium is administered,
A biological image that does not include a target object is an X-ray image of a biological body that is not administered with a contrast agent
The biological image processing apparatus according to claim 1, wherein the output image is a mask image used for digital differential angiography.
前記ニューラルネットワークにおける1層目の中間層は、一辺が3mm以上の長さに対応するフィルタを用いた畳み込み層である、請求項4記載の生体画像処理装置。 The biological image processing apparatus according to claim 4, wherein the first intermediate layer in the neural network is a convolution layer using a filter whose side corresponds to a length of 3 mm or more. 前記受付部によって受け付けられた入力画像である血管造影画像から、前記画像処理部によって当該血管造影画像から生成された出力画像であるマスク画像を減算処理する減算処理部と、
前記減算処理部によって減算処理された減算画像を出力する減算画像出力部と、をさらに備えた、請求項4または請求項5記載の生体画像処理装置。
A subtraction processing unit that subtracts a mask image that is an output image generated from the angiographic image by the image processing unit from an angiographic image that is an input image received by the receiving unit;
The biological image processing apparatus according to claim 4, further comprising: a subtracted image output unit that outputs a subtracted image subtracted by the subtracting unit.
目的物を含む生体画像である入力用訓練画像、及び目的物を含まない生体画像である出力用訓練画像を受け付ける第1の受付ステップと、
前記第1の受付ステップにおいて受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する学習ステップと、
目的物を含む生体画像である入力画像を受け付ける第2の受付ステップと、
前記学習ステップにおける学習結果であるニューラルネットワークの画像処理を用いて、前記第2の受付ステップにおいて受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理ステップと、を備え、
前記ニューラルネットワークは、複数の畳み込み層を有している、出力画像製造方法。
A first receiving step for receiving a training image for input that is a biological image including a target object and a training image for output that is a biological image not including the target object;
Learning to learn a neural network that performs image processing for generating a biological image that does not include a target object from a biological image that includes the target object, using the input training image and the output training image received in the first receiving step. Steps,
A second accepting step for accepting an input image that is a biological image including the object;
An image processing step of generating an output image obtained by removing an object from the input image received in the second receiving step using image processing of a neural network that is a learning result in the learning step;
The method for producing an output image, wherein the neural network has a plurality of convolutional layers.
目的物を含む生体画像である入力用訓練画像、及び目的物を含まない生体画像である出力用訓練画像を受け付ける受付ステップと、
前記受付ステップにおいて受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習することによって学習結果を取得する学習ステップと、を備え、
前記ニューラルネットワークは、複数の畳み込み層を有している、学習結果製造方法。
An accepting step for receiving an input training image that is a biological image including a target object and an output training image that is a biological image not including the target object;
A learning result by learning a neural network that performs image processing for generating a biological image not including a target object from a biological image including the target object using the input training image and the output training image received in the reception step. And a learning step,
The learning result manufacturing method, wherein the neural network has a plurality of convolutional layers.
コンピュータを、
目的物を含む生体画像である入力用訓練画像、目的物を含まない生体画像である出力用訓練画像、及び目的物を含む生体画像である入力画像を受け付ける受付部、
前記受付部によって受け付けられた入力用訓練画像及び出力用訓練画像を用いて、目的物を含む生体画像から目的物を含まない生体画像を生成する画像処理を行うニューラルネットワークを学習する学習部、
前記学習部による学習結果であるニューラルネットワークの画像処理を用いて、前記受付部によって受け付けられた入力画像から目的物を除去した出力画像を生成する画像処理部として機能させ、
前記ニューラルネットワークは、複数の畳み込み層を有している、プログラム。
Computer
A receiving unit that receives a training image for input that is a biological image including the target object, a training image for output that is a biological image that does not include the target object, and an input image that is a biological image including the target object;
A learning unit that learns a neural network that performs image processing to generate a biological image that does not include a target object from a biological image that includes a target object, using the input training image and the output training image received by the reception unit;
Using image processing of a neural network that is a learning result by the learning unit, function as an image processing unit that generates an output image obtained by removing an object from an input image received by the receiving unit,
The neural network has a plurality of convolution layers.
JP2016237623A 2016-12-07 2016-12-07 Biological image processing device, output image manufacturing method, learning result manufacturing method, and program Active JP6813178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016237623A JP6813178B2 (en) 2016-12-07 2016-12-07 Biological image processing device, output image manufacturing method, learning result manufacturing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016237623A JP6813178B2 (en) 2016-12-07 2016-12-07 Biological image processing device, output image manufacturing method, learning result manufacturing method, and program

Publications (2)

Publication Number Publication Date
JP2018089301A true JP2018089301A (en) 2018-06-14
JP6813178B2 JP6813178B2 (en) 2021-01-13

Family

ID=62564822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016237623A Active JP6813178B2 (en) 2016-12-07 2016-12-07 Biological image processing device, output image manufacturing method, learning result manufacturing method, and program

Country Status (1)

Country Link
JP (1) JP6813178B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019216848A (en) * 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program
JP2020022728A (en) * 2018-07-06 2020-02-13 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Determination of difference image dataset of examination volume
KR20200017188A (en) * 2018-08-08 2020-02-18 부산대학교 산학협력단 Apparatus for Enhancing Contrast and Resolution in a Grating Interferometer by Machine Learning
JP2020036773A (en) * 2018-09-05 2020-03-12 コニカミノルタ株式会社 Image processing apparatus, image processing method, and program
JP2020048707A (en) * 2018-09-25 2020-04-02 特定非営利活動法人エキスパートイメージングアンドインターベンショナルサポート Image processing device, image processing method and image processing program
JP2020064609A (en) * 2018-08-23 2020-04-23 ゼネラル・エレクトリック・カンパニイ Patient-specific deep learning image denoising methods and systems
JPWO2019138438A1 (en) * 2018-01-09 2021-01-14 株式会社島津製作所 Image creator and trained model generation method
JP2021006247A (en) * 2019-06-17 2021-01-21 ジーイー・プレシジョン・ヘルスケア・エルエルシー Medical image formation method and system
KR20210018461A (en) * 2018-06-15 2021-02-17 캐논 가부시끼가이샤 Medical image processing apparatus, medical image processing method, and computer-readable medium
JP2021041089A (en) * 2019-09-13 2021-03-18 株式会社島津製作所 Medical image processing device, x-ray image processing system and generation method of learning model
JP2021511874A (en) * 2018-01-31 2021-05-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Improved image quality virtual non-contrast image produced by a spectral computed tomography (CT) scanner
CN112822982A (en) * 2018-10-10 2021-05-18 株式会社岛津制作所 Image creation device, image creation method, and method for creating learned model
JP2021077044A (en) * 2019-11-07 2021-05-20 Fptジャパンホールディングス株式会社 Image processing apparatus, image processing method, and program
CN112969412A (en) * 2018-11-07 2021-06-15 皇家飞利浦有限公司 Deep profile bolus tracking
CN113017667A (en) * 2021-02-05 2021-06-25 上海市第六人民医院 Method, device and equipment for quantifying vascular stenosis and readable storage medium
WO2021132307A1 (en) * 2019-12-24 2021-07-01 興和株式会社 Ophthalmic image processing method, ophthalmic image processing device, and ophthalmic image processing program
US11144789B2 (en) 2018-09-25 2021-10-12 Honda Motor Co., Ltd. Model parameter learning device, control device, and model parameter learning method
US20210398259A1 (en) 2019-03-11 2021-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2022510329A (en) * 2019-05-29 2022-01-26 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Parking space detection method, equipment and electronic devices
JP2023514914A (en) * 2021-02-01 2023-04-12 クラリピーアイ インコーポレイテッド Deep learning-based contrast-enhanced CT image contrast amplification apparatus and method
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030194124A1 (en) * 2002-04-12 2003-10-16 The University Of Chicago Massive training artificial neural network (MTANN) for detecting abnormalities in medical images
US20050100208A1 (en) * 2003-11-10 2005-05-12 University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)
US20090010512A1 (en) * 2007-06-28 2009-01-08 Ying Zhu System and method for coronary digital subtraction angiography
US20090087070A1 (en) * 2007-09-26 2009-04-02 Slabaugh Gregory G Method and system for bone suppression based on a single x-ray image
US20090290779A1 (en) * 2008-05-21 2009-11-26 Riverain Medical Group, Llc Feature based neural network regression for feature suppression
US20100034446A1 (en) * 2008-08-06 2010-02-11 Siemens Corporate Research,Inc. System and Method for Coronary Digital Subtraction Angiography
WO2015197738A1 (en) * 2014-06-27 2015-12-30 Koninklijke Philips N.V. Silhouette display for visual assessment of calcified rib-cartilage joints
JP2016137007A (en) * 2015-01-26 2016-08-04 コニカミノルタ株式会社 Image display device and image display method
WO2016168194A1 (en) * 2015-04-13 2016-10-20 Case Western Reserve University Dual energy x-ray coronary calcium grading

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030194124A1 (en) * 2002-04-12 2003-10-16 The University Of Chicago Massive training artificial neural network (MTANN) for detecting abnormalities in medical images
US20050100208A1 (en) * 2003-11-10 2005-05-12 University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)
US20090010512A1 (en) * 2007-06-28 2009-01-08 Ying Zhu System and method for coronary digital subtraction angiography
US20090087070A1 (en) * 2007-09-26 2009-04-02 Slabaugh Gregory G Method and system for bone suppression based on a single x-ray image
US20090290779A1 (en) * 2008-05-21 2009-11-26 Riverain Medical Group, Llc Feature based neural network regression for feature suppression
US20100034446A1 (en) * 2008-08-06 2010-02-11 Siemens Corporate Research,Inc. System and Method for Coronary Digital Subtraction Angiography
WO2015197738A1 (en) * 2014-06-27 2015-12-30 Koninklijke Philips N.V. Silhouette display for visual assessment of calcified rib-cartilage joints
JP2016137007A (en) * 2015-01-26 2016-08-04 コニカミノルタ株式会社 Image display device and image display method
WO2016168194A1 (en) * 2015-04-13 2016-10-20 Case Western Reserve University Dual energy x-ray coronary calcium grading

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019138438A1 (en) * 2018-01-09 2021-01-14 株式会社島津製作所 Image creator and trained model generation method
JP2021511874A (en) * 2018-01-31 2021-05-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Improved image quality virtual non-contrast image produced by a spectral computed tomography (CT) scanner
JP7346429B2 (en) 2018-01-31 2023-09-19 コーニンクレッカ フィリップス エヌ ヴェ Virtual non-contrast images with improved image quality produced by a spectral computed tomography (CT) scanner
US11813101B2 (en) 2018-01-31 2023-11-14 Koninklijke Philips N.V. Image quality improved virtual non-contrast images generated by a spectral computed tomography (CT) scanner
JP7114358B2 (en) 2018-06-15 2022-08-08 キヤノン株式会社 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
KR102507711B1 (en) * 2018-06-15 2023-03-10 캐논 가부시끼가이샤 Medical image processing apparatus, medical image processing method, and computer readable medium
JP2019216848A (en) * 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program
KR20210018461A (en) * 2018-06-15 2021-02-17 캐논 가부시끼가이샤 Medical image processing apparatus, medical image processing method, and computer-readable medium
JP2020022728A (en) * 2018-07-06 2020-02-13 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Determination of difference image dataset of examination volume
US11017514B2 (en) 2018-07-06 2021-05-25 Siemens Healthcare Gmbh Determining a difference image dataset of an examination volume
KR102180569B1 (en) * 2018-08-08 2020-11-18 부산대학교 산학협력단 Apparatus for Enhancing Contrast and Resolution in a Grating Interferometer by Machine Learning
KR20200017188A (en) * 2018-08-08 2020-02-18 부산대학교 산학협력단 Apparatus for Enhancing Contrast and Resolution in a Grating Interferometer by Machine Learning
JP7053541B2 (en) 2018-08-23 2022-04-12 ゼネラル・エレクトリック・カンパニイ Patient-specific deep learning image denoising methods and systems
JP2020064609A (en) * 2018-08-23 2020-04-23 ゼネラル・エレクトリック・カンパニイ Patient-specific deep learning image denoising methods and systems
JP2020036773A (en) * 2018-09-05 2020-03-12 コニカミノルタ株式会社 Image processing apparatus, image processing method, and program
US11144789B2 (en) 2018-09-25 2021-10-12 Honda Motor Co., Ltd. Model parameter learning device, control device, and model parameter learning method
JP7283878B2 (en) 2018-09-25 2023-05-30 謙一 井上 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM
JP2020048707A (en) * 2018-09-25 2020-04-02 特定非営利活動法人エキスパートイメージングアンドインターベンショナルサポート Image processing device, image processing method and image processing program
CN112822982A (en) * 2018-10-10 2021-05-18 株式会社岛津制作所 Image creation device, image creation method, and method for creating learned model
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
CN112822982B (en) * 2018-10-10 2023-09-15 株式会社岛津制作所 Image forming apparatus, image forming method, and method for forming learning model
CN112969412A (en) * 2018-11-07 2021-06-15 皇家飞利浦有限公司 Deep profile bolus tracking
US11887288B2 (en) 2019-03-11 2024-01-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US20210398259A1 (en) 2019-03-11 2021-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2022510329A (en) * 2019-05-29 2022-01-26 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Parking space detection method, equipment and electronic devices
JP2021006247A (en) * 2019-06-17 2021-01-21 ジーイー・プレシジョン・ヘルスケア・エルエルシー Medical image formation method and system
US11398012B2 (en) 2019-06-17 2022-07-26 GE Precision Healthcare LLC Medical imaging method and system
JP7080924B2 (en) 2019-06-17 2022-06-06 ジーイー・プレシジョン・ヘルスケア・エルエルシー Medical Imaging Methods and Systems
JP2023103359A (en) * 2019-09-13 2023-07-26 株式会社島津製作所 Learning device, x-ray image processing system, and learning model generation method
JP2021041089A (en) * 2019-09-13 2021-03-18 株式会社島津製作所 Medical image processing device, x-ray image processing system and generation method of learning model
JP2021077044A (en) * 2019-11-07 2021-05-20 Fptジャパンホールディングス株式会社 Image processing apparatus, image processing method, and program
WO2021132307A1 (en) * 2019-12-24 2021-07-01 興和株式会社 Ophthalmic image processing method, ophthalmic image processing device, and ophthalmic image processing program
JP2023514914A (en) * 2021-02-01 2023-04-12 クラリピーアイ インコーポレイテッド Deep learning-based contrast-enhanced CT image contrast amplification apparatus and method
JP7376053B2 (en) 2021-02-01 2023-11-08 クラリピーアイ インコーポレイテッド Contrast enhancement CT image contrast amplification device and method based on deep learning
CN113017667A (en) * 2021-02-05 2021-06-25 上海市第六人民医院 Method, device and equipment for quantifying vascular stenosis and readable storage medium

Also Published As

Publication number Publication date
JP6813178B2 (en) 2021-01-13

Similar Documents

Publication Publication Date Title
JP6813178B2 (en) Biological image processing device, output image manufacturing method, learning result manufacturing method, and program
US8315355B2 (en) Method for operating C-arm systems during repeated angiographic medical procedures
JP4859446B2 (en) Angiographic X-ray diagnostic device for rotating angiography
JP6353044B2 (en) Medical image display apparatus, X-ray image navigation information providing method, computer program element, and storage medium
CN103327899B (en) Medical image processing system
US11207035B2 (en) Sensor-based patient treatment support
JP5836047B2 (en) Medical image processing device
US9050054B2 (en) Medical image diagnostic apparatus
JP2010193975A (en) Medical image processing device and medical image processing method
US20220104888A1 (en) Estimating the endoluminal path of an endoluminal device along a lumen
JP2023123542A (en) Blood vessel extraction device and blood vessel extraction method
JP2016067832A (en) Medical image processor, and medical image processing method
JP7357060B2 (en) Improved methods of angiography
CN107518911A (en) Medical diagnostic imaging apparatus and medical image-processing apparatus
JP2013172792A (en) Medical image diagnostic apparatus
JP2017537674A (en) Method and system for normalizing contrast over multiple acquisitions
JP2017202311A (en) Medical image diagnostic apparatus and management apparatus
US20160242723A1 (en) X-ray diagnostic apparatus, image processing apparatus, and image processing method
JP7051595B2 (en) Medical image processing equipment, medical image processing methods, and medical image processing programs
JP6824641B2 (en) X-ray CT device
JP2018538073A (en) Goal-oriented CT perfusion protocol
US10521912B2 (en) Image processing apparatus
JP7055629B2 (en) Medical image processing equipment, medical diagnostic imaging equipment, and medical image processing programs
KR102273022B1 (en) Tomography apparatus and method for reconstructing a tomography image thereof
WO2023100838A1 (en) Computer program, information processing device, information processing method, and training model generation method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20161209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6813178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250