JP2019208903A - Medical image processor, medical image processing method, medical image processing program - Google Patents

Medical image processor, medical image processing method, medical image processing program Download PDF

Info

Publication number
JP2019208903A
JP2019208903A JP2018108027A JP2018108027A JP2019208903A JP 2019208903 A JP2019208903 A JP 2019208903A JP 2018108027 A JP2018108027 A JP 2018108027A JP 2018108027 A JP2018108027 A JP 2018108027A JP 2019208903 A JP2019208903 A JP 2019208903A
Authority
JP
Japan
Prior art keywords
image
medical
predictor
volume data
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018108027A
Other languages
Japanese (ja)
Other versions
JP7051595B2 (en
Inventor
崇啓 鈴木
Takahiro Suzuki
崇啓 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2018108027A priority Critical patent/JP7051595B2/en
Publication of JP2019208903A publication Critical patent/JP2019208903A/en
Application granted granted Critical
Publication of JP7051595B2 publication Critical patent/JP7051595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Abstract

To provide a medical image processor capable of suppressing affection of noise in imaging of an analyte, and improving image quality of a plurality of phases of medical images.SOLUTION: A medical image processor comprises: an acquisition part for acquiring a plurality of medical images obtained by imaging multi times, a first analyte in time series; and a processor for generating a plurality of prediction images using a predictor which generates a prediction image corresponding to residual medical images out of the plurality of medical images, on the basis of some medical images out of the plurality of medical images. The processor sets at least two medical images forming a part of the plurality of medical images to training data, sets the residual medical image to teacher data, and sequentially changes a combination of some medical images and residual medical image, for causing the predictor to perform machine learning, and inputs some medical images out of the plurality of medical images to the predictor, then sequentially changes a combination of some medical images, for generating a plurality of prediction images.SELECTED DRAWING: Figure 6

Description

本開示は、医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムに関する。   The present disclosure relates to a medical image processing apparatus, a medical image processing method, and a medical image processing program.

従来、時系列に並んだ複数フェーズのボリュームデータにおいてボクセル毎の最大値を合成し、合成ボリュームデータを生成する画像処理方法が知られている。この画像処理方法では、例えば、複数フェーズのボリュームデータに対して共通の仮想光線を投射し、共通の仮想光線上の最大値である1の点の値を取得し、共通の仮想光線上の最大値である1の点の値を用いて、1枚の画像の各画素の画素値を決定する(例えば、特許文献1参照)。   Conventionally, an image processing method is known in which a maximum value for each voxel is synthesized in volume data of a plurality of phases arranged in time series to generate synthesized volume data. In this image processing method, for example, a common virtual ray is projected on volume data of a plurality of phases, the value of one point that is the maximum value on the common virtual ray is obtained, and the maximum on the common virtual ray is obtained. The pixel value of each pixel of one image is determined using the value of one point which is a value (see, for example, Patent Document 1).

特開2008−035895号公報JP 2008-035895 A

特許文献1で得られる1枚の画像の各画素の画素値は、ボリュームデータに対する各仮想光線の最大値となるので、この画像は、4DMIP(4D Maximum Intensity Projection)画像とも称される。4DMIP画像では、ボリュームデータに対する各仮想光線の最大値が画素値となるので、例えばボクセルの一部に高輝度ノイズが含まれる場合、この高輝度ノイズが最大値として画素値に反映され得る。   Since the pixel value of each pixel of one image obtained in Patent Document 1 is the maximum value of each virtual ray with respect to volume data, this image is also referred to as a 4DMIP (4D Maximum Intensity Projection) image. In the 4DMIP image, since the maximum value of each virtual ray with respect to the volume data is the pixel value, for example, when high luminance noise is included in a part of the voxel, this high luminance noise can be reflected as the maximum value in the pixel value.

また、CT(Computed Tomography)装置等の医用画像撮像装置により被検体が撮像される場合、ランダムノイズ等のノイズが含まれる実空間において被検体が撮像されるので、高輝度ノイズが完全に除去された状態で被検体を撮像することは困難である。よって、医用画像撮像装置により得られたボリュームデータに基づく4DMIP画像では、高輝度ノイズが含まれることで、実際の信号の成分(実信号成分)に基づく画素値よりも画素値(輝度値)が高くなり、つまり画像が白くなり易い。   In addition, when a subject is imaged by a medical imaging device such as a CT (Computed Tomography) device, the subject is imaged in a real space including noise such as random noise, so that high luminance noise is completely removed. It is difficult to image the subject in a state where Therefore, in the 4DMIP image based on the volume data obtained by the medical imaging apparatus, high luminance noise is included, so that the pixel value (luminance value) is higher than the pixel value based on the actual signal component (real signal component). It becomes high, that is, the image tends to be white.

本開示は、上記事情に鑑みてなされたものであり、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムを提供する。   The present disclosure has been made in view of the above circumstances, a medical image processing apparatus, a medical image processing method, and a medical image processing method capable of improving the image quality of a plurality of phases of medical images by suppressing the influence of noise during imaging of a subject. A medical image processing program is provided.

本開示の一態様は、第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得する取得部と、前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成する処理部と、を備え、前記処理部は、前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させ、前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成する。   According to one aspect of the present disclosure, an acquisition unit that acquires a plurality of medical images obtained by imaging a first subject a plurality of times in a time series, and some medical images of the plurality of medical images A processing unit that generates a plurality of predicted images using a predictor that generates a predicted image corresponding to the remaining medical images of the plurality of medical images, and the processing unit includes the plurality of predicted images. At least two medical images constituting a part of the medical images of the plurality of medical images are used as training data, and the remaining medical images of the plurality of medical images are used as teacher data. The medical image is sequentially changed, the predictor is machine-learned, a part of the plurality of medical images is input to the predictor, and the combination of the part of the medical images is sequentially changed. A plurality of the predicted images are generated.

本開示の一態様は、医用画像処理装置における医用画像処理方法であって、第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得するステップと、前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成するステップと、を有し、前記予測画像を生成するステップは、前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させるステップと、前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成するステップと、を含む。   One aspect of the present disclosure is a medical image processing method in a medical image processing apparatus, the step of acquiring a plurality of medical images obtained by imaging a first subject a plurality of times in a time series, and the plurality of the plurality of medical images Generating a plurality of predicted images using a predictor that generates predicted images corresponding to the remaining medical images of the plurality of medical images based on some of the medical images. And the step of generating the predicted image uses at least two medical images forming a part of the plurality of medical images as training data, and uses the remaining medical images of the plurality of medical images as training data. Changing the combination of the part of medical images and the remaining part of the medical image in order as teacher data, causing the predictor to perform machine learning, and predicting part of the medical images of the plurality of medical images Input , Including the sequentially changing the combination of some of the medical image, and generating a plurality of the prediction image.

本開示の一態様は、上記医用画像処理方法の各ステップをコンピュータに実行させるための医用画像処理プログラムである。   One aspect of the present disclosure is a medical image processing program for causing a computer to execute each step of the medical image processing method.

本開示によれば、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる。   According to the present disclosure, it is possible to improve the image quality of a plurality of phases of medical images by suppressing the influence of noise during imaging of a subject.

第1の実施形態における医用画像処理装置のハードウェア構成例を示すブロック図1 is a block diagram illustrating a hardware configuration example of a medical image processing apparatus according to a first embodiment. 第1の実施形態における医用画像処理装置の機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a medical image processing apparatus according to a first embodiment. 各予測画像の生成例と出力MIP画像の生成例とを説明するための図The figure for demonstrating the production example of each prediction image, and the production example of an output MIP image 予測器の学習フェーズ及び予測画像生成フェーズの一例を説明するための図The figure for demonstrating an example of the learning phase and prediction image generation phase of a predictor 医用画像処理装置の動作例の概要を示すフローチャートThe flowchart which shows the outline | summary of the operation example of a medical image processing apparatus. 第1の実施形態における医用画像処理装置による予測器の機械学習及び予測画像生成に係る動作例を示すフローチャートThe flowchart which shows the operation example which concerns on the machine learning and prediction image generation of the predictor by the medical image processing apparatus in 1st Embodiment. 4DMIP合成で生成された出力MPR画像とDeep 4DMIP合成で生成された出力MPR画像との一例を示す図The figure which shows an example of the output MPR image produced | generated by 4DMIP composition, and the output MPR image produced | generated by Deep 4DMIP composition 4DMIP合成で生成された出力レイキャスト画像とDeep 4DMIP合成で生成された出力レイキャスト画像との一例を示す図The figure which shows an example of the output ray-cast image produced | generated by 4DMIP composition, and the output ray-cast image produced | generated by Deep 4DMIP composition 複数フェーズのボリュームデータの合成方法別の適否情報の一例を示す図The figure which shows an example of the appropriateness information according to the synthetic | combination method of volume data of multiple phases 複数フェーズのボリュームデータの合成方法別且つ被検体における部位別の画像例を示す図The figure which shows the example of an image according to the synthetic | combination method of the volume data of multiple phases, and the site | part in a test object 複数フェーズのボリュームデータの合成方法別且つレンダリング方法別の画像例を示す図The figure which shows the example of an image according to the synthesis method and rendering method of volume data of multiple phases 被検体の頭部における部位別の各フェーズにおける画素値の変化例を示すグラフA graph showing an example of a change in pixel value in each phase for each part of the head of the subject 観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力MIP画像の一例を示す図The figure which shows an example of the output MIP image by which the volume data of the single phase of the to-be-observed subject were rendered 観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図The figure which shows an example of the output ray cast image by which the volume data of the single phase of the to-be-observed subject were rendered 観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図The figure which shows an example of the output MIP image by which the synthetic | combination volume data by which 4DMIP synthesis | combination of the volume data of the several phase of the to-be-observed subject was rendered 観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図The figure which shows an example of the output ray cast image by which the synthetic | combination volume data by which 4DMIP synthesis | combination of the volume data of the several phase of the to-be-observed subject was rendered 観察対象以外の被検体のボリュームデータを用いて予測器が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図An example of an output MIP image in which composite volume data in which volume data of a plurality of phases of a subject to be observed is combined with Deep 4DMIP is rendered when the predictor performs machine learning using volume data of a subject other than the subject to be observed Illustration 観察対象以外の被検体のボリュームデータを用いて予測器が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図An example of an output raycast image in which composite volume data in which volume data of a plurality of phases of a subject to be observed is combined with Deep 4DMIP is rendered when the predictor performs machine learning using the volume data of the subject other than the subject to be observed Figure showing 第2の実施形態における医用画像処理装置の機能構成例を示すブロック図FIG. 3 is a block diagram illustrating an example of a functional configuration of a medical image processing apparatus according to a second embodiment. 予測器及び識別器の機械学習の一例を説明するための図The figure for demonstrating an example of the machine learning of a predictor and a discriminator 予測対象と同一の被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図The figure which shows an example of the real volume data of the same subject as a prediction object, prediction volume data, and difference volume data 予測対象の被検体とは別の被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図The figure which shows an example of the real volume data, the prediction volume data, and difference volume data of the subject different from the subject to be predicted フェーズ平均4DMIP合成された場合の出力レイキャスト画像の一例を示す図The figure which shows an example of the output ray cast image at the time of phase average 4DMIP composition フェーズ平均4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図The figure which shows an example of the output MPR image at the time of phase average 4DMIP composition, and the pixel value of the specific range in an output MPR image Deep GAN 4DMIP合成された場合の出力レイキャスト画像の一例を示す図The figure which shows an example of the output raycast image at the time of Deep GAN 4DMIP composition Deep GAN 4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図The figure which shows an example of the output MPR image at the time of Deep GAN 4DMIP composition, and the pixel value of the specific range in an output MPR image フェーズ平均4DMIP合成された場合の脳の出力MPR画像の一例を示す図The figure which shows an example of the output MPR image of the brain at the time of phase average 4DMIP composition Deep GAN 4DMIP合成された場合の脳の出力MPR画像の一例を示す図The figure which shows an example of the output MPR image of the brain at the time of Deep GAN 4DMIP composition Deep 4DMIP合成された場合の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとがレンダリングされた画像の一例を示す図The figure which shows an example of the image by which real volume data, prediction volume data, and difference volume data at the time of Deep 4DMIP composition were rendered Deep GAN 4DMIP合成された場合の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとがレンダリングされた画像の一例を示す図The figure which shows an example of the image by which real volume data at the time of Deep GAN 4DMIP composition, prediction volume data, and difference volume data were rendered 第2の実施形態における医用画像処理装置による予測器及び識別器の機械学習及び予測画像生成に係る動作例を示すフローチャートThe flowchart which shows the operation example which concerns on the machine learning and prediction image generation of the predictor and discriminator by the medical image processing apparatus in 2nd Embodiment.

以下、本開示の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態における医用画像処理装置100の構成例を示すブロック図である。医用画像処理装置100は、ポート110、ユーザインタフェース(UI:User Interface)120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of a medical image processing apparatus 100 according to the first embodiment. The medical image processing apparatus 100 includes a port 110, a user interface (UI) 120, a display 130, a processor 140, and a memory 150.

医用画像処理装置100には、CT装置200が接続される。医用画像処理装置100は、CT装置200からボリュームデータを取得し、取得されたボリュームデータに対して処理を行う。医用画像処理装置100は、PC(Personal Computer)とPCに搭載されたソフトウェアにより構成されてもよい。   A CT apparatus 200 is connected to the medical image processing apparatus 100. The medical image processing apparatus 100 acquires volume data from the CT apparatus 200 and performs processing on the acquired volume data. The medical image processing apparatus 100 may be configured by a PC (Personal Computer) and software installed in the PC.

CT装置200は、生体へX線を照射し、体内の組織によるX線の吸収の違いを利用して、画像(CT画像)を撮像する。生体としては人体等が挙げられる。生体は、被検体の一例である。   The CT apparatus 200 irradiates a living body with X-rays and captures an image (CT image) using the difference in X-ray absorption by tissues in the body. Examples of the living body include a human body. A living body is an example of a subject.

CT画像は、時系列に複数撮像されてもよい。CT装置200は、生体内部の任意の箇所の情報を含むボリュームデータを生成する。生体内部の任意の箇所は、各種臓器(例えば脳、心臓、腎臓、大腸、小腸、肺、胸部、乳腺、前立腺、肺)を含んでもよい。CT画像が撮像されることにより、CT画像における各画素(ボクセル)の画素値(CT値、ボクセル値)が得られる。CT装置200は、CT画像としてのボリュームデータを医用画像処理装置100へ、有線回線又は無線回線を介して送信する。   A plurality of CT images may be taken in time series. The CT apparatus 200 generates volume data including information on an arbitrary location inside the living body. Arbitrary locations inside the living body may include various organs (for example, brain, heart, kidney, large intestine, small intestine, lung, breast, breast gland, prostate, lung). By capturing a CT image, pixel values (CT value, voxel value) of each pixel (voxel) in the CT image are obtained. The CT apparatus 200 transmits volume data as a CT image to the medical image processing apparatus 100 via a wired line or a wireless line.

具体的に、CT装置200は、ガントリ(図示せず)及びコンソール(図示せず)を備える。ガントリは、X線発生器(図示せず)やX線検出器(図示せず)を含み、コンソールにより指示された所定のタイミングで撮像することで、人体を透過したX線を検出し、X線検出データを得る。X線発生器は、X線管(図示せず)を含む。コンソールは、医用画像処理装置100に接続される。コンソールは、ガントリからX線検出データを複数取得し、X線検出データに基づいてボリュームデータを生成する。コンソールは、生成されたボリュームデータを、医用画像処理装置100へ送信する。コンソールは、患者情報、CT撮像に関する撮像条件、造影剤の投与に関する造影条件、その他の情報を入力するための操作部(図示せず)を備えてよい。この操作部は、キーボードやマウスなどの入力デバイスを含んでよい。   Specifically, the CT apparatus 200 includes a gantry (not shown) and a console (not shown). The gantry includes an X-ray generator (not shown) and an X-ray detector (not shown), detects X-rays transmitted through the human body by imaging at a predetermined timing designated by the console, Obtain line detection data. The X-ray generator includes an X-ray tube (not shown). The console is connected to the medical image processing apparatus 100. The console acquires a plurality of X-ray detection data from the gantry and generates volume data based on the X-ray detection data. The console transmits the generated volume data to the medical image processing apparatus 100. The console may include an operation unit (not shown) for inputting patient information, imaging conditions related to CT imaging, imaging conditions related to administration of a contrast agent, and other information. The operation unit may include an input device such as a keyboard and a mouse.

CT装置200は、連続的に撮像することで3次元のボリュームデータを複数取得し、動画を生成することも可能である。複数の3次元のボリュームデータによる動画のデータは、4D(4次元)データとも称される。   The CT apparatus 200 can also acquire a plurality of three-dimensional volume data by continuously capturing images and generate a moving image. The moving image data using a plurality of three-dimensional volume data is also referred to as 4D (four-dimensional) data.

CT装置200は、複数のタイミングの各々でCT画像を撮像してよい。CT装置200は、被検体が造影された状態で、CT画像を撮像してよい。CT装置200は、被検体が造影されていない状態で、CT画像を撮像してよい。   The CT apparatus 200 may capture a CT image at each of a plurality of timings. The CT apparatus 200 may capture a CT image in a state where the subject is contrasted. The CT apparatus 200 may capture a CT image in a state where the subject is not contrasted.

医用画像処理装置100内のポート110は、通信ポートや外部装置接続ポートを含み、CT画像から得られたボリュームデータを取得する。取得されたボリュームデータは、直ぐにプロセッサ140に送られて各種処理されてもよいし、メモリ150において保管された後、必要時にプロセッサ140へ送られて各種処理されてもよい。また、ボリュームデータは、記録媒体や記録メディアを介して取得されてもよい。   A port 110 in the medical image processing apparatus 100 includes a communication port and an external apparatus connection port, and acquires volume data obtained from a CT image. The acquired volume data may be sent immediately to the processor 140 for various processing, or may be stored in the memory 150 and then sent to the processor 140 for various processing when necessary. Further, the volume data may be acquired via a recording medium or a recording medium.

CT装置200により撮像されたボリュームデータは、CT装置200から画像データサーバ(PACS:Picture Archiving and Communication Systems)(不図示)に送られ、保存されてよい。ポート110は、CT装置200から取得する代わりに、この画像データサーバからボリュームデータを取得してよい。このように、ポート110は、ボリュームデータ等の各種データを取得する取得部として機能する。   Volume data imaged by the CT apparatus 200 may be sent from the CT apparatus 200 to a picture data server (PACS: Picture Archiving and Communication Systems) (not shown) and stored. The port 110 may acquire volume data from the image data server instead of acquiring from the CT apparatus 200. Thus, the port 110 functions as an acquisition unit that acquires various data such as volume data.

UI120は、タッチパネル、ポインティングデバイス、キーボード、又はマイクロホンを含んでよい。UI120は、医用画像処理装置100のユーザから、任意の入力操作を受け付ける。ユーザは、医師、放射線技師、又はその他医療従事者(Paramedic Staff)を含んでよい。   The UI 120 may include a touch panel, a pointing device, a keyboard, or a microphone. The UI 120 receives an arbitrary input operation from the user of the medical image processing apparatus 100. Users may include doctors, radiologist, or other paramedic staff.

UI120は、ボリュームデータにおける関心領域(ROI:Region of Interest)の指定や輝度条件の設定等の操作を受け付ける。関心領域は、各種組織(例えば、血管、気管支、臓器、骨、脳、心臓、足、首、血流)の領域を含んでよい。組織は、病変組織、正常組織、臓器、器官、など生体の組織を広く含んでよい。また、UI120は、ボリュームデータやボリュームデータに基づく画像(例えば後述する3次元画像、2次元画像)における関心領域の指定や輝度条件の設定等の操作を受け付けてもよい。   The UI 120 accepts operations such as designation of a region of interest (ROI) in volume data and setting of luminance conditions. Regions of interest may include regions of various tissues (eg, blood vessels, bronchi, organs, bones, brain, heart, feet, neck, blood flow). The tissue may widely include living tissues such as a diseased tissue, a normal tissue, an organ, and an organ. Further, the UI 120 may accept operations such as specifying a region of interest and setting a luminance condition in volume data or an image based on the volume data (for example, a three-dimensional image or a two-dimensional image described later).

ディスプレイ130は、LCD(Liquid Crystal Display)を含んでもよく、各種情報を表示する。各種情報は、ボリュームデータから得られる3次元画像や2次元画像を含んでよい。3次元画像は、ボリュームレンダリング画像、サーフェスレンダリング画像、仮想内視鏡画像(VE画像)、CPR(Curved Planar Reconstruction)画像、等を含んでもよい。ボリュームレンダリング画像は、レイサム(RaySum)画像(単に「SUM画像」とも称する)、MIP(Maximum Intensity Projection)画像、MinIP(Minimum Intensity Projection)画像、平均値(Average)画像、又はレイキャスト(Raycast)画像を含んでもよい。2次元画像は、アキシャル(Axial)画像、サジタル(Sagittal)画像、コロナル(Coronal)画像、MPR(Multi Planer Reconstruction)画像、等を含んでよい。   The display 130 may include an LCD (Liquid Crystal Display) and displays various types of information. Various types of information may include a three-dimensional image or a two-dimensional image obtained from volume data. The three-dimensional image may include a volume rendering image, a surface rendering image, a virtual endoscopic image (VE image), a CPR (Curved Planar Reconstruction) image, and the like. The volume rendering image is a RaySum image (also simply referred to as “SUM image”), a MIP (Maximum Intensity Projection) image, a MinIP (Minimum Intensity Projection) image, an Average image, or a Raycast image. May be included. The two-dimensional image may include an axial image, a sagittal image, a coronal image, an MPR (Multi Planer Reconstruction) image, and the like.

メモリ150は、各種ROM(Read Only Memory)やRAM(Random Access Memory)の一次記憶装置を含む。メモリ150は、HDD(Hard Disk Drive)やSSD(Solid State Drive)の二次記憶装置を含んでもよい。メモリ150は、USBメモリやSDカードの三次記憶装置を含んでもよい。メモリ150は、各種情報やプログラムを記憶する。各種情報は、ポート110により取得されたボリュームデータ、プロセッサ140により生成された画像、プロセッサ140により設定された設定情報、各種プログラムを含んでもよい。メモリ150は、プログラムが記録される非一過性の記録媒体の一例である。   The memory 150 includes a primary storage device of various ROM (Read Only Memory) and RAM (Random Access Memory). The memory 150 may include a secondary storage device such as a hard disk drive (HDD) or a solid state drive (SSD). The memory 150 may include a tertiary storage device such as a USB memory or an SD card. The memory 150 stores various information and programs. The various information may include volume data acquired by the port 110, an image generated by the processor 140, setting information set by the processor 140, and various programs. The memory 150 is an example of a non-transitory recording medium on which a program is recorded.

プロセッサ140は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)を含んでもよい。プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う処理部160として機能する。   The processor 140 may include a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit). The processor 140 functions as a processing unit 160 that performs various processes and controls by executing a medical image processing program stored in the memory 150.

図2は、処理部160の機能構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a functional configuration example of the processing unit 160.

処理部160は、領域抽出部161、画像生成部162、レジストレーション処理部163、予測処理部164、及び表示制御部166を備える。予測処理部164は、予測器(Predictor)171を有する。   The processing unit 160 includes an area extraction unit 161, an image generation unit 162, a registration processing unit 163, a prediction processing unit 164, and a display control unit 166. The prediction processing unit 164 includes a predictor (Predictor) 171.

処理部160は、医用画像処理装置100の各部を統括する。なお、処理部160に含まれる各部は、1つのハードウェアにより異なる機能として実現されてもよいし、複数のハードウェアにより異なる機能として実現されてもよい。また、処理部160に含まれる各部は、専用のハードウェア部品により実現されてもよい。   The processing unit 160 controls each unit of the medical image processing apparatus 100. Each unit included in the processing unit 160 may be realized as a different function by one piece of hardware, or may be realized as a different function by a plurality of pieces of hardware. In addition, each unit included in the processing unit 160 may be realized by a dedicated hardware component.

領域抽出部161は、ボリュームデータにおいて、セグメンテーション処理を行ってよい。この場合、UI120がユーザからの指示を受け付け、指示の情報が領域抽出部161に送られる。領域抽出部161は、指示の情報に基づいて、公知の方法により、ボリュームデータから、セグメンテーション処理を行い、関心領域を抽出(segment)してもよい。また、ユーザからの詳細な指示により、手動で関心領域を設定(set)してもよい。また、観察対象が予め定められている場合、領域抽出部161は、ユーザ指示なしでボリュームデータから、セグメンテーション処理を行い、観察対象を含む関心領域を抽出してもよい。抽出される領域には、各種組織(例えば、血管、気管支、臓器、骨、脳、心臓、足、首、血流、乳腺、胸部、腫瘍)の領域を含んでよい。   The region extraction unit 161 may perform a segmentation process on the volume data. In this case, the UI 120 receives an instruction from the user, and the instruction information is sent to the area extraction unit 161. The region extraction unit 161 may perform segmentation processing from volume data and extract a region of interest based on the instruction information by a known method. Further, the region of interest may be manually set according to a detailed instruction from the user. When the observation target is determined in advance, the region extraction unit 161 may extract a region of interest including the observation target by performing segmentation processing from the volume data without a user instruction. The extracted region may include regions of various tissues (for example, blood vessels, bronchi, organs, bones, brains, hearts, feet, necks, blood flows, breasts, breasts, tumors).

画像生成部162は、ポート110により取得された複数のボリュームデータ(例えば時系列に並ぶボリュームデータ)に基づいて、複数のボリュームデータを合成して1つのボリュームデータ(例えば合成ボリュームデータ)を生成してよい。画像生成部162は、ポート110等を介して取得された又は生成されたボリュームデータに基づいて、3次元画像や2次元画像を生成してよい。画像生成部162は、ポート110により取得された1つ以上のボリュームデータを基に、指定された領域や領域抽出部161により抽出された領域に基づいて、ボリュームデータ(例えば合成ボリュームデータ)や3次元画像や2次元画像を生成してよい。   Based on the plurality of volume data (for example, volume data arranged in time series) acquired by the port 110, the image generation unit 162 combines the plurality of volume data to generate one volume data (for example, combined volume data). It's okay. The image generation unit 162 may generate a 3D image or a 2D image based on the volume data acquired or generated via the port 110 or the like. Based on the one or more volume data acquired by the port 110, the image generation unit 162 uses the specified region or the region extracted by the region extraction unit 161 to generate volume data (for example, synthetic volume data) or 3 A two-dimensional image or a two-dimensional image may be generated.

画像生成部162は、レジストレーションされた複数フェーズのボリュームデータを基に、出力画像としてのボリュームデータ(例えば合成ボリュームデータ)を生成してよい。画像生成部162は、レジストレーションされた複数フェーズのボリュームデータを基に、出力画像としての3次元画像や2次元画像を生成してよい。画像生成部162は、レジストレーションされた複数フェーズの3次元画像を基に、出力画像としての3次元画像を生成してよい。画像生成部162は、レジストレーションされた複数フェーズの2次元画像を基に、出力画像としての2次元画像を生成してよい。なお、複数フェーズのデータや画像は、時系列に並ぶ複数のデータや画像でよい。   The image generation unit 162 may generate volume data (for example, combined volume data) as an output image based on the registered multiple-phase volume data. The image generation unit 162 may generate a three-dimensional image or a two-dimensional image as an output image based on the registered multiple-phase volume data. The image generation unit 162 may generate a three-dimensional image as an output image based on the registered three-phase three-dimensional image. The image generation unit 162 may generate a two-dimensional image as an output image based on the registered two-phase two-dimensional image. The plurality of phases of data and images may be a plurality of data and images arranged in time series.

画像生成部162は、複数フェーズのボリュームデータにおいて各ボクセルの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、4DMIP合成とも称する。なお、4DMIP合成の具体的な手法は、特許文献1に記載された方法を用いてよい。4DMIP合成では、画素値が大きくなり易い。   The image generation unit 162 may generate one composite volume data with the maximum value of each voxel as the pixel value in the multi-phase volume data. This synthesis method is also referred to as 4DMIP synthesis. As a specific method of 4DMIP synthesis, the method described in Patent Document 1 may be used. In 4DMIP composition, the pixel value tends to be large.

画像生成部162は、複数フェーズ(例えば8つのフェーズ)を複数のフェーズ群(例えば3つのフェーズ群)に区切り、複数のフェーズ群において各ボリュームデータにおける各ボクセルの画素値の平均値を算出し、各フェーズ群における各ボクセルの画素値の平均値のうちの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、フェーズ平均4DMIP合成とも称する。   The image generation unit 162 divides a plurality of phases (for example, eight phases) into a plurality of phase groups (for example, three phase groups), calculates an average value of pixel values of each voxel in each volume data in the plurality of phase groups, One synthetic volume data may be generated with the maximum value among the average values of the pixel values of each voxel in each phase group as the pixel value. This synthesis method is also referred to as phase average 4DMIP synthesis.

画像生成部162は、フェーズ平均4DMIP合成で得られたボリュームデータに対してガウシアンフィルタを施し、各ボクセルの画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、フィルタ付きフェーズ平均4DMIP合成とも称する。   The image generation unit 162 may apply a Gaussian filter to the volume data obtained by the phase average 4DMIP synthesis, and generate one synthesized volume data as the pixel value of each voxel. This synthesis method is also referred to as a filtered phase average 4DMIP synthesis.

画像生成部162は、複数フェーズのボリュームデータにおける各ボクセルの画素値を加算した値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、TSUM合成とも称する。TSUM合成では、ノイズ成分も実信号成分も削除され易い。   The image generation unit 162 may generate one composite volume data by using a value obtained by adding the pixel values of the voxels in the volume data of a plurality of phases as a pixel value. This synthesis method is also referred to as TSUM synthesis. In TSUM synthesis, both noise components and actual signal components are easily deleted.

画像生成部162は、機械学習された予測器171により生成された複数フェーズの予測ボリュームデータにおいて各ボクセルの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、Deep 4DMIP合成と称してよい。Deep 4DMIP合成では、複数フェーズの予測ボリュームデータにおける各ボクセルの最大値の導出に、4DMIP合成が実施する具体的な手法を適用してよい。   The image generation unit 162 may generate one composite volume data with the maximum value of each voxel in the multi-phase predicted volume data generated by the machine-learned predictor 171 as a pixel value. This synthesis method may be referred to as Deep 4DMIP synthesis. In Deep 4DMIP synthesis, a specific method implemented by 4DMIP synthesis may be applied to derivation of the maximum value of each voxel in the predicted volume data of a plurality of phases.

レジストレーション処理部163は、時系列で得られた複数のボリュームデータ(CT画像)を基に、ボリュームデータに含まれる各部の動きを検出し、動き情報を生成する。この場合、レジストレーション処理部163は、複数のフェーズのCT画像を基に、複数フェーズ間でのCT画像の変形に対して動き解析を行い、CT画像における動き情報を取得する。動き解析の具体的手法は、例えば参考特許文献1、参考特許文献2に記載されている。これらは、非剛体レジストレーションの例になるが、剛体レジストレーションであってもよい。
(参考特許文献1:米国特許8311300号明細書)
(参考特許文献2:日本国特許第5408493号公報)
The registration processing unit 163 detects movement of each unit included in the volume data based on a plurality of volume data (CT images) obtained in time series, and generates movement information. In this case, the registration processing unit 163 performs motion analysis on the deformation of the CT image between a plurality of phases based on the CT images of a plurality of phases, and acquires motion information in the CT images. Specific methods of motion analysis are described in, for example, Reference Patent Document 1 and Reference Patent Document 2. These are examples of non-rigid registration, but may be rigid registration.
(Reference Patent Document 1: US Pat. No. 8311300)
(Reference Patent Document 2: Japanese Patent No. 5408493)

レジストレーション処理部163は、動き情報を用いた各点や観察部位の動き解析により、被検体内の任意の位置がどの位置に移動したかを認識する。レジストレーション処理部163は、動き解析の結果に基づいて、時系列に並ぶ複数フェーズのボリュームデータをレジストレーション(位置合わせ)する。   The registration processing unit 163 recognizes to which position an arbitrary position in the subject has moved by analyzing the movement of each point or observation site using the movement information. The registration processing unit 163 registers (positions) the volume data of a plurality of phases arranged in time series based on the result of the motion analysis.

予測処理部164は、CT装置200で撮像されたボリュームデータを基に、予測ボリュームデータを生成する予測器171を有する。CT装置200で撮像されたボリュームデータは、実空間で撮像されたボリュームデータである。予測器171は、ハードウェアで構成されてもよいしソフトウェアで構成されてもよい。予測器171は、同一の被検体についての複数フェーズのボリュームデータのうちの一部のボリュームデータを基に、複数フェーズのボリュームデータのうちの残りのボリュームデータに対応する予測ボリュームデータを生成してよい。実空間で撮像されたボリュームデータは、ノイズ(例えばランダムノイズ)が重畳されたデータとなるが、予測ボリュームデータは、このノイズが抑制されたデータとなる。   The prediction processing unit 164 includes a predictor 171 that generates predicted volume data based on the volume data imaged by the CT apparatus 200. The volume data imaged by the CT apparatus 200 is volume data imaged in real space. The predictor 171 may be configured by hardware or software. The predictor 171 generates predicted volume data corresponding to the remaining volume data of the plurality of phase volume data based on a part of the volume data of the plurality of phases of the same subject. Good. Volume data imaged in real space is data on which noise (for example, random noise) is superimposed, but predicted volume data is data in which this noise is suppressed.

予測処理部164は、訓練データと教師データとを用いて、予測器171を機械学習(Machine Learning)させる。機械学習は、DNN(Deep neural network)つまりいわゆるディープラーニングを含んでよい。機械学習では、予測処理部164は、複数フェーズのボリュームデータのうちの一部のボリュームデータを訓練データとしてよい。予測処理部164は、複数フェーズのボリュームデータのうちの残りのボリュームデータを教師データとしてよい。そして、予測処理部164は、訓練データとなる上記一部のボリュームデータの組み合わせを順次変更し、これに合わせて教師データとなる上記残りのボリュームデータを順次変更して、予測器171に機械学習させてよい。機械学習の手法は、任意であり、CNN(Convolutional Neural Network)、Random Forest、Structured SVM(Support Vector Machine)、NN(Nearest Neighbor)、等でよい。本実施形態では、主にCNNについて説明する。   The prediction processing unit 164 causes the predictor 171 to perform machine learning (Machine Learning) using the training data and the teacher data. Machine learning may include a deep neural network (DNN), that is, so-called deep learning. In the machine learning, the prediction processing unit 164 may use a part of the volume data of the plurality of phases as training data. The prediction processing unit 164 may use the remaining volume data among the plurality of phases of volume data as teacher data. Then, the prediction processing unit 164 sequentially changes the combination of the part of the volume data serving as training data, and sequentially changes the remaining volume data serving as teacher data in accordance with this, and causes the predictor 171 to perform machine learning. You may let me. The machine learning method is arbitrary, and may be CNN (Convolutional Neural Network), Random Forest, Structured SVM (Support Vector Machine), NN (Nearest Neighbor), or the like. In this embodiment, CNN will be mainly described.

画像生成部162は、少なくとも1つの実空間で撮像されたボリュームデータと、予測器171により生成された少なくも1つの予測ボリュームデータと、に基づいて、出力画像(表示対象画像)としての3次元画像や2次元画像を生成してよい。画像生成部162は、少なくとも1つの実空間で撮像されたボリュームデータに基づく3次元画像又は2次元画像と、予測器171により生成された少なくも1つの予測ボリュームデータに基づく3次元画像又は2次元画像と、に基づいて、出力画像としての3次元画像又は2次元画像を生成してよい。   The image generation unit 162 generates a three-dimensional output image (display target image) based on the volume data captured in at least one real space and at least one prediction volume data generated by the predictor 171. An image or a two-dimensional image may be generated. The image generation unit 162 includes a three-dimensional image or two-dimensional image based on volume data captured in at least one real space, and a three-dimensional image or two-dimensional image based on at least one predicted volume data generated by the predictor 171. Based on the image, a three-dimensional image or a two-dimensional image as an output image may be generated.

表示制御部166は、各種データ、情報、画像をディスプレイ130に表示させる。表示制御部166は、3次元空間で示されるボリュームデータ(出力ボリュームデータ、例えば合成ボリュームデータ)を可視化してよい。この場合、画像生成部162が、出力ボリュームデータを任意のレンダリング手法でレンダリングして3次元画像を生成してよい。また、画像生成部162は、出力ボリュームデータの任意の断面を抽出し、2次元画像を生成してよい。表示制御部166は、生成された3次元画像や2次元画像を表示させることで、出力ボリュームデータを可視化してよい。   The display control unit 166 displays various data, information, and images on the display 130. The display control unit 166 may visualize volume data (output volume data, for example, synthesized volume data) indicated in a three-dimensional space. In this case, the image generation unit 162 may generate a three-dimensional image by rendering the output volume data by an arbitrary rendering method. In addition, the image generation unit 162 may extract an arbitrary cross section of the output volume data and generate a two-dimensional image. The display control unit 166 may visualize the output volume data by displaying the generated three-dimensional image or two-dimensional image.

なお、ボリュームデータ、3次元画像、2次元画像は、医用画像の一例である。以下では、主にボリュームデータを例示するが、他の医用画像に対しても適用可能である。   The volume data, the three-dimensional image, and the two-dimensional image are examples of medical images. In the following, volume data is mainly exemplified, but the present invention can also be applied to other medical images.

次に、予測器171の詳細な動作について説明する。
図3は、各予測画像の生成例と出力画像の生成例とを説明するための図である。なお、図3に示す「0」〜「7」は、フェーズ番号を示す。
Next, the detailed operation of the predictor 171 will be described.
FIG. 3 is a diagram for explaining a generation example of each predicted image and a generation example of an output image. Note that “0” to “7” shown in FIG. 3 indicate phase numbers.

なお、予測画像は、予測器171により生成された画像であり、予測器171により生成されたボリュームデータ(予測ボリュームデータ)、予測器171により生成された3次元画像や2次元画像(予測3次元画像や予測2次元画像)、等でよい。出力画像は、出力される画像であり、ディスプレイ130等により出力(例えば表示)されるボリュームデータ(出力ボリュームデータ)、ディスプレイ130等により出力される3次元画像や2次元画像(出力3次元画像や出力2次元画像)、等でよい。ここでは、予測画像として予測ボリュームデータ、出力画像として出力ボリュームデータを用いることを主に例示する。   The predicted image is an image generated by the predictor 171, and includes volume data (predicted volume data) generated by the predictor 171, a three-dimensional image or a two-dimensional image (predicted three-dimensional image) generated by the predictor 171. Image, predicted two-dimensional image), or the like. The output image is an image to be output. Volume data (output volume data) output (for example, displayed) by the display 130 or the like, 3D image or 2D image output by the display 130 or the like (output 3D image or Output two-dimensional image). Here, the use of predicted volume data as the predicted image and output volume data as the output image is mainly exemplified.

予測処理部164は、n(n:正の整数)(図3ではn=8)フェーズの入力画像群を取得する。入力画像群に含まれる各入力画像は、予測器171に入力される。入力画像群に含まれる各入力画像は、ポート110を介して取得されたCT装置200からのボリュームデータであってよい。入力画像群に含まれる各入力画像は、予測器171に入力される。入力画像には、造影されていない非造影状態において撮像された非造影フェーズのボリュームデータが含まれてよいし、造影された造影状態において撮像された造影フェーズのボリュームデータが含まれてよい。   The prediction processing unit 164 acquires an input image group of n (n: positive integer) (n = 8 in FIG. 3) phase. Each input image included in the input image group is input to the predictor 171. Each input image included in the input image group may be volume data from the CT apparatus 200 acquired via the port 110. Each input image included in the input image group is input to the predictor 171. The input image may include volume data of a non-contrast phase captured in a non-contrast-enhanced state, or volume data of a contrast phase captured in a contrast-enhanced state of contrast.

予測器171は、予測処理部164の制御に従って動作する。予測器171は、nフェーズのうちのiフェーズ目のボリュームデータを、nフェーズのうちのiフェーズ以外のフェーズのボリュームデータに基づいて予測し、予測画像YGiを生成する。予測画像YGiは、予測ボリュームデータであってよい。   The predictor 171 operates according to the control of the prediction processing unit 164. The predictor 171 predicts the i-th volume data of the n phases based on the volume data of the phases other than the i-phase of the n phases, and generates a predicted image YGi. The predicted image YGi may be predicted volume data.

例えば、図3では、予測器171は、8フェーズ(0フェーズ目〜7フェーズ目)のうちの1フェーズ目(i=1)のボリュームデータを、8フェーズのうちの1フェーズ以外のフェーズ(0,2,3,4,5,6,7フェーズ目の7つのフェーズ)のボリュームデータに基づいて予測し、予測画像YG1を生成する。また、予測器171は、8フェーズのうちの2フェーズ目(i=2)のボリュームデータを、8フェーズのうちの2フェーズ以外のフェーズ、つまり0,1,3,4,5,6,7フェーズ目の7つのフェーズのボリュームデータに基づいて予測し、予測画像YG2を生成する。   For example, in FIG. 3, the predictor 171 uses the first phase (i = 1) of the 8 phases (the 0th phase to the 7th phase) as the volume data of the phases other than the 1 phase (0). , 2, 3, 4, 5, 6 and 7), the prediction image YG1 is generated. Further, the predictor 171 converts the volume data of the second phase (i = 2) of the eight phases into phases other than the two phases of the eight phases, that is, 0, 1, 3, 4, 5, 6, 7 Prediction is performed based on the volume data of the seven phases, and a predicted image YG2 is generated.

予測器171は、iの値を順次変更してiフェーズ目のボリュームデータに対応する予測画像YGiをそれぞれ生成する。図3は、予測器171は、8フェーズに対応する8つの予測画像YG0〜YG7を生成する。この結果、n個の予測画像YGiを含む予測画像群が得られる。   The predictor 171 sequentially changes the value of i to generate predicted images YGi corresponding to the i-th volume data. In FIG. 3, the predictor 171 generates eight predicted images YG0 to YG7 corresponding to the eight phases. As a result, a predicted image group including n predicted images YGi is obtained.

なお、予測器171は、nフェーズのうちのiフェーズ目のボリュームデータを、nフェーズのうちのiフェーズ以外の一部のフェーズのボリュームデータに基づいて予測し、予測画像YGiを生成してもよい。例えば、予測器171は、8フェーズ(0フェーズ目〜7フェーズ目)のうちの1フェーズ目(i=1)のボリュームデータを、8フェーズのうちの1フェーズ以外の一部のフェーズ(0,2,4,6フェーズ目の4つのフェーズ)のボリュームデータに基づいて予測し、予測画像YG1を生成してもよい。   Note that the predictor 171 may predict the i-th volume data of the n phases based on the volume data of some phases other than the i phase of the n phases, and generate the predicted image YGi. Good. For example, the predictor 171 converts the volume data of the first phase (i = 1) out of the 8 phases (the 0th phase to the 7th phase) into some phases (0, The prediction image YG1 may be generated by prediction based on volume data of the second, fourth, and sixth phases).

予測器171は、訓練データと教師データとを用いて、機械学習してよい。機械学習では、予測器171は、nフェーズのうちのiフェーズ目のボリュームデータを教師データとしてよい。予測器171は、nフェーズのうちのiフェーズ以外のフェーズのボリュームデータを訓練データとしてよい。また、予測器171は、nフェーズのうちのiフェーズ以外のフェーズのうちの一部のフェーズのボリュームデータを訓練データとしてよい。予測器171は、訓練データを入力して、教師データを出力するよう、機械学習してよい。機械学習では、訓練データと教師データとの関係性は非線形でよい。   The predictor 171 may perform machine learning using training data and teacher data. In machine learning, the predictor 171 may use the i-th volume data of n phases as teacher data. The predictor 171 may use volume data of phases other than the i phase of the n phases as training data. Further, the predictor 171 may use volume data of a part of the phases other than the i phase of the n phases as training data. The predictor 171 may perform machine learning to input training data and output teacher data. In machine learning, the relationship between training data and teacher data may be non-linear.

したがって、予測器171は、機械学習することで、訓練データとしてのnフェーズのうちのiフェーズ以外のフェーズのボリュームデータに依存せずに、nフェーズのうちのiフェーズ目の所望のボリュームデータを導出できる。また、この場合、予測画像において、被検体の組織の構造を良好に残すことができると期待できる。   Therefore, the predictor 171 performs the machine learning to obtain the desired volume data of the i phase of the n phase without depending on the volume data of the phase other than the i phase of the n phase as the training data. Can be derived. In this case, it can be expected that the structure of the subject's tissue can be satisfactorily left in the predicted image.

また、訓練データは、実空間で撮像された、iフェーズ以外のフェーズのボリュームデータでよい。また、教師データは、実空間で撮像されたiフェーズのボリュームデータでよい。よって、様々なノイズが付された各フェーズのボリュームデータを基に、各フェーズのうちの1つのボリュームデータが得られるように機械学習する。したがって、医用画像処理装置100は、機械学習の結果、様々なノイズが相殺して予測画像を生成するよう機械学習できる。よって、医用画像処理装置100は、iフェーズの実空間で撮像されたボリュームデータからノイズが除去されたボリュームデータを予測ボリュームデータとして得ることができる。   Further, the training data may be volume data of a phase other than the i phase that is captured in real space. The teacher data may be i-phase volume data captured in real space. Therefore, machine learning is performed based on the volume data of each phase to which various noises are added so that one volume data of each phase is obtained. Therefore, the medical image processing apparatus 100 can perform machine learning so that various noises cancel each other as a result of machine learning to generate a predicted image. Therefore, the medical image processing apparatus 100 can obtain, as predicted volume data, volume data from which noise has been removed from volume data captured in an i-phase real space.

また、予測器171は、機械学習時や予測画像生成時において、1度に入力する訓練データや入力データの量を、ボリュームデータの1画素(ボクセル)毎としてもよいし、ある程度の大きさ(パッチ)に含まれる画素群毎としてもよいし、ボリュームデータ内の全画素としてもよい。訓練データや入力データを画素毎とする場合、予測器171は、処理対象の1ボクセルのみ参照し、その周囲のボクセルを参照しないので、空間方向の情報の伝播が少なくなる。訓練データや入力データをパッチに含まれる画素群毎や全画素とする場合、処理対象のボクセルの他に、その周囲のボクセルを参照するので、予測器171は、空間方向の情報の伝播も加味でき、機械学習精度や予測精度を向上できる。   Further, the predictor 171 may set the amount of training data or input data input at a time for machine learning or prediction image generation for each pixel (voxel) of volume data or to a certain size ( Each pixel group included in the patch) or all the pixels in the volume data may be used. When the training data and the input data are set for each pixel, the predictor 171 refers to only one voxel to be processed and does not refer to surrounding voxels, so that the propagation of information in the spatial direction is reduced. When training data and input data are set for each pixel group included in the patch or for all pixels, the predictor 171 takes into account the propagation of information in the spatial direction because it refers to the surrounding voxels in addition to the voxels to be processed. It is possible to improve machine learning accuracy and prediction accuracy.

また、予測器171として、各フェーズの予測画像を生成するために共通の予測器171が1つ設けられてもよいし、フェーズ毎に異なる予測器171が設けられてもよい。予測器171が機械学習することや予測画像を生成することは、各フェーズにおいて同様であるためである。   Further, as the predictor 171, one common predictor 171 may be provided to generate a predicted image of each phase, or different predictors 171 may be provided for each phase. This is because the predictor 171 performs machine learning and generates a predicted image in each phase.

また、複数フェーズの端部(例えば8フェーズ中の第0フェーズや第7フェーズ)のフェーズにおいて機械学習する場合や予測画像を生成する場合、その前後のフェーズのボリュームデータが不在となり得る。この場合、不在となるボリュームデータとして、ボリュームデータの全画素値が値0である黒色の画像となるボリュームデータを仮定したり、反対側の端部(例えば第7フェーズの場合には第0フェーズ、第0フェーズの場合には第7フェーズ)のボリュームデータが存在すると仮定したりしてよい。   In addition, when machine learning is performed at the end of a plurality of phases (for example, the 0th phase or the 7th phase in 8 phases) or when a predicted image is generated, the volume data of the phases before and after that may be absent. In this case, as the absent volume data, assume that the volume data is a black image in which all the pixel values of the volume data are 0, or the opposite end (for example, in the case of the seventh phase, the zeroth phase). In the case of the 0th phase, it may be assumed that there is volume data of the 7th phase).

また、予測器171における機械学習に用いる学習データ(例えば訓練データ及び教師データ)は、予めメモリ150等に保持されて用意されてよい。よって、学習データは、被検体における時系列に並ぶ複数フェーズのボリュームデータを含んでよい。   In addition, learning data (for example, training data and teacher data) used for machine learning in the predictor 171 may be stored and prepared in advance in the memory 150 or the like. Therefore, the learning data may include a plurality of phases of volume data arranged in time series in the subject.

予測器171は、CT装置200からの時系列上で並ぶ複数フェーズのボリュームデータを取得する都度、機械学習し、機械学習の結果(機械学習結果)を更新してメモリ150に保持させてもよい。予測器171は、予測画像の生成時などの学習データが必要なタイミングで、メモリ150に保持された機械学習結果を取得してよい。   The predictor 171 may perform machine learning each time it acquires volume data of a plurality of phases arranged in time series from the CT apparatus 200, and may update the machine learning result (machine learning result) and store it in the memory 150. . The predictor 171 may acquire the machine learning result stored in the memory 150 at a timing when learning data is necessary, such as when a predicted image is generated.

画像生成部162は、予測画像群に含まれるn個の予測画像YGiを、いずれかの合成方法で合成し、出力ボリュームデータを生成する。例えば、画像生成部162は、Deep 4DMIP合成を行う場合、時間軸に沿って、同じ画素の画素値の最大値を導出する。   The image generation unit 162 combines the n predicted images YGi included in the predicted image group by any combining method, and generates output volume data. For example, when performing Deep 4DMIP composition, the image generation unit 162 derives the maximum pixel value of the same pixel along the time axis.

画像生成部162は、予測画像が予測ボリュームデータである場合、n個の予測ボリュームデータに基づいて1つの出力ボリュームデータを出力画像として生成してよい。この場合、画像生成部162は、出力ボリュームデータをボリュームレンダリングして、出力3次元画像又は出力2次元画像を生成してよい。また、画像生成部162は、予測画像が予測3次元画像である場合、n個の予測3次元画像に基づいて1つの出力3次元画像を出力画像として生成してよい。また、画像生成部162は、予測画像が予測2次元画像である場合、n個の予測2次元画像に基づいて1つの出力2次元画像を出力画像として生成してよい。   When the predicted image is predicted volume data, the image generation unit 162 may generate one output volume data as an output image based on the n predicted volume data. In this case, the image generation unit 162 may perform volume rendering on the output volume data to generate an output 3D image or an output 2D image. In addition, when the predicted image is a predicted three-dimensional image, the image generation unit 162 may generate one output three-dimensional image as an output image based on the n predicted three-dimensional images. Further, when the predicted image is a predicted two-dimensional image, the image generation unit 162 may generate one output two-dimensional image as an output image based on the n predicted two-dimensional images.

画像生成部162は、各種のボリュームレンダリング法により出力ボリュームデータが可視化されてよい。例えば、出力ボリュームデータがMIP法により可視化される場合、この出力画像を出力MIP画像とも称する。また、出力画像がレイキャスト法により可視化される場合、この出力画像を出力レイキャスト画像とも称する。また、出力画像がMPRにより可視化される場合、この出力画像を出力MPR画像とも称する。   The image generation unit 162 may visualize the output volume data by various volume rendering methods. For example, when the output volume data is visualized by the MIP method, this output image is also referred to as an output MIP image. Further, when the output image is visualized by the ray cast method, this output image is also referred to as an output ray cast image. Further, when the output image is visualized by MPR, this output image is also referred to as an output MPR image.

レジストレーション処理部163は、n個の予測画像YGiについてレジストレーション(位置合わせ)してよい。つまり、レジストレーション処理部163は、予測画像YGiの各画素と他の予測画像の各画素とが対応するように、予測画像同士を位置合わせしてよい。これにより、医用画像処理装置100は、各予測画像の位置ずれを抑制でき、出力画像の各画素の画素値の精度を向上できる。また、レジストレーション処理部163は、n個の入力画像群についてレジストレーション(位置合わせ)してよい。つまり、レジストレーション処理部163は、入力画像の各画素と他の入力画像の各画素とが対応するように、入力画像同士を位置合わせしてよい。これにより、医用画像処理装置100は、各入力画像の位置ずれを抑制でき、各予測画像と出力画像の各画素の画素値の精度を向上できる。また、レジストレーション処理部163は、入力画像と予測画像とでレジストレーションしてもよい。   The registration processing unit 163 may register (align) the n predicted images YGi. That is, the registration processing unit 163 may align the predicted images so that each pixel of the predicted image YGi corresponds to each pixel of another predicted image. Thereby, the medical image processing apparatus 100 can suppress the positional shift of each predicted image, and can improve the accuracy of the pixel value of each pixel of the output image. Further, the registration processing unit 163 may perform registration (position alignment) for n input image groups. That is, the registration processing unit 163 may align the input images so that each pixel of the input image corresponds to each pixel of the other input image. Thereby, the medical image processing apparatus 100 can suppress the positional shift of each input image, and can improve the accuracy of the pixel value of each pixel of each predicted image and the output image. The registration processing unit 163 may register the input image and the predicted image.

図4は、予測器171の学習フェーズ及び予測画像生成フェーズの一例を説明するための図である。学習フェーズは、予測器171が機械学習するフェーズである。予測画像生成フェーズは、機械学習された予測器171により予測画像を生成するフェーズである。   FIG. 4 is a diagram for explaining an example of a learning phase and a prediction image generation phase of the predictor 171. The learning phase is a phase in which the predictor 171 performs machine learning. The predicted image generation phase is a phase in which a predicted image is generated by a machine-learned predictor 171.

メモリ150は、予測器171により機械学習するための学習データ(例えば、スタディ)を蓄積する学習DB151を備えてよい。学習データは、観察対象の(予測画像の生成対象の)被検体についての学習データでもよいし、観察対象外の(予測画像の生成対象外の)被検体についての学習データでもよい。つまり、学習データに係る被検体と実際の予測画像に係る被検体とは、同一の被検体でもよいし、異なる被検体でもよい。学習DB151は、予測器171により機械学習するための多数の学習データを保持してよく、観察対象の被検体についての学習データ及び観察対象外の被検体についての学習データの少なくとも一方を含んでよい。また、学習DB151は学習結果を保持してもよい。   The memory 150 may include a learning DB 151 that stores learning data (for example, a study) for machine learning by the predictor 171. The learning data may be learning data for a subject to be observed (a prediction image generation target), or may be learning data for a subject that is not an observation target (not a prediction image generation target). That is, the subject related to the learning data and the subject related to the actual prediction image may be the same subject or different subjects. The learning DB 151 may hold a large amount of learning data for machine learning by the predictor 171 and may include at least one of learning data for a subject to be observed and learning data for a subject not to be observed. . Further, the learning DB 151 may hold a learning result.

図4では、Vは、ボリュームデータを示す。i,kは、フェーズ番号を示す。フェーズの異なる複数のボリュームデータは、レジストレーションされていてもよい。V’iは、フェーズi番目のボリュームデータに対応して生成される予測ボリュームデータである。   In FIG. 4, V indicates volume data. i and k indicate phase numbers. A plurality of volume data having different phases may be registered. V′i is predicted volume data generated corresponding to the phase i-th volume data.

学習フェーズでは、機械学習用にポート110を介して取得された複数フェーズのボリュームデータのうち、Vk(k≠i)を訓練データとする。つまり、予測器171は、i番目以外のフェーズのボリュームデータを訓練データとして入力する。訓練データは、学習DB151に保持された機械学習用の訓練データでもよい。予測器171は、ポート110を介して取得された複数フェーズのボリュームデータのうち、Viを教師データとする。教師データは、学習DB151に保持された機械学習用の教師データでもよい。予測器171は、訓練データであるVk(k≠i)を入力した場合に、教師データであるViを出力するように、機械学習する。この場合、予測器171は、実際にはV’iを出力するが、V’iがViに近づくように機械学習する。予測器171は、機械学習の結果を、学習DB151に保持させる。予測処理部164は、訓練データと教師データとして、観察対象のデータを用いて予測器171を学習させてもよい。予測処理部164は、訓練データと教師データとして、観察対象以外のデータを用いて予測器171を学習させてもよい。また、予測処理部164は、訓練データと教師データとして、観察対象以外のデータを多数入れ替えることによって、段階的に予測器171を学習させてもよい。   In the learning phase, Vk (k ≠ i) is used as training data among the volume data of a plurality of phases acquired through the port 110 for machine learning. That is, the predictor 171 inputs volume data of phases other than the i-th as training data. The training data may be training data for machine learning held in the learning DB 151. The predictor 171 uses Vi as teacher data among the volume data of a plurality of phases acquired via the port 110. The teacher data may be machine learning teacher data stored in the learning DB 151. The predictor 171 performs machine learning so as to output Vi as teacher data when Vk (k ≠ i) as training data is input. In this case, the predictor 171 actually outputs V′i, but performs machine learning so that V′i approaches Vi. The predictor 171 stores the result of machine learning in the learning DB 151. The prediction processing unit 164 may cause the predictor 171 to learn using observation target data as training data and teacher data. The prediction processing unit 164 may cause the predictor 171 to learn using data other than the observation target as training data and teacher data. Further, the prediction processing unit 164 may cause the predictor 171 to learn step by step by exchanging a large number of data other than the observation target as training data and teacher data.

また、予測器171は、過学習を抑制するために、正則化処理、ドロップアウト処理(ランダムにノードを非活性にして学習する)、k分割交差検証、等の公知の過学習対策を施してよい。正則化処理では、モデルを学習する際に、複雑さが増すことに対するペナルティが設けられる。正則化は、ペナルティとして、学習モデルのパラメータの絶対値の総和を用いるL1正則化、学習モデルのパラメータの二乗の総和を用いるL2正則化、等を含んでよい。   In addition, the predictor 171 performs known overlearning measures such as regularization processing, dropout processing (learning by randomly deactivating nodes), k-division cross-validation, and the like in order to suppress overlearning. Good. Regularization processing provides a penalty for increasing complexity when learning a model. Regularization may include, as a penalty, L1 regularization using the sum of absolute values of learning model parameters, L2 regularization using the sum of squares of learning model parameters, and the like.

予測画像生成フェーズでは、予測器171は、予測画像生成用にポート110を介して取得された観察対象の複数フェーズの(予測画像の生成対象の)ボリュームデータのうち、Vk(k≠i)を入力データとする。この入力データは、機械学習用に取得した訓練データと同じでもよい。予測器171は、学習DB151に蓄積された機械学習の結果を参照し、入力データであるVk(k≠i)を基に、出力データであるV’iを算出する。この場合、機械学習された予測器171は、ポート110を介して取得されたiフェーズのボリュームデータであるViに値が近いV’iを導出できる。予測器171は、例えば、n個(例えばn=8)のフェーズである場合、i=0,1,・・・7とすると、出力データとしてV’0,V’1,・・・V’7,を生成する。この出力データが、予測ボリュームデータとなる。   In the predicted image generation phase, the predictor 171 uses Vk (k ≠ i) among the volume data (target for generating predicted images) of a plurality of phases to be observed acquired via the port 110 for generating predicted images. Input data. This input data may be the same as the training data acquired for machine learning. The predictor 171 refers to the machine learning result stored in the learning DB 151 and calculates V′i that is output data based on Vk (k ≠ i) that is input data. In this case, the machine-learned predictor 171 can derive V′i having a value close to Vi that is i-phase volume data acquired via the port 110. For example, in the case of n phases (for example, n = 8), the predictor 171 assumes that i = 0, 1,... 7 and outputs V′0, V′1,. 7 is generated. This output data becomes the predicted volume data.

画像生成部162は、i=0,1,・・・n−1の各フェーズの予測ボリュームデータとしてのV’0,V’1,・・・V’7を取得し、各予測ボリュームデータを合成して、合成ボリュームデータを生成する。なお、レジストレーション処理部163は、各予測ボリュームデータを基に合成ボリュームデータが生成される前に、各予測ボリュームデータの位置合わせ(レジストレーション)を行ってよい。また、処理部160は、画像生成部162による合成ボリュームデータの生成とレジストレーションとを順番に反復してよい。これにより、医用画像処理装置100は、一層ノイズを除去した画像処理が可能となる。   The image generation unit 162 acquires V′0, V′1,... V′7 as predicted volume data of each phase of i = 0, 1,. Combined to generate combined volume data. Note that the registration processing unit 163 may perform registration (registration) of each predicted volume data before the synthesized volume data is generated based on each predicted volume data. The processing unit 160 may repeat the generation and registration of the composite volume data by the image generation unit 162 in order. Thereby, the medical image processing apparatus 100 can perform image processing with further noise removal.

図5は、医用画像処理装置100の動作例の概要を示すフローチャートである。   FIG. 5 is a flowchart showing an outline of an operation example of the medical image processing apparatus 100.

まず、ポート110は、時系列上に並んだ複数フェーズのボリュームデータをCT装置200から取得する(S11)。レジストレーション処理部163は、取得された複数フェーズのボリュームデータを位置合わせする(S12)。   First, the port 110 acquires volume data of a plurality of phases arranged in time series from the CT apparatus 200 (S11). The registration processing unit 163 aligns the acquired volume data of a plurality of phases (S12).

予測処理部164は、複数フェーズのボリュームデータ(機械学習用のデータ)を基に、機械学習された予測器171を生成する(S13)。なお、予測器171の具体的な機械学習の詳細については後述する。   The prediction processing unit 164 generates a machine-learned predictor 171 based on a plurality of phases of volume data (machine learning data) (S13). Details of the specific machine learning of the predictor 171 will be described later.

予測処理部164は、複数フェーズのボリュームデータ(予測画像生成用のデータ)と予測器171とを用いて、各フェーズのボリュームデータに対応する複数の予測ボリュームデータを生成する。予測処理部164は、複数の予測ボリュームデータを基に、合成ボリュームデータを生成する(S14)。   The prediction processing unit 164 uses a plurality of phases of volume data (prediction image generation data) and the predictor 171 to generate a plurality of prediction volume data corresponding to the volume data of each phase. The prediction processing unit 164 generates composite volume data based on the plurality of predicted volume data (S14).

画像生成部162は、合成ボリュームデータをボリュームレンダリングし、ボリュームレンダリング画像(例えばMIP画像)を生成する(S15)。   The image generation unit 162 performs volume rendering on the combined volume data, and generates a volume rendering image (for example, a MIP image) (S15).

図5の処理によれば、医用画像処理装置100は、機械学習された予測器171を用いて予測ボリュームデータを生成することで、予測ボリュームデータの生成精度を向上できる。また、医用画像処理装置100は、各フェーズのボリュームデータを位置合わせすることで、各ボリュームデータにおける各ボクセルの位置ずれを抑制でき、ボクセル毎の画素値の統計精度を向上できる。よって、医用画像処理装置100は、より正確な画素値を得ることができ、合成ボリュームデータを基に被検体の様子をより正確に描画できる。   According to the processing of FIG. 5, the medical image processing apparatus 100 can improve the generation accuracy of the predicted volume data by generating the predicted volume data using the machine-learned predictor 171. Also, the medical image processing apparatus 100 can suppress the positional deviation of each voxel in each volume data by aligning the volume data of each phase, and can improve the statistical accuracy of the pixel value for each voxel. Therefore, the medical image processing apparatus 100 can obtain more accurate pixel values, and can more accurately draw the state of the subject based on the synthesized volume data.

図6は、医用画像処理装置100による予測器171の機械学習及び予測画像生成に係る動作例を示すフローチャートである。なお、図6では、フェーズは、0〜nまで存在するとする。   FIG. 6 is a flowchart illustrating an operation example related to machine learning and prediction image generation of the predictor 171 by the medical image processing apparatus 100. In FIG. 6, it is assumed that there are 0 to n phases.

まず、ポート110は、時系列上に並んだ複数フェーズのボリュームデータV0〜VnをCT装置200から取得する(S21)。レジストレーション処理部163は、取得された複数フェーズのボリュームデータV0〜Vnを位置合わせする(S22)。   First, the port 110 acquires volume data V0 to Vn of a plurality of phases arranged in time series from the CT apparatus 200 (S21). The registration processing unit 163 aligns the acquired multi-phase volume data V0 to Vn (S22).

予測処理部164は、フェーズi=0〜nについて、ボリュームデータV0〜Vn(Viを除く)を用いて、予測器171を機械学習させる(S23)。この場合、予測処理部164は、S21で取得されたボリュームデータV0〜Vn(Viを除く)を機械学習用の訓練データとし、S21で取得されたボリュームデータViを機械学習用の教師データとする。   The prediction processing unit 164 causes the predictor 171 to perform machine learning for the phases i = 0 to n using the volume data V0 to Vn (excluding Vi) (S23). In this case, the prediction processing unit 164 uses the volume data V0 to Vn (excluding Vi) acquired in S21 as training data for machine learning, and uses the volume data Vi acquired in S21 as teacher data for machine learning. .

予測処理部164は、フェーズi=0〜nについて、ボリュームデータV0〜Vn(Viを除く)を予測器171に入力し、予測ボリュームデータV’iを生成する(S24)。したがって、予測ボリュームデータV’0〜V’nが得られる。   The prediction processing unit 164 inputs volume data V0 to Vn (excluding Vi) to the predictor 171 for the phases i = 0 to n, and generates predicted volume data V′i (S24). Therefore, predicted volume data V′0 to V′n are obtained.

画像生成部162は、予測ボリュームデータV’0〜V’nについて、それぞれの対応するボクセルにおける画素値(ボクセル値)の最大値を算出し、最大値ボリュームデータVmaxを生成する(S25)。つまり、画像生成部162は、Deep 4DMIP合成により、最大値ボリュームデータVmaxを生成する。   The image generation unit 162 calculates the maximum value of the pixel value (voxel value) in each corresponding voxel for the predicted volume data V′0 to V′n, and generates maximum value volume data Vmax (S25). That is, the image generation unit 162 generates the maximum value volume data Vmax by Deep 4DMIP composition.

画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法で可視化する(S26)。つまり、画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法でボリュームレンダリングし、出力画像(出力MIP画像)を生成する。   The image generation unit 162 visualizes the maximum value volume data Vmax by, for example, the MIP method (S26). That is, the image generation unit 162 performs volume rendering on the maximum volume data Vmax using, for example, the MIP method, and generates an output image (output MIP image).

図6の処理によれば、医用画像処理装置100は、各フェーズのボリュームデータを可視化できる。例えば、医用画像処理装置100は、観察対象に動きがあり、フェーズによってボリュームデータの各画素に表れたり消滅したりする時系列に変化する観察対象であっても、ユーザにより視認し易くできる。例えば、非検体を造影して観察する場合、造影剤の流れに伴い、フェーズによって造影剤により造影される被検体の部位が異なる。フェーズによっては例えば血管の一部だけが造影されることがあるが、各フェーズのボリュームデータを合成することで、1つのボリュームデータに各フェーズの観察対象に係る画素値が表現され得る。よって、動脈だけ造影されるフェーズや静脈だけ造影されるフェーズを観察する場合に、被検体内に造影剤を流し続けることなく、画像処理により時系列で変化する様子を1つのボリュームデータで可視化できる。よって、医用画像処理装置100は、造影剤の注入時間を減らすことができ、被検体の腎臓への負担を軽減できる。また、医用画像処理装置100は、予測器171の機械学習を実施することで、ノイズを抑制した予測ボリュームデータを生成でき、適度に明るい画像を可視化できる。   According to the process of FIG. 6, the medical image processing apparatus 100 can visualize the volume data of each phase. For example, the medical image processing apparatus 100 can easily be visually recognized by the user even if the observation target is a time-sequential observation target that moves and appears in each pixel of the volume data depending on the phase. For example, when observing a non-specimen while contrasting, the region of the subject to be imaged by the contrast agent varies depending on the phase as the contrast agent flows. Depending on the phase, for example, only a part of the blood vessel may be imaged, but by synthesizing the volume data of each phase, the pixel value related to the observation target of each phase can be expressed in one volume data. Therefore, when observing a phase in which only the artery is contrasted or a phase in which only the vein is contrasted, it is possible to visualize the change in time series by image processing with one volume data without continuing to flow a contrast medium into the subject. . Therefore, the medical image processing apparatus 100 can reduce the time for injecting the contrast agent, and can reduce the burden on the kidney of the subject. Further, the medical image processing apparatus 100 can generate predictive volume data in which noise is suppressed by performing machine learning of the predictor 171 and can visualize a moderately bright image.

図7Aは、4DMIP合成で生成された出力MPR画像gzx1とDeep 4DMIP合成で生成された出力MPR画像GZ1とを示す図である。図7Bは、4DMIP合成で生成された出力レイキャスト画像gzx2とDeep 4DMIP合成で生成された出力レイキャスト画像GZ2とを示す図である。出力MPR画像gzx1,GZ1及び出力レイキャスト画像gzx2,GZ2では、それぞれ、同じ被検体の同じ部位が示されている。   FIG. 7A is a diagram showing an output MPR image gzx1 generated by 4DMIP composition and an output MPR image GZ1 generated by Deep 4DMIP composition. FIG. 7B is a diagram illustrating an output ray-cast image gzx2 generated by 4DMIP combining and an output ray-cast image GZ2 generated by Deep 4DMIP combining. In the output MPR images gzx1, GZ1 and the output ray cast images gzx2, GZ2, the same part of the same subject is shown.

図7Aにおいて、4DMIP合成で生成された出力MPR画像gzx1では、最大値を適用することで高輝度ノイズが画素値に選択され易くなり、全体的に白くなっており、つまり全体的に輝度値(画素値)が高くなっている。これに対し、Deep 4DMIP合成で生成された出力MPR画像GZ1は、出力MPR画像gzx1と比べると、ノイズが抑制され、全体的な白さは低減しており、診断上意味のある場所が高い画素値となっていることを判別できる。よって、ユーザによる診断精度も向上し得る。   In FIG. 7A, in the output MPR image gzx1 generated by the 4DMIP composition, by applying the maximum value, the high luminance noise is easily selected as the pixel value, and is generally white, that is, the luminance value ( Pixel value) is high. On the other hand, the output MPR image GZ1 generated by the Deep 4DMIP synthesis is less in noise and reduced in overall whiteness compared to the output MPR image gzx1, and has a high diagnostic significance. It can be determined that it is a value. Therefore, the diagnostic accuracy by the user can be improved.

図7Bにおいて、4DMIP合成で生成された出力MPR画像gzx2では、実際の血管以外のノイズも映り込んでおり、実際の血管が見え難い状態となっている。これに対し、Deep 4DMIP合成で生成された出力MPR画像GZ2は、出力MPR画像gzx2と比べると、ノイズが抑制され、ノイズ成分の描画が少なくなっており、診断上意味のある血管等を判別し易くなっている。よって、ユーザによる診断精度も向上し得る。   In FIG. 7B, in the output MPR image gzx2 generated by the 4DMIP synthesis, noise other than the actual blood vessel is also reflected, and it is difficult to see the actual blood vessel. On the other hand, the output MPR image GZ2 generated by the Deep 4DMIP composition is suppressed in noise and the drawing of noise components is reduced as compared with the output MPR image gzx2, so that a blood vessel or the like that is meaningful for diagnosis is discriminated. It is easy. Therefore, the diagnostic accuracy by the user can be improved.

つまり、4DMIP合成で生成された出力MPR画像gzx1では、複数フェーズのボリュームデータのボクセル毎に最大値を単純に用いることで合成ボリュームデータを作成するので、高輝度ノイズが可視化され易い。複数フェーズのボリュームデータにおいて、任意のフェーズのボリュームデータにおけるノイズは、そのフェーズの近傍のフェーズのボリュームデータのみを基に予測することが困難である。なお、CT装置200により撮像して得られたボリュームデータの場合、同一フェーズにおける対象ピクセルの近傍に位置する近傍ピクセルを用いると、対象ピクセルにおけるノイズの状態を予測可能である。また、対象フェーズのボリュームデータにおけるノイズ以外の信号(例えば定常部分やCT値が変化する血管)は、その前後のフェーズのボリュームデータにおけるノイズ以外の信号を基に予測可能である。ノイズ以外の信号については、連続するフェーズで、ある程度関連性があるためである。   That is, in the output MPR image gzx1 generated by the 4DMIP composition, the composite volume data is created by simply using the maximum value for each voxel of the volume data of a plurality of phases, so that high luminance noise is easily visualized. In volume data of a plurality of phases, it is difficult to predict noise in volume data of an arbitrary phase based only on volume data of a phase in the vicinity of the phase. In the case of volume data obtained by imaging with the CT apparatus 200, it is possible to predict the state of noise in the target pixel by using a neighboring pixel located in the vicinity of the target pixel in the same phase. Further, a signal other than noise in the volume data of the target phase (for example, a steady portion or a blood vessel whose CT value changes) can be predicted based on a signal other than noise in the volume data of the previous and subsequent phases. This is because signals other than noise are related to some extent in successive phases.

したがって、医用画像処理装置100は、ボリュームデータにおけるノイズ成分とボリュームデータにおけるノイズ以外の成分(例えば造影剤)とを区別可能であると仮定できる。   Therefore, it can be assumed that the medical image processing apparatus 100 can distinguish between a noise component in volume data and a component other than noise in volume data (for example, a contrast agent).

図8は、複数フェーズのボリュームデータの合成方法別の適否情報の一例を示す図である。合成方法には、4DMIP合成、フェーズ平均4DMIP合成、フィルタ付きフェーズ平均4DMIP合成、Deep 4DMIP合成、等が含まれてよい。なお、図8では、フェーズ平均4DMIP合成において、複数フェーズが3つのフェーズ群に区切られた場合を例示している(以降の図の説明でも同様)。   FIG. 8 is a diagram illustrating an example of suitability information for each method of synthesizing volume data of a plurality of phases. Synthesis methods may include 4DMIP synthesis, phase average 4DMIP synthesis, phase average 4DMIP synthesis with filter, Deep 4DMIP synthesis, and the like. Note that FIG. 8 illustrates a case where a plurality of phases are divided into three phase groups in the phase average 4DMIP synthesis (the same applies to the description of the following drawings).

4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズが多く、合成ボリュームデータにおける細血管(細い血管)が明るくなり(白っぽくなり)、図8の合成方法の中では最も(最大限)明るくなる。つまり、最も画素値が大きくなる。なお、細血管は、CT画像で表現可能な下限に近い太さの血管でよく、例えば0.5mm程度の太さの血管でよい。   When the synthetic volume data is generated by 4DMIP synthesis, there is a lot of noise in the synthetic volume data, and the thin blood vessels (thin blood vessels) in the synthetic volume data become brighter (whiter). ) Brighten up. That is, the pixel value becomes the largest. The fine blood vessel may be a blood vessel having a thickness close to the lower limit that can be expressed by a CT image, for example, a blood vessel having a thickness of about 0.5 mm.

フェーズ平均4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズは中程度であり、合成ボリュームデータにおける細血管はやや暗くなる。   When the synthetic volume data is generated by the phase average 4DMIP synthesis, the noise in the synthetic volume data is moderate, and the thin blood vessels in the synthetic volume data become slightly dark.

フィルタ付きフェーズ平均4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズが少なく、合成ボリュームデータにおける細血管が暗くなる。   When synthetic volume data is generated by phase average 4DMIP synthesis with a filter, there is little noise in the synthetic volume data and dark blood vessels in the synthetic volume data are darkened.

Deep 4DMIP合成により合成ボリュームデータが生成された場合、合成ボリュームデータにおけるノイズが少なく、合成ボリュームデータにおける細血管は明るいので、好ましい。よって、Deep 4DMIP合成では、他の合成方法と比較すると、ノイズが低減され得る。   When synthetic volume data is generated by Deep 4DMIP synthesis, it is preferable because there is little noise in the synthetic volume data and the thin blood vessels in the synthetic volume data are bright. Therefore, in Deep 4DMIP synthesis, noise can be reduced compared to other synthesis methods.

図9は、複数フェーズのボリュームデータの合成方法別且つ被検体における部位別の画像例を示す図である。図9では、ボリュームデータの合成方法には、Deep 4DMIP合成、4DMIP合成、フェーズ平均4DMIP合成、TSUM合成、等が含まれてよい。   FIG. 9 is a diagram showing an example of an image for each method of synthesizing volume data of a plurality of phases and for each region in a subject. In FIG. 9, volume data synthesis methods may include Deep 4DMIP synthesis, 4DMIP synthesis, phase average 4DMIP synthesis, TSUM synthesis, and the like.

図9では、被検体における部位が3つ示されている。図9における最上段の各画像は部位b1を示し、中段の各画像は部位b2を示し、最下段の各画像は部位b3を示す。なお、図9では、それぞれの合成方法で生成された合成ボリュームデータのMPR画像が、出力画像として示されている。   In FIG. 9, three parts in the subject are shown. In FIG. 9, each image in the uppermost row shows a part b1, each image in the middle stage shows a part b2, and each image in the lowermost part shows a part b3. In FIG. 9, MPR images of combined volume data generated by the respective combining methods are shown as output images.

Deep 4DMIP合成された出力画像では、細血管が消えず、細血管が薄くならず(輝度が小さくならず)、ノイズが消える。例えば、最上段の部位b1では、細血管が他の合成方法よりも見え易くなっている(図9の最左列且つ最上段の2つの矢印の先端近傍部分参照)。また、例えば、中段の部位b2では、ノイズが他の合成方法よりも見え難くなっている(図9の最左列且つ中段の矢印の先端近傍部分参照)。つまり、予測器171の機械学習の結果、実信号成分が残存し、ノイズ成分が残存しないように、各予測ボリュームデータが生成されることが理解できる。   In the output image synthesized with Deep 4DMIP, the fine blood vessels do not disappear, the thin blood vessels do not become thin (the luminance does not become small), and the noise disappears. For example, in the uppermost part b1, the fine blood vessels are easier to see than other synthesis methods (see the vicinity of the tip of the leftmost column and the uppermost two arrows in FIG. 9). Further, for example, in the middle part b2, noise is harder to see than in other synthesis methods (see the vicinity of the tip of the leftmost column and the middle arrow in FIG. 9). That is, as a result of the machine learning of the predictor 171, it can be understood that each predicted volume data is generated so that a real signal component remains and no noise component remains.

フェーズ平均4DMIP合成された出力画像では、細血管がやや消え、薄くなり、ノイズがやや消える。4DMIP合成された出力画像では、細血管が消えず、細血管がノイズに埋もれ気味であり、高輝度ノイズが増えている。つまり、単純な4DMIPと比較すると、フェーズ平均された4DMIPでは出力画像の画素値の全体が多少平滑化され、細血管やノイズの描画が少なめになる。   In the output image synthesized by the phase average 4DMIP, the thin blood vessels are slightly disappeared and thinned, and the noise is slightly disappeared. In the output image synthesized by 4DMIP, the fine blood vessels do not disappear, the fine blood vessels are buried in noise, and high luminance noise increases. That is, compared with simple 4DMIP, the phase averaged 4DMIP smoothes the whole pixel value of the output image somewhat, and the drawing of fine blood vessels and noise is reduced.

TSUM合成された出力画像では、細血管が消え、薄くなり、ノイズが消える。つまり、出力画像全体において高輝度値の影響を受け、出力画像を表示するための輝度値が調整されるので、必要な信号成分(実信号成分とも称する)もノイズ成分も同様に除去され易くなる。実信号成分は、例えば、血管、骨、等の複数フェーズにわたって物理的に実在する成分でよい。   In the TSUM synthesized output image, the fine blood vessels disappear, become thinner, and the noise disappears. In other words, the luminance value for displaying the output image is adjusted under the influence of the high luminance value in the entire output image, so that necessary signal components (also referred to as real signal components) and noise components are easily removed as well. . The actual signal component may be a component that physically exists over a plurality of phases, such as a blood vessel and a bone.

図10は、複数フェーズのボリュームデータの合成方法別且つレンダリング方法別の画像例を示す図である。図10では、ボリュームデータの合成方法には、4DMIP合成、フィルタ付きフェーズ平均4DMIP合成、Deep 4DMIP合成、等が含まれてよい。レンダリング方法には、MPR、レイキャスト、MIP、等が含まれてよい。なお、図10では、フィルタ付きフェーズ平均4DMIP合成された各出力画像では、輝度値を2倍にして示している。   FIG. 10 is a diagram illustrating an example of an image for each synthesis method and rendering method for volume data of a plurality of phases. In FIG. 10, the volume data synthesis method may include 4DMIP synthesis, phase average 4DMIP synthesis with filter, Deep 4DMIP synthesis, and the like. Rendering methods may include MPR, raycast, MIP, etc. In FIG. 10, each output image subjected to phase average 4DMIP synthesis with a filter has a luminance value doubled.

4DMIP合成された出力画像では、ノイズが多く含まれ、画像全体が白っぽくなっている。また、出力レイキャスト画像及び出力MIP画像では、血管の他にノイズ成分が多くなっており、血管の走行が不鮮明となっている。   The 4DMIP synthesized output image contains a lot of noise and the entire image is whitish. Further, in the output ray cast image and the output MIP image, there are many noise components in addition to the blood vessels, and the blood vessels are unclear.

フィルタ付きフェーズ平均4DMIP合成された出力画像では、ノイズが少なくなるが、実信号成分も平滑化されて少なくなっている。そのため、出力レイキャスト画像及び出力MIP画像では、実際の血管よりも描画される血管が少なくなり、必要な情報が欠落している可能性がある。   In the output image synthesized by the phase average 4DMIP with filter, noise is reduced, but the actual signal component is also smoothed and reduced. For this reason, in the output ray cast image and the output MIP image, there are fewer blood vessels to be drawn than actual blood vessels, and necessary information may be missing.

Deep 4DMIP合成では、ノイズが少なくなり、実信号成分も削除されずに維持される。そのため、出力レイキャスト画像及び出力MIP画像では、血管の走行が適切に描画され、ユーザにとって観察し易い状態となっている。   In Deep 4DMIP synthesis, noise is reduced and the actual signal component is maintained without being deleted. Therefore, in the output ray cast image and the output MIP image, the travel of the blood vessel is appropriately drawn and is easy for the user to observe.

図11は、被検体の頭部における部位別(組織別)の各フェーズにおける画素値の変化例を示すグラフである。つまり、図11は、被検体の頭部における部位別(組織別)の時間方向の変位を示す。図11では、被検体の頭部における部位として、脳(Brain, Brain 2〜5)、比較的明るい血管(Bright Vessel)、比較的暗い脳(Dark Brain 1〜3)、比較的暗い血管(Dark Vessel)、矢状静脈洞(Sagittal Sinus)、比較的細い血管(Thin Vessel, Thin Vessel 2)、等が示されている。図11では、フェーズ0(t=0)において、必要に応じて造影剤が被検体に投与開始されるとする。図11が示す画素値は、CT装置200の撮像により得られたボリュームデータ(実ボリュームデータ)の画素値でよい。   FIG. 11 is a graph showing an example of changes in pixel values in each phase of each part (organization) in the head of the subject. That is, FIG. 11 shows the displacement in the time direction for each region (for each tissue) in the head of the subject. In FIG. 11, the brain (Brain, Brain 2 to 5), the relatively bright blood vessel (Bright Vessel), the relatively dark brain (Dark Brain 1 to 3), and the relatively dark blood vessel (Dark). Vessel), sagittal sinus, relatively thin blood vessels (Thin Vessel, Thin Vessel 2), etc. are shown. In FIG. 11, it is assumed that a contrast medium is started to be administered to a subject as necessary in phase 0 (t = 0). The pixel values shown in FIG. 11 may be pixel values of volume data (actual volume data) obtained by imaging with the CT apparatus 200.

脳及び比較的暗い脳では、各フェーズにおいて画素値の変化がほとんどない。これは、被検体に造影剤が投与されていない、又は被検体に造影剤が投与されたが、これらの脳の部位には造影剤が流入しないことを意味する。   In the brain and the relatively dark brain, there is almost no change in pixel values in each phase. This means that no contrast agent is administered to the subject, or a contrast agent is administered to the subject, but the contrast agent does not flow into these brain regions.

比較的細い血管、矢状静脈洞、比較的暗い血管、及び比較的明るい血管では、各フェーズにおいて画素値がある程度以上変化する。具体的には、複数フェーズの序盤では、造影剤が各部位に順次到達して流入するために、順次画素値が大きくなっている。複数フェーズの終盤では、造影剤が各部位から流出するために、順次画素値が小さくなっている。なお、部位毎に造影剤が流れ込む時間が異なるため、画素値がピークとなるフェーズは部位毎に異なってよい。例えば、血管では、動脈に先に造影剤が流れこむために動脈の画素値が先に高くなり、静脈に後から造影剤が流れこむために静脈の画素値が後から高くなる。   In a relatively thin blood vessel, a sagittal sinus, a relatively dark blood vessel, and a relatively light blood vessel, the pixel value changes to some extent in each phase. Specifically, in the early stage of a plurality of phases, the contrast agent sequentially reaches and flows into each part, so that the pixel value increases sequentially. At the end of a plurality of phases, the contrast value flows out from each part, so that the pixel values are sequentially reduced. In addition, since the time for the contrast agent to flow is different for each part, the phase where the pixel value reaches a peak may be different for each part. For example, in a blood vessel, since the contrast medium flows into the artery first, the pixel value of the artery increases first, and since the contrast medium flows into the vein later, the pixel value of the vein increases later.

次に、観察対象以外の被検体のボリュームデータを用いて学習した場合の観察対象についての出力画像について説明する。   Next, an output image of the observation target when learning is performed using the volume data of the subject other than the observation target will be described.

図12Aは、観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力MIP画像の一例を示す図である。図12Bは、観察対象の被検体の単一フェーズのボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図である。   FIG. 12A is a diagram illustrating an example of an output MIP image in which single-phase volume data of a subject to be observed is rendered. FIG. 12B is a diagram illustrating an example of an output ray cast image in which single-phase volume data of a subject to be observed is rendered.

図12Cは、観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図である。図12Dは、観察対象の被検体の複数フェーズのボリュームデータが4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図である。   FIG. 12C is a diagram illustrating an example of an output MIP image in which composite volume data in which volume data of a plurality of phases of a subject to be observed is combined with 4DMIP is rendered. FIG. 12D is a diagram illustrating an example of an output raycast image obtained by rendering composite volume data obtained by 4DMIP synthesis of volume data of a plurality of phases of a subject to be observed.

図12Eは、観察対象以外の被検体のボリュームデータを用いて予測器171が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力MIP画像の一例を示す図である。図12Fは、観察対象以外の被検体のボリュームデータを用いて予測器171が機械学習した場合における観察対象の被検体の複数フェーズのボリュームデータがDeep 4DMIP合成された合成ボリュームデータがレンダリングされた出力レイキャスト画像の一例を示す図である。   FIG. 12E shows an output in which synthesized volume data in which volume data of a plurality of phases of a subject to be observed is subjected to Deep 4DMIP synthesis is rendered when the predictor 171 performs machine learning using the volume data of the subject other than the subject to be observed. It is a figure which shows an example of a MIP image. FIG. 12F shows an output in which synthesized volume data obtained by deep 4DMIP synthesis of volume data of a plurality of phases of a subject to be observed when the predictor 171 performs machine learning using the volume data of the subject other than the observation subject is rendered. It is a figure which shows an example of a ray cast image.

図12A〜図12Fを参照すると、医用画像処理装置100は、観察対象以外の被検体のボリュームデータを用いて機械学習した場合でも、観察対象の出力画像(例えば出力MIP画像、出力レイキャスト画像)として、ノイズ成分が抑制され、実信号成分が抑制されない、鮮明な画像が得られることが理解できる。よって、ユーザは、レンダリングされた出力画像を確認することで、観察対象の様子を容易に鮮明に把握でき、高精度の診断を行うことが可能となる。また、予測器171は、観察対象の被検体と異なる被検体のボリュームデータを用いて機械学習することで、観察対象の患者固有のデータだけでなく、様々な患者に関するデータを用いて学習できるので、機械学習のバリエーションを増やすことができる。   Referring to FIGS. 12A to 12F, the medical image processing apparatus 100 outputs an observation target output image (for example, an output MIP image or an output raycast image) even when machine learning is performed using volume data of a subject other than the observation target. It can be understood that a clear image is obtained in which the noise component is suppressed and the actual signal component is not suppressed. Therefore, the user can easily and clearly grasp the state of the observation target by checking the rendered output image, and can perform a highly accurate diagnosis. In addition, the predictor 171 can perform learning using not only data specific to the patient to be observed but also data regarding various patients by performing machine learning using volume data of a subject different from the subject to be observed. , Increase machine learning variations.

このように、医用画像処理装置100は、時系列上の複数のボリュームデータを取得し、画質の良いボリュームデータを生成できる。従来のDeep Learningでは、学習に用いたボリュームデータ自体の画質は改善しないが、医用画像処理装置100は、時系列上のボリュームデータを用いることによって、その時系列データの画質を改善できる。また、観察対象の被検体以外のボリュームデータを用いる場合でも、同様の効果が得られる。また、医用画像処理装置100は、画質を改善したい時系列データ自体を、予測器171が機械学習するための教師データとすることで、実空間では真のノイズの無いデータが存在しないところ、ノイズが抑制された時系列データやこの時系列データを用いた出力データ(例えば合成ボリュームデータや出力画像)を得ることができる。   As described above, the medical image processing apparatus 100 can acquire a plurality of volume data in time series and generate volume data with good image quality. In the conventional deep learning, the image quality of the volume data itself used for learning is not improved, but the medical image processing apparatus 100 can improve the image quality of the time series data by using the time series volume data. The same effect can be obtained even when using volume data other than the subject to be observed. Further, the medical image processing apparatus 100 uses the time-series data itself for which image quality is desired to be improved as teacher data for machine learning by the predictor 171, so that there is no noise-free data in real space. Can be obtained, and output data (for example, synthetic volume data and output image) using the time series data can be obtained.

なお、第1の実施形態では、予測器171は、同一の被検体についての複数フェーズのボリュームデータ(実ボリュームデータ)のうちの一部のボリュームデータを基に、複数フェーズのボリュームデータのうちの残りのボリュームデータに対応する予測ボリュームデータを生成することを例示した。この代わりに、予測器171は、予測ボリュームデータの生成の基となる複数フェーズのボリュームデータとして、全て実ボリュームデータを用いてもよいし、実ボリュームデータと予測ボリュームデータとを混在して用いてもよいし、全て実ボリュームデータを用いてもよい。つまり、予測器171により生成された任意のフェーズの予測ボリュームデータを含む複数のフェーズのボリュームデータを基に、他のフェーズの予測ボリュームデータを生成してもよい。   In the first embodiment, the predictor 171 uses a part of the volume data of the plurality of phases of volume data (actual volume data) for the same subject. An example of generating predicted volume data corresponding to the remaining volume data is shown. Instead, the predictor 171 may use real volume data as a plurality of phases of volume data that is the basis for generation of predicted volume data, or a mixture of real volume data and predicted volume data. Alternatively, all real volume data may be used. That is, based on the volume data of a plurality of phases including the predicted volume data of an arbitrary phase generated by the predictor 171, predicted volume data of other phases may be generated.

よって、予測器171は、予測器171により予測ボリュームデータを生成し、生成された予測ボリュームデータに基づいて次回の予測ボリュームデータを生成し、この処理を反復してよい。この場合、各回において複数フェーズのボリュームデータ(予測ボリュームデータや実ボリュームデータ含む)を位置合わせしてよい。これにより、医用画像処理装置100は、各回の予測ボリュームデータの生成によってノイズが徐々に低減し、位置合わせ精度を向上でき、そのために合成ボリュームデータの画質を向上できる。   Therefore, the predictor 171 may generate predicted volume data by the predictor 171, generate next predicted volume data based on the generated predicted volume data, and repeat this process. In this case, volume data of a plurality of phases (including predicted volume data and actual volume data) may be aligned each time. As a result, the medical image processing apparatus 100 can gradually reduce noise by generating predicted volume data each time and improve the alignment accuracy, thereby improving the image quality of the synthesized volume data.

(第2の実施形態)
第1の実施形態では、予測器171を機械学習させて、複数フェーズのボリュームデータに基づく合成ボリュームデータを得ることを例示した。第2の実施形態では、予測器171とともに後述する識別器172を機械学習させて、複数フェーズのボリュームデータに基づく合成ボリュームデータを得ることを例示する。
(Second Embodiment)
In the first embodiment, the predictor 171 is machine-learned to obtain synthetic volume data based on a plurality of phases of volume data. In the second embodiment, the classifier 172, which will be described later, is machine-learned together with the predictor 171 to obtain combined volume data based on volume data of a plurality of phases.

第2の実施形態では、第1の実施形態と同様の構成、動作、処理等については、説明を省略又は簡略することもある。   In the second embodiment, description of the same configuration, operation, processing, and the like as in the first embodiment may be omitted or simplified.

第2の実施形態における医用画像処理装置100Aは、第1の実施形態と同様に、ポート110、UI120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。本実施形態では、プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う処理部160Aとして機能する。   Similar to the first embodiment, the medical image processing apparatus 100A according to the second embodiment includes a port 110, a UI 120, a display 130, a processor 140, and a memory 150. In this embodiment, the processor 140 functions as a processing unit 160A that performs various processes and controls by executing a medical image processing program stored in the memory 150.

図13は、第2の実施形態における医用画像処理装置100Aの機能構成例を示すブロック図である。処理部160Aは、領域抽出部161、画像生成部162、レジストレーション処理部163、予測処理部164、識別処理部165、及び表示制御部166を備える。識別処理部165は、識別器(Discriminator)172を有する。なお、予測器171は、予測画像を生成する生成器(generator)とも言える。図13の処理部160Aにおいて、図2に示した処理部160と同様の機能構成については、同一の符号を付し、その説明を省略又は簡略化する。   FIG. 13 is a block diagram illustrating a functional configuration example of the medical image processing apparatus 100A according to the second embodiment. The processing unit 160A includes an area extraction unit 161, an image generation unit 162, a registration processing unit 163, a prediction processing unit 164, an identification processing unit 165, and a display control unit 166. The identification processing unit 165 includes a discriminator 172. Note that the predictor 171 can also be said to be a generator that generates a predicted image. In the processing unit 160A of FIG. 13, the same functional components as those of the processing unit 160 illustrated in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted or simplified.

領域抽出部161は、ボリュームデータ(例えば実ボリュームデータ又は予測ボリュームデータ)の一部を切り出して抽出する。領域抽出部161は、ボリュームデータにおける被検体の任意の部位や組織を抽出してよい。   The region extraction unit 161 cuts out and extracts a part of volume data (for example, actual volume data or predicted volume data). The region extraction unit 161 may extract an arbitrary part or tissue of the subject in the volume data.

識別処理部165は、複数フェーズのボリュームデータを基に、実空間で撮像された任意のフェーズiの実ボリュームデータにおける任意の部位pと、任意のフェーズjの予測ボリュームデータにおける任意の部位pと、の差分を示す差分ボリュームデータを生成してよい。対応するフェーズ(フェーズi)の実ボリュームデータと予測ボリュームデータとでは一致していることが好ましいが、実信号成分を含む場合には両ボリュームデータ間に実信号成分について差分が発生する。差分ボリュームデータは、理想的には実信号成分を含まないため、ノイズボリュームデータとも言える。なお、ここでは、フェーズiとフェーズjとは同じでも異なってもよい。識別処理部165は、実ボリュームデータにおける様々な部位pと、予測ボリュームデータにおける様々な部位pと、の差分を示す差分ボリュームデータを生成してよい。よって、識別処理部165は、様々な部位pに係る差分ボリュームデータを生成してよい。   The identification processing unit 165, based on the volume data of a plurality of phases, the arbitrary part p in the real volume data of any phase i imaged in real space, and the arbitrary part p in the predicted volume data of any phase j Difference volume data indicating the difference between the two may be generated. It is preferable that the actual volume data and the predicted volume data in the corresponding phase (phase i) coincide with each other. However, in the case where the actual signal component is included, a difference occurs in the actual signal component between the two volume data. Since the differential volume data ideally does not contain a real signal component, it can also be said to be noise volume data. Here, phase i and phase j may be the same or different. The identification processing unit 165 may generate differential volume data indicating differences between various parts p in the actual volume data and various parts p in the predicted volume data. Therefore, the identification processing unit 165 may generate difference volume data relating to various parts p.

識別処理部165は、抽出された部位の予測ボリュームデータと、生成された差分ボリュームデータと、の組み合わせ(データペア)を複数生成する。データペアでは、予測ボリュームデータと差分ボリュームデータとのフェーズが異なってよい。データペアでは、予測ボリュームデータと差分ボリュームデータとの被検体における部位は同じである。識別処理部165は、例えば、データペアとして、同じ部位の予測ボリュームデータと差分ボリュームデータとの組み合わせとするか、異なる部位の予測ボリュームデータと差分ボリュームデータとの組み合わせとするかを、決定してよい。例えば、同じ部位の組み合わせとなる確率と、異なる部位の組み合わせとなる確率を、それぞれ50%ずつとしてよい。   The identification processing unit 165 generates a plurality of combinations (data pairs) of the predicted volume data of the extracted part and the generated differential volume data. In a data pair, the phases of predicted volume data and differential volume data may be different. In the data pair, the predicted volume data and the difference volume data have the same part in the subject. For example, the identification processing unit 165 determines whether the data pair is a combination of the predicted volume data and the difference volume data of the same part or a combination of the predicted volume data and the difference volume data of a different part. Good. For example, the probability of combining the same parts and the probability of combining different parts may be 50% each.

識別処理部165は、データペアに含まれる差分ボリュームデータと予測ボリュームデータにおける部位pとが対応するか否かを識別する。予測器171により生成された予測ボリュームデータにおける部位pは、実ボリュームデータにおける部位pと完全に一致し、差分ボリュームデータに差分が表れないことが望ましいが、差分が表れている場合には、差分ボリュームデータが予測ボリュームデータにおけるどの部位に対応するかを識別するための示唆となる。よって、識別処理部165は、差分ボリュームデータに差分の成分を多く含む場合には、差分ボリュームデータと予測ボリュームデータにおける部位pとが対応するか否かを識別し易くなる。   The identification processing unit 165 identifies whether or not the difference volume data included in the data pair corresponds to the part p in the predicted volume data. It is desirable that the part p in the predicted volume data generated by the predictor 171 completely coincides with the part p in the actual volume data and no difference appears in the difference volume data. This is an indication for identifying which part of the predicted volume data the volume data corresponds to. Therefore, when the difference volume data includes many difference components, the identification processing unit 165 can easily identify whether or not the difference volume data corresponds to the portion p in the predicted volume data.

識別処理部165は、差分ボリュームデータと予測ボリュームデータとが対応するか否かの識別結果(例えば識別に成功したか失敗したかを示す情報)を、予測処理部164の予測器171へ通知する。   The identification processing unit 165 notifies the predictor 171 of the prediction processing unit 164 of an identification result (for example, information indicating whether identification is successful or unsuccessful) as to whether or not the difference volume data and the predicted volume data correspond. .

識別処理部165は、訓練データと教師データとを用いて、識別器172を機械学習(Machine Learning)させる。この機械学習は、GAN(Generative Adversarial Network)(例えばConditional GAN)を含んでよい。機械学習では、識別処理部165は、同じフェーズに対応する任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとのデータペアを訓練データとしてよい。識別処理部165は、この任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとが対応しているか否かを示す情報を教師データとしてよい。   The identification processing unit 165 causes the classifier 172 to perform machine learning using the training data and the teacher data. This machine learning may include GAN (Generative Adversarial Network) (for example, Conditional GAN). In machine learning, the identification processing unit 165 may use a data pair of difference volume data of an arbitrary part corresponding to the same phase and predicted volume data of an arbitrary part as training data. The identification processing unit 165 may use, as teacher data, information indicating whether or not the difference volume data of any part corresponds to the predicted volume data of any part.

識別処理部165は、訓練データと教師データとを用いて、差分ボリュームデータと予測ボリュームデータとが対応するか否かの識別が成功する(正解率が上がる)ように、機械学習する。つまり、識別処理部165は、任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとが同じ部位のデータであるか否かの識別が成功するように、機械学習してよい。   The identification processing unit 165 performs machine learning using the training data and the teacher data so that the identification of whether or not the difference volume data corresponds to the predicted volume data succeeds (the accuracy rate increases). That is, the identification processing unit 165 may perform machine learning so that the identification of whether or not the difference volume data of an arbitrary part and the predicted volume data of an arbitrary part are the same part data is successful.

予測処理部164は、識別結果の通知を受けて、識別器172により差分ボリュームデータと予測ボリュームデータとの対応関係を識別したか否かを認識可能である。予測器171は、識別器172により任意の部位の差分ボリュームデータと任意の部位の予測ボリュームデータとの対応関係を識別されないように、機械学習する。この機械学習は、GAN(例えばConditional GAN、CNNを利用したGAN)を含んでよい。   Upon receiving the notification of the identification result, the prediction processing unit 164 can recognize whether or not the discriminator 172 has identified the correspondence between the differential volume data and the predicted volume data. The predictor 171 performs machine learning so that the correspondence between the differential volume data of an arbitrary part and the predicted volume data of an arbitrary part is not identified by the identifier 172. This machine learning may include GAN (for example, Conditional GAN, GAN using CNN).

画像生成部162は、識別器172とともに機械学習された予測器171により生成された複数フェーズの予測ボリュームデータにおいて各ボクセルの最大値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、Deep GAN 4DMIP合成と称してよい。Deep GAN 4DMIP合成では、複数フェーズの予測ボリュームデータにおける各ボクセルの最大値の導出に、4DMIP合成が実施する具体的な手法を適用してよい。   The image generation unit 162 may generate one composite volume data using the maximum value of each voxel as the pixel value in the predicted volume data of a plurality of phases generated by the predictor 171 machine-learned together with the discriminator 172. This synthesis method may be referred to as Deep GAN 4DMIP synthesis. In Deep GAN 4DMIP synthesis, a specific method implemented by 4DMIP synthesis may be applied to derivation of the maximum value of each voxel in a plurality of phases of predicted volume data.

次に、予測器171及び識別器172の役割について説明する。   Next, the roles of the predictor 171 and the identifier 172 will be described.

なお、ここでは、iは、フェーズ番号でよい。Viは、予測を希望するフェーズのボリュームデータでよい。p,qは、ボリュームデータにおける部位を識別するための部位識別情報を示す。   Here, i may be a phase number. Vi may be volume data of a phase for which prediction is desired. p and q indicate part identification information for identifying the part in the volume data.

予測器171は、前述のように、予測ボリュームデータV’iを生成する。ノイズは予測できないため、予測ボリュームデータV’iにはノイズ成分は含まれない。一方、予測器171は、ノイズ成分とともに、機械学習のL1ロスの性質上、実信号成分のうち微小構造(例えば骨や血管の微細構造)も削除し易い。そこで、予測器171が微小構造を削除した場合、ペナルティを受けるようにする。   As described above, the predictor 171 generates the predicted volume data V′i. Since noise cannot be predicted, the predicted volume data V′i does not include a noise component. On the other hand, the predictor 171 easily deletes a minute structure (for example, a fine structure of a bone or a blood vessel) from the actual signal component due to the L1 loss property of machine learning together with the noise component. Therefore, when the predictor 171 deletes the micro structure, a penalty is applied.

予測器171は、差分ボリュームデータ(V’i−Vi)を生成する。差分ボリュームデータでは、各画素値が一様なノイズ成分(A)となることが望ましい。実際には、予測器171の性能により、差分ボリュームデータには、ノイズ成分(A)とともに、微小なエッジ成分として微小構造成分(B)が残存し得る。微小構造成分(B)は、実信号成分の一例である。よって、差分ボリュームデータには、(A+B)の成分が残存し得る。   The predictor 171 generates differential volume data (V′i−Vi). In the differential volume data, it is desirable that each pixel value is a uniform noise component (A). Actually, due to the performance of the predictor 171, the minute volume component (B) may remain as a minute edge component together with the noise component (A) in the differential volume data. The microstructure component (B) is an example of an actual signal component. Therefore, the (A + B) component may remain in the differential volume data.

差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとを比較した場合に、p=qであるかp≠qであるかを識別できないことが望ましく、したがって、差分ボリュームデータ(V’p−Vp)に微小構造成分(B)が含まれないことが望ましい。   When the difference volume data (V′p−Vp) and the predicted volume data V′q are compared, it is desirable that it is not possible to identify whether p = q or p ≠ q. Therefore, the difference volume data (V It is desirable that the microstructure component (B) is not contained in 'p-Vp).

なお、差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとは、被検体における異なる部位のデータである。差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとは、同じフェーズのデータであってもよいし、異なるフェーズのデータであってもよい。   The difference volume data (V′p−Vp) and the predicted volume data V′q are data of different parts in the subject. The difference volume data (V′p−Vp) and the predicted volume data V′q may be the same phase data or different phase data.

上記の識別を行うために、識別器172が定義可能である。識別器172は、差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとを任意の組み合わせのデータペアを取得する。識別器172は、例えば、p=qであると識別した場合に値0を出力し、p≠qであると識別した場合に値1を出力する。この出力結果(識別結果)の成否が評価され、予測器171による以降の予測に反映される。   A classifier 172 can be defined to perform the above identification. The discriminator 172 acquires a data pair of any combination of the differential volume data (V′p−Vp) and the predicted volume data V′q. For example, the discriminator 172 outputs a value of 0 when identifying that p = q, and outputs a value of 1 when identifying that p ≠ q. The success or failure of this output result (identification result) is evaluated and reflected in subsequent predictions by the predictor 171.

なお、予測器171に関する損失(Generator Loss)は、再構成誤差つまり実ボリュームデータに対する予測ボリュームデータの差分(予測誤差)と、識別器172による識別成功と、を含む。識別器172に関する損失(Discriminator Loss)は、誤識別つまり識別器172による識別失敗を含む。   The loss (Generator Loss) related to the predictor 171 includes a reconstruction error, that is, a difference (prediction error) of predicted volume data with respect to actual volume data, and successful identification by the classifier 172. The discriminator loss associated with the discriminator 172 includes misidentification, that is, discrimination failure by the discriminator 172.

次に、予測器171及び識別器172の機械学習について説明する。   Next, machine learning of the predictor 171 and the discriminator 172 will be described.

図14は、予測器171及び識別器172の機械学習の一例を説明するための図である。図14では、Vは、ボリュームデータを示す。i,kは、フェーズ番号を示す。フェーズの異なる複数のボリュームデータは、レジストレーションされていることが好ましいが、必須ではない。   FIG. 14 is a diagram for explaining an example of machine learning of the predictor 171 and the discriminator 172. In FIG. 14, V indicates volume data. i and k indicate phase numbers. A plurality of volume data having different phases are preferably registered, but it is not essential.

また、図14では、p,qは、ボリュームデータにおける部位識別情報を示す。部位識別情報は、被検体における様々な部位(任意の臓器、血管、骨、組織、病変、等)を識別するための情報を示す。Vpは、ボリュームデータの一部であり、被検体における部位番号pで識別される部位のボリュームデータを示す。   Further, in FIG. 14, p and q indicate part identification information in the volume data. The part identification information indicates information for identifying various parts (arbitrary organs, blood vessels, bones, tissues, lesions, etc.) in the subject. Vp is a part of the volume data, and indicates volume data of a part identified by the part number p in the subject.

予測器171は、第1の実施形態と同様に、訓練データであるVk(k≠i)を入力した場合に、教師データであるViを出力するように、機械学習する。この場合、予測器171は、実際にはV’iを出力するが、V’iがViに近づくように機械学習する。   As in the first embodiment, the predictor 171 performs machine learning so as to output Vi that is teacher data when Vk (k ≠ i) that is training data is input. In this case, the predictor 171 actually outputs V′i, but performs machine learning so that V′i approaches Vi.

識別処理部165は、複数フェーズのうちの、予測器171で生成された予測ボリュームデータに対応するフェーズiについて、被検体の任意の部位pの差分ボリュームデータ(V’p−Vp)を生成する。識別処理部165は、複数フェーズのうちの、予測器171で生成された予測ボリュームデータに対応するフェーズiについて、被検体の任意の部位qの予測ボリュームデータV’qを生成する。ここでの部位p,qは、パッチに相当する範囲であってよい。   The identification processing unit 165 generates differential volume data (V′p−Vp) of an arbitrary part p of the subject for the phase i corresponding to the predicted volume data generated by the predictor 171 among the plurality of phases. . The identification processing unit 165 generates predicted volume data V′q of an arbitrary part q of the subject for phase i corresponding to the predicted volume data generated by the predictor 171 among the plurality of phases. The parts p and q here may be a range corresponding to a patch.

識別処理部165は、差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとのデータペアを、識別器172に入力する。この場合、識別処理部165は、差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとを任意に組み合わせて、識別器172への入力対象のデータペアを生成する。任意の組み合わせには、それぞれ同じ部位(q=p)のデータの組み合わせと、異なる部位(q≠p)のデータを組み合わせと、が含まれてよい。   The identification processing unit 165 inputs a data pair of the difference volume data (V′p−Vp) and the predicted volume data V′q to the classifier 172. In this case, the identification processing unit 165 generates a data pair to be input to the classifier 172 by arbitrarily combining the differential volume data (V′p−Vp) and the predicted volume data V′q. The arbitrary combination may include a combination of data of the same part (q = p) and a combination of data of different parts (q ≠ p).

同じ部位(例えば血管と血管)の予測ボリュームデータと差分ボリュームデータとのデータペアは、同じ部位つまり対応する部位のデータであるので、対応ペア(対応パターン)とも称する。異なる部位(例えば血管と骨)の予測ボリュームデータと差分ボリュームデータとのペアは、異なる部位つまり対応しない部位のデータであるので、非対応ペア(非対応パターン)とも称する。よって、識別処理部165は、対応ペア(V’p−Vp,V’q)(q=p)又は非対応ペア(V’p−Vp,V’q)(q≠p)を、訓練データとして、識別器172に入力する。   Since the data pair of the predicted volume data and difference volume data of the same part (for example, blood vessel and blood vessel) is data of the same part, that is, a corresponding part, it is also called a corresponding pair (corresponding pattern). A pair of predicted volume data and difference volume data of different parts (for example, blood vessels and bones) is data of different parts, that is, non-corresponding parts, and is also referred to as a non-corresponding pair (non-corresponding pattern). Therefore, the identification processing unit 165 determines the corresponding pair (V′p−Vp, V′q) (q = p) or the non-corresponding pair (V′p−Vp, V′q) (q ≠ p) as training data. To the discriminator 172.

識別処理部165は、差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとのペアを生成する際に、この差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとが対応するか否かの成否(真偽つまりReal/Fake)を予め認識している。この成否の情報は、例えばメモリ150に保持されていてよい。識別処理部165は、訓練データに対応する成否を示すデータ(例えばReal/Fake、値0や値1)を、教師データとして、識別器172に入力する。   When the identification processing unit 165 generates a pair of the differential volume data (V′p−Vp) and the predicted volume data V′q, the differential volume data (V′p−Vp) and the predicted volume data V′q The success or failure (true / false, that is, Real / Fake) of whether or not corresponds to is recognized in advance. This success / failure information may be held in the memory 150, for example. The identification processing unit 165 inputs data indicating success or failure corresponding to the training data (for example, Real / Fake, value 0 or value 1) to the classifier 172 as teacher data.

識別器172は、訓練データを入力して、教師データを出力するよう、機械学習する。具体的には、識別器172は、差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとが対応するか否か、つまり対応ペアであるか非対応ペアであるかの識別結果が正解となるよう機械学習してよい。   The discriminator 172 performs machine learning so that training data is input and teacher data is output. Specifically, the discriminator 172 identifies whether or not the differential volume data (V′p−Vp) and the predicted volume data V′q correspond, that is, whether the pair is a corresponding pair or a non-corresponding pair. Machine learning may be performed so that is correct.

識別処理部165は、識別器172による機械学習において対応/非対応の識別結果の成否の情報を、予測処理部164の予測器171へ通知する。   The identification processing unit 165 notifies the prediction unit 171 of the prediction processing unit 164 of the success / failure information of the corresponding / non-corresponding identification result in the machine learning by the classifier 172.

予測処理部164は、171は、識別器172による識別結果の成否の情報を、予測器171による機械学習のための1つのパラメータとして追加する。予測器171は、識別器172による識別結果が不正解となるよう機械学習する。つまり、予測器171は、識別器172により差分ボリュームデータ(V’p−Vp)と予測ボリュームデータV’qとを識別できない予測ボリュームデータV’qに対応する予測ボリュームデータV’iを生成するよう、機械学習してよい。このように、予測器171は、識別器172が識別に成功した場合、ペナルティを受ける。   The prediction processing unit 164 adds information on the success or failure of the discrimination result by the discriminator 172 as one parameter for machine learning by the predictor 171. The predictor 171 performs machine learning so that the discrimination result by the discriminator 172 is incorrect. That is, the predictor 171 generates the predicted volume data V′i corresponding to the predicted volume data V′q in which the discriminator 172 cannot distinguish the difference volume data (V′p−Vp) and the predicted volume data V′q. May be machine learning. Thus, the predictor 171 receives a penalty when the discriminator 172 succeeds in discrimination.

このように、医用画像処理装置100Aは、予測器171による予測のために、識別器172による識別結果の成否を加味することで、予測器171が単独で機械学習する場合よりも、予測器171の機械学習と識別器172の機械学習との双方を実施することで、予測器171による予測精度(予測ボリュームデータの生成精度)を向上できる。   In this way, the medical image processing apparatus 100A takes into consideration the success or failure of the discrimination result by the discriminator 172 for the prediction by the predictor 171, so that the predictor 171 can perform the machine learning rather than the case where the predictor 171 performs machine learning alone. By implementing both the machine learning and the machine learning of the discriminator 172, the prediction accuracy (prediction volume data generation accuracy) by the predictor 171 can be improved.

例えば、予測器171が理想的であれば、同じフェーズiの実ボリュームデータViと予測ボリュームデータV’iとはノイズ成分以外の実信号成分が同一となるので、差分ボリュームデータはノイズ成分のみを含むノイズボリュームデータとなる。この場合、識別器172に入力されるペアは、差分ボリュームデータつまりノイズボリュームデータと予測ボリュームデータとのペアとなる。ノイズボリュームデータは、被検体の部位に依らずにノイズ成分のみとなるので、識別器172は、対応ペアであるか非対応ペアであるかを識別できない。一方、予測器171が理想的でない場合、ノイズ以外の構造(実信号成分)が差分ボリュームデータ内に残存する。この場合、識別器172は、差分ボリュームデータの実信号成分と予測ボリュームデータに含まれる実信号成分とを基に、対応ペアであるか非対応ペアであるかを識別し得る。したがって、予測器171は、識別器172により対応ペアであるか非対応ペアであるかが識別不能となるように機械学習することで、理想的な予測器171に近づくことができる。   For example, if the predictor 171 is ideal, the actual volume data Vi of the same phase i and the predicted volume data V′i have the same actual signal component other than the noise component, so that the differential volume data includes only the noise component. Including noise volume data. In this case, the pair input to the discriminator 172 is a pair of differential volume data, that is, noise volume data and predicted volume data. Since the noise volume data is only a noise component regardless of the part of the subject, the discriminator 172 cannot identify whether it is a corresponding pair or a non-corresponding pair. On the other hand, when the predictor 171 is not ideal, a structure (real signal component) other than noise remains in the differential volume data. In this case, the discriminator 172 can identify whether the pair is a corresponding pair or a non-corresponding pair based on the actual signal component of the differential volume data and the actual signal component included in the predicted volume data. Therefore, the predictor 171 can approach the ideal predictor 171 by performing machine learning so that the discriminator 172 cannot discriminate whether it is a corresponding pair or a non-corresponding pair.

図15は、予測対象と同一の被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図である。   FIG. 15 is a diagram illustrating an example of real volume data, predicted volume data, and differential volume data of the same subject as the prediction target.

図15では、左列の3つの画像が、実ボリュームデータがボリュームレンダリングされた実画像を示す。真ん中列の3つの画像が、予測ボリュームデータがボリュームレンダリングされた予測画像を示す。右列の3つの画像が、差分ボリュームデータがボリュームレンダリングされた差分画像を示す。また、上段の3つの画像、中段の3つの画像、及び下段の3つの画像は、同じ被検体における異なる部位の画像を示す。各段の3つの画像は、同じ部位の画像を示す。具体的には、図15における最上段の各画像は部位b11を示し、中段の各画像は部位b12を示し、最下段の各画像は部位b13を示す。なお、図15の被検体は、予測器171による予測対象の被検体と同一である。   In FIG. 15, three images in the left column show actual images obtained by volume rendering of actual volume data. Three images in the middle row indicate predicted images in which the predicted volume data is volume-rendered. Three images in the right column show differential images obtained by volume rendering of the differential volume data. Further, the upper three images, the middle three images, and the lower three images indicate images of different parts of the same subject. Three images at each stage show images of the same part. Specifically, each uppermost image in FIG. 15 shows a part b11, each middle image shows a part b12, and each lowermost image shows a part b13. Note that the subject in FIG. 15 is the same as the subject to be predicted by the predictor 171.

図16は、予測対象の被検体とは異なる被検体の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図である。   FIG. 16 is a diagram illustrating an example of actual volume data, predicted volume data, and differential volume data of a subject different from the subject to be predicted.

図16では、左列の3つの画像が、実ボリュームデータのMPR実画像を示す。真ん中列の3つの画像が、予測ボリュームデータがボリュームレンダリングされた予測画像を示す。右列の3つの画像が、差分ボリュームデータがボリュームレンダリングされた差分画像を示す。また、上段の3つの画像、中段の3つの画像、及び下段の3つの画像は、同じ被検体における異なる部位の画像を示す。各段の3つの画像は、同じ部位の画像を示す。具体的には、図16における最上段の各画像は部位b21を示し、中段の各画像は部位b22を示し、最下段の各画像は部位b23を示す。なお、図16の被検体は、予測器171による予測対象の被検体とは異なる被検体である。   In FIG. 16, the three images in the left column show the MPR actual image of the actual volume data. Three images in the middle row indicate predicted images in which the predicted volume data is volume-rendered. Three images in the right column show differential images obtained by volume rendering of the differential volume data. Further, the upper three images, the middle three images, and the lower three images indicate images of different parts of the same subject. Three images at each stage show images of the same part. Specifically, each uppermost image in FIG. 16 shows a part b21, each middle image shows a part b22, and each lowermost image shows a part b23. Note that the subject in FIG. 16 is a subject different from the subject to be predicted by the predictor 171.

例えば、図16の中段において、予測ボリュームデータv1の部分p1が差分ボリュームデータv3の部分p3として表れていると推測される。つまり、実ボリュームデータv2の画素値と予測ボリュームデータv1の画素値との差が表れていると推測される。これは、予測器171による予測誤差に相当する。よって、識別器172は、予測誤差があると、予測ボリュームデータv1と差分ボリュームデータv3とが対応するか否かを識別し易くなる。   For example, in the middle part of FIG. 16, it is estimated that the part p1 of the predicted volume data v1 appears as the part p3 of the differential volume data v3. That is, it is estimated that the difference between the pixel value of the actual volume data v2 and the pixel value of the predicted volume data v1 appears. This corresponds to a prediction error by the predictor 171. Therefore, when there is a prediction error, the discriminator 172 can easily identify whether or not the predicted volume data v1 and the difference volume data v3 correspond.

図17Aは、フェーズ平均4DMIP合成された場合の出力レイキャスト画像の一例を示す図である。図17Bは、フェーズ平均4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図である。図17A及び図17Bにおける出力レイキャスト画像と出力MPR画像とは、同じ被検体における同じ部位の画像である。   FIG. 17A is a diagram illustrating an example of an output raycast image when phase average 4DMIP is combined. FIG. 17B is a diagram illustrating an example of an output MPR image in the case of phase average 4DMIP synthesis and pixel values in a specific range in the output MPR image. The output ray cast image and the output MPR image in FIGS. 17A and 17B are images of the same part in the same subject.

図17Bでは、出力MPR画像に、直線L11上の画素値(ここでは単位:HU)を示したグラフg11が重畳して示されている。グラフg11では、直線L11に存在する点p11において、直線L11上の画素値のピーク値(約150)となっている。   In FIG. 17B, a graph g11 indicating pixel values on the straight line L11 (here, unit: HU) is superimposed on the output MPR image. In the graph g11, the peak value (about 150) of the pixel value on the straight line L11 at the point p11 existing on the straight line L11.

図17Cは、Deep GAN 4DMIP合成された場合の出力レイキャスト画像の一例を示す図である。図17Dは、Deep GAN 4DMIP合成された場合の出力MPR画像と、出力MPR画像における特定範囲の画素値と、の一例を示す図である。   FIG. 17C is a diagram illustrating an example of an output ray-cast image when Deep GAN 4DMIP is combined. FIG. 17D is a diagram illustrating an example of an output MPR image when Deep GAN 4DMIP synthesis is performed, and pixel values in a specific range in the output MPR image.

図17Dでは、出力MPR画像に、直線L12上の画素値(ここでは単位:HU)を示したグラフg12が重畳して示されている。グラフg12では、直線L12に存在する点p12において、直線L12上の画素値のピーク値(約330)となっている。   In FIG. 17D, a graph g12 indicating pixel values (here, unit: HU) on the straight line L12 is superimposed on the output MPR image. In the graph g12, the peak value (about 330) of the pixel value on the straight line L12 is obtained at a point p12 existing on the straight line L12.

図17A及び図17Bと図17C及び図17Dとを比較すると、図17A及び図17Bでは、ノイズが多く、出力レイキャスト画像では細血管の描画がやや明瞭であり、出力MPR画像では細血管の描画が不明瞭(画素値のピーク値が約150)であることが理解できる。   Comparing FIG. 17A and FIG. 17B with FIG. 17C and FIG. 17D, in FIG. 17A and FIG. 17B, there is a lot of noise, and the drawing of thin blood vessels is somewhat clear in the output raycast image, and the drawing of thin blood vessels in the output MPR image. Is unclear (the peak value of the pixel value is about 150).

一方、図17C及び図17Dでは、ノイズが少なく、出力レイキャスト画像では細血管の描画がかなり明瞭であり(図17Cにおける2つの矢印の先端近傍部分参照)、出力MPR画像では細血管の描画が明瞭(画素値のピーク値が約330)であることが理解できる。よって、ユーザは、Deep GAN 4DMIP合成されたボリュームデータがレンダリングされた出力画像を確認することで、観察対象の様子を容易に鮮明に把握でき、高精度の診断を行うことが可能となる。   On the other hand, in FIGS. 17C and 17D, there is little noise, drawing of the fine blood vessel is quite clear in the output raycast image (see the vicinity of the tip of the two arrows in FIG. 17C), and drawing of the thin blood vessel is made in the output MPR image. It can be understood that the pixel value is clear (the peak value of the pixel value is about 330). Therefore, the user can easily and clearly grasp the state of the observation target by checking the output image in which the volume data synthesized by Deep GAN 4DMIP is rendered, and can perform a highly accurate diagnosis.

図18Aは、フェーズ平均4DMIP合成された場合の脳の出力MPR画像の一例を示す図である。図18Bは、Deep GAN 4DMIP合成された場合の脳の出力MPR画像の一例を示す図である。   FIG. 18A is a diagram showing an example of an output MPR image of the brain when the phase average 4DMIP synthesis is performed. FIG. 18B is a diagram illustrating an example of an output MPR image of the brain when Deep GAN 4DMIP is synthesized.

図18A及び図18Bを比較すると、図18Aでは、脳の肺白質と白質との境界が不明瞭であるが、図18Bでは、脳の肺白質と白質との境界が明瞭であることが理解できる(図18Bの矢印の先端近傍部分参照)。   Comparing FIG. 18A and FIG. 18B, it can be understood that the boundary between the lung white matter and the white matter in the brain is unclear in FIG. 18A, but the boundary between the lung white matter and the white matter in the brain is clear in FIG. 18B. (See the vicinity of the tip of the arrow in FIG. 18B).

図19Aは、Deep 4DMIP合成された場合の任意の部位の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとがレンダリングされた画像の一例を示す図である。図19Bは、Deep GAN 4DMIP合成された場合の任意の部位の実ボリュームデータと予測ボリュームデータと差分ボリュームデータとの一例を示す図である。   FIG. 19A is a diagram illustrating an example of an image in which real volume data, predicted volume data, and differential volume data of an arbitrary part when Deep 4DMIP is combined are rendered. FIG. 19B is a diagram illustrating an example of actual volume data, predicted volume data, and differential volume data of an arbitrary part when Deep GAN 4DMIP is combined.

図19A及び図19Bを比較すると、図19Aでは、差分ボリュームデータにノイズ成分以外が少し含まれており、矢印の先端近傍部分に組織の存在を示す影が発生していることが理解できる。つまり、Deep 4DMIP合成では、予測ボリュームデータにおいて血管部分が少し削除されて血管部分の画素値が小さくなり、予測ボリュームデータの画素値<実ボリュームデータの画素値となって、影が発生している。一方、図19Bでは、差分ボリュームデータのノイズ成分以外が更に低減され、矢印の先端近傍部分の影が確認し難くなっていることが理解できる。つまり、Deep GAN 4DMIP合成を行うことで、予測ボリュームデータの生成精度を向上できることが理解できる。   Comparing FIG. 19A and FIG. 19B, it can be understood that in FIG. 19A, the difference volume data includes a little other than the noise component, and a shadow indicating the presence of the tissue is generated in the vicinity of the tip of the arrow. In other words, in Deep 4DMIP synthesis, a blood vessel portion is slightly deleted in the predicted volume data, and the pixel value of the blood vessel portion becomes smaller, and the shadow value is generated with the pixel value of the predicted volume data <the pixel value of the actual volume data. . On the other hand, in FIG. 19B, it can be understood that other than the noise component of the differential volume data is further reduced, and it is difficult to confirm the shadow near the tip of the arrow. That is, it can be understood that the generation accuracy of predicted volume data can be improved by performing Deep GAN 4DMIP synthesis.

図20は、医用画像処理装置100Aによる予測器171及び識別器172の機械学習及び予測画像生成に係る動作例を示すフローチャートである。なお、図20では、フェーズは、0〜nまで存在するとする。   FIG. 20 is a flowchart illustrating an operation example related to machine learning and prediction image generation of the predictor 171 and the identifier 172 by the medical image processing apparatus 100A. In FIG. 20, it is assumed that there are 0 to n phases.

まず、ポート110は、時系列上に並んだ複数フェーズのボリュームデータV0〜VnをCT装置200から取得する(S31)。レジストレーション処理部163は、取得された複数フェーズのボリュームデータV0〜Vnを位置合わせする(S32)。   First, the port 110 acquires volume data V0 to Vn of a plurality of phases arranged in time series from the CT apparatus 200 (S31). The registration processing unit 163 aligns the acquired multiple-phase volume data V0 to Vn (S32).

予測処理部164は、フェーズi=0〜nについて、ボリュームデータV0〜Vn(Viを除く)を用いて、予測器171を機械学習させる(S33)。この場合、予測処理部164は、S31で取得されたボリュームデータV0〜Vn(Viを除く)を機械学習用の訓練データとし、S31で取得されたボリュームデータViを機械学習用の教師データとする。   The prediction processing unit 164 causes the predictor 171 to perform machine learning for the phases i = 0 to n using the volume data V0 to Vn (excluding Vi) (S33). In this case, the prediction processing unit 164 uses the volume data V0 to Vn (excluding Vi) acquired in S31 as training data for machine learning, and uses the volume data Vi acquired in S31 as teacher data for machine learning. .

予測処理部164は、フェーズi=0〜nについて、ボリュームデータV0〜Vn(Viを除く)を予測器171に入力し、予測ボリュームデータV’iを生成する(S34)。したがって、予測ボリュームデータV’0〜V’nが得られる。   The prediction processing unit 164 inputs the volume data V0 to Vn (excluding Vi) to the predictor 171 for the phases i = 0 to n, and generates the predicted volume data V′i (S34). Therefore, predicted volume data V′0 to V′n are obtained.

識別処理部165は、フェーズi=0〜nについて、差分ボリュームデータNVi=|V’i−Vi|を生成する(S35)。つまり、差分ボリュームデータは、予測ボリュームデータの各画素の画素値と実ボリュームデータの各画素の画素値との差分の絶対値で示されてよい。   The identification processing unit 165 generates differential volume data NVi = | V′i−Vi | for the phases i = 0 to n (S35). That is, the differential volume data may be indicated by the absolute value of the difference between the pixel value of each pixel of the predicted volume data and the pixel value of each pixel of the actual volume data.

識別処理部165は、フェーズi=0〜n、フェーズj=0〜nについて、差分ボリュームデータNViと予測ボリュームデータV’jとのデータペア[NVi,V’j]を用いて、識別器172に機械学習させる(S36)。この場合、識別器172は、データペア[NVi,V’j]を訓練データとし、データペアが対応ペアであるか非対応ペアであるかを示す情報を教師データとして、機械学習する。識別器172は、例えば、訓練データが対応ペア(つまりi=j)であると識別すると、真(例えば値0)を出力し、訓練データが非対応ペア(つまりi≠j)であると識別すると、偽(例えば値1)を出力する。この出力結果が評価される。   The identification processing unit 165 uses the data pair [NVi, V′j] of the differential volume data NVi and the predicted volume data V′j for the phase i = 0 to n and the phase j = 0 to n to identify the identifier 172. Machine learning (S36). In this case, the discriminator 172 performs machine learning using the data pair [NVi, V′j] as training data and information indicating whether the data pair is a corresponding pair or a non-corresponding pair as teacher data. For example, if the discriminator 172 identifies that the training data is a corresponding pair (ie, i = j), it outputs true (eg, value 0) and identifies that the training data is a non-corresponding pair (ie, i ≠ j). Then, false (for example, value 1) is output. This output result is evaluated.

識別処理部165は、識別器172による識別結果の成否を、予測処理部164に通知(フィードバック)する。予測処理部164は、識別処理部165からの通知を基に、識別器172により正しく識別されないように、予測器171に機械学習させる(S37)。   The identification processing unit 165 notifies (feeds back) the prediction processing unit 164 of the success or failure of the identification result by the classifier 172. Based on the notification from the identification processing unit 165, the prediction processing unit 164 causes the predictor 171 to perform machine learning so that it is not correctly identified by the classifier 172 (S37).

画像生成部162は、予測ボリュームデータV’0〜V’nについて、それぞれの対応するボクセルにおける画素値(ボクセル値)の最大値を算出し、最大値ボリュームデータVmaxを生成する(S38)。つまり、画像生成部162は、Deep GAN 4DMIP合成により、最大値ボリュームデータVmaxを生成する。   The image generation unit 162 calculates the maximum value of the pixel value (voxel value) in each corresponding voxel for the predicted volume data V′0 to V′n, and generates maximum value volume data Vmax (S38). That is, the image generation unit 162 generates the maximum value volume data Vmax by Deep GAN 4DMIP composition.

画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法で可視化する(S39)。つまり、画像生成部162は、最大値ボリュームデータVmaxを例えばMIP法でボリュームレンダリングし、出力画像(出力MIP画像)を生成する。   The image generation unit 162 visualizes the maximum value volume data Vmax by, for example, the MIP method (S39). That is, the image generation unit 162 performs volume rendering on the maximum volume data Vmax using, for example, the MIP method, and generates an output image (output MIP image).

図20の処理によれば、医用画像処理装置100Aは、予測器171により予測ボリュームデータの生成精度が上がるように機械学習できる。また、医用画像処理装置100Aは、識別器172により予測ボリュームデータと差分ボリュームデータとの対応関係を識別するための識別精度が上がるように機械学習できる。よって、予測器171は、識別器172に識別されないように予測ボリュームデータを生成でき、識別器172を用いない場合よりも高画質の予測ボリュームデータを生成できる。したがって、医用画像処理装置100Aは、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像が合成された合成画像の導出精度を一層向上できる。   According to the processing in FIG. 20, the medical image processing apparatus 100 </ b> A can perform machine learning by the predictor 171 so that the generation accuracy of predicted volume data is increased. Further, the medical image processing apparatus 100A can perform machine learning so that the identification accuracy for identifying the correspondence between the predicted volume data and the difference volume data is increased by the classifier 172. Therefore, the predictor 171 can generate predicted volume data so that the discriminator 172 does not identify it, and can generate predicted volume data with higher image quality than when the discriminator 172 is not used. Therefore, the medical image processing apparatus 100A can further suppress the influence of noise at the time of imaging of the subject and further improve the accuracy of deriving a synthesized image obtained by synthesizing a plurality of phases of medical images.

なお、処理部160は、S37の次にS33に進むループを設けてもよい。つまり、予測器171及び識別器172の機械学習を反復して実施してよい。これにより、医用画像処理装置100Aは、予測器171及び識別器172を順次改良でき、予測器171による予測性能及び識別器172による識別性能を向上できる。処理部160は、ループ回数が閾値th以上となった場合に、S38の処理に進むようにしてもよい。   Note that the processing unit 160 may provide a loop that proceeds to S33 after S37. That is, the machine learning of the predictor 171 and the discriminator 172 may be repeatedly performed. Accordingly, the medical image processing apparatus 100A can sequentially improve the predictor 171 and the discriminator 172, and can improve the prediction performance by the predictor 171 and the discrimination performance by the discriminator 172. The processing unit 160 may proceed to the processing of S38 when the number of loops is equal to or greater than the threshold th.

以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。   While various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present disclosure. Understood.

上記実施形態は、予測器171は、時系列の実ボリュームデータに基づいて機械学習や予測を行うことを例示した。また、識別器172は、時系列の実ボリュームデータ、予測ボリュームデータ、差分ボリュームデータに基づいて機械学習や識別を行うことを例示した。この代わりに、予測器171は、時系列の実ボリュームデータと実ボリュームデータに基づく情報(例えばperfusionデータ)に基づいて機械学習や予測を行ってもよい。また、識別器172は、時系列の実ボリュームデータ、予測ボリュームデータ、差分ボリュームデータとこれらのボリュームデータに関する情報(例えばperfusionデータ)に基づいて機械学習や識別を行ってもよい。これにより、医用画像処理装置100,100Aは、一層機械学習精度や予測精度を向上し得る。   The above embodiment has illustrated that the predictor 171 performs machine learning and prediction based on time-series real volume data. In addition, the classifier 172 illustrated performing machine learning and identification based on time-series actual volume data, predicted volume data, and differential volume data. Instead, the predictor 171 may perform machine learning and prediction based on time-series real volume data and information (for example, perfusion data) based on the real volume data. The discriminator 172 may perform machine learning and identification based on time-series actual volume data, predicted volume data, differential volume data, and information (for example, perfusion data) regarding these volume data. Thereby, the medical image processing apparatuses 100 and 100A can further improve machine learning accuracy and prediction accuracy.

上記実施形態では、予測画像生成時(実際の予測時)や機械学習時に、3次元のボリュームデータが予測器171に入力され、3次元のボリュームデータ(予測ボリュームデータ)が予測器171から出力(生成)されることを例示した。なお、3次元のボリュームデータ以外の医用画像が、予測器171に入力され、予測器171から出力されてよい。例えば、予測画像生成時や機械学習時に、例えばCT装置200により得られた2次元のスライスデータが予測器171に入力され、2次元のスライスデータが予測器171から出力(生成)されてもよい。また、予測画像生成時や機械学習時に、ボリュームデータを基に生成された3次元画像又は2次元画像が予測器171に入力され、3次元画像や2次元画像が予測器171から出力(生成)されてよい。   In the above embodiment, three-dimensional volume data is input to the predictor 171 when predictive images are generated (at the time of actual prediction) or machine learning, and three-dimensional volume data (predicted volume data) is output from the predictor 171 ( Generated). A medical image other than the three-dimensional volume data may be input to the predictor 171 and output from the predictor 171. For example, at the time of predictive image generation or machine learning, for example, two-dimensional slice data obtained by the CT apparatus 200 may be input to the predictor 171 and two-dimensional slice data may be output (generated) from the predictor 171. . In addition, a three-dimensional image or a two-dimensional image generated based on the volume data is input to the predictor 171 when a predicted image is generated or machine learning is performed, and a three-dimensional image or a two-dimensional image is output (generated) from the predictor 171. May be.

上記実施形態では、3次元のボリュームデータのデータペアが、識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されることを例示した。なお、3次元のボリュームデータ以外の医用画像のペアが、識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されてよい。例えば、2次元のスライスデータが識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されてよい。また、ボリュームデータを基に生成された3次元画像又は2次元画像が識別器172に入力され、対応ペアであるか非対応ペアであるかの識別結果が、識別器172から出力されてよい。   In the above embodiment, the data pair of the three-dimensional volume data is input to the discriminator 172, and the discrimination result as to whether it is a corresponding pair or a non-corresponding pair is output from the discriminator 172. Note that a pair of medical images other than three-dimensional volume data may be input to the discriminator 172, and an identification result indicating whether the pair is a corresponding pair or an incompatible pair may be output from the discriminator 172. For example, two-dimensional slice data may be input to the discriminator 172, and an identification result indicating whether the pair is a corresponding pair or a non-corresponding pair may be output from the discriminator 172. In addition, a three-dimensional image or a two-dimensional image generated based on the volume data may be input to the discriminator 172, and an identification result indicating whether it is a corresponding pair or a non-corresponding pair may be output from the discriminator 172.

上記実施形態では、時系列のボリュームデータは、例えば造影剤の推移を表す医用画像の一例であるが、これ以外のデータ(例えばMRIの緩和(relaxation)画像)でもよい。なお、ボリュームデータは、既知の方法(例えばMIP,MinIP,RaySUM,MPR)で可視化されてよい。また、予測器171により生成されるデータがスライスデータや2次元画像である場合、2次元画像により可視化されてよい。   In the above-described embodiment, the time-series volume data is an example of a medical image representing, for example, the transition of a contrast agent, but other data (for example, an MRI relaxation image) may be used. The volume data may be visualized by a known method (for example, MIP, MinIP, RaySUM, MPR). Further, when the data generated by the predictor 171 is slice data or a two-dimensional image, it may be visualized by a two-dimensional image.

例えば、画像生成部162は、複数フェーズのボリュームデータにおいて各ボクセルの最小値を画素値として、1つの合成ボリュームデータを生成してよい。この合成方法を、TminIP合成とも称する。TMinIP合成では、画素値が小さくなり易い。画像生成部162は、n個の予測画像YGiにおける対応する各画素の画素値のうち、最大値以外の統計値(例えば最小値(Min))を画素値として、合成ボリュームデータを生成してもよい。医用画像処理装置100,100Aは、TMinIP合成することで、CT装置200が被検体を造影状態で撮像する場合に、造影剤の種類によっては、合成ボリュームデータ(合成ボリュームデータがレンダリングされた画像)が観察し易くなり得る。   For example, the image generation unit 162 may generate one composite volume data by using the minimum value of each voxel as the pixel value in the multi-phase volume data. This synthesis method is also referred to as TminIP synthesis. In TMinIP synthesis, the pixel value tends to be small. The image generation unit 162 may generate the synthesized volume data using a statistical value (for example, the minimum value (Min)) other than the maximum value among the pixel values of the corresponding pixels in the n predicted images YGi as the pixel value. Good. The medical image processing apparatuses 100 and 100A perform TMinIP composition so that, when the CT apparatus 200 images a subject in a contrast state, depending on the type of contrast agent, composite volume data (an image in which the composite volume data is rendered) Can be easily observed.

また、画像生成部162は、上記の統計値から平均値(Average)を除外し、平均値を用いた合成ボリュームデータの生成を除外してよい。これにより、医用画像処理装置100,100Aは、各予測画像YGiの各画素の画素値が平均化されることで、ノイズが抑制されるとともに、各予測画像YGiにおいて実際に必要な信号値も平滑化されることを防止できる。   Further, the image generation unit 162 may exclude the average value (Average) from the above statistical values and exclude the generation of the composite volume data using the average value. As a result, the medical image processing apparatuses 100 and 100A average the pixel values of the respective pixels of each predicted image YGi, thereby suppressing noise and smoothing the signal values actually required in each predicted image YGi. Can be prevented.

また、画像生成部162は、ガウシアンフィルタを用いずに出力画像を生成してよい。これにより、出力画像内の画素値が平滑化され難くなり、例えば血管の末梢部が消えにくくなる。つまり、医用画像処理装置100,100Aは、血管の末梢部の描画性能を維持できる。   The image generation unit 162 may generate an output image without using a Gaussian filter. This makes it difficult for the pixel values in the output image to be smoothed, and for example, the peripheral part of the blood vessel is difficult to disappear. That is, the medical image processing apparatuses 100 and 100A can maintain the drawing performance of the peripheral part of the blood vessel.

上記実施形態では、画像生成部162は、複数フェーズのボリュームデータの合成方法として、4DMIPによりVmaxを生成することを例示したが、他の合成方法(例えば、平均値合成、中央値合成、最小値合成)を用いて複数のボリュームデータを合成してもよい。   In the above embodiment, the image generation unit 162 exemplifies generating Vmax by 4DMIP as a method for synthesizing volume data of a plurality of phases. However, other synthesis methods (for example, average value synthesis, median value synthesis, minimum value) A plurality of volume data may be synthesized using (combining).

上記実施形態では、画像生成部162は、複数フェーズのボリュームデータを4DMIP等により合成する前、合成する時、又は合成した後に、既知のノイズ除去処理や画像フィルタ処理(例えばガウスフィルタを用いた画像フィルタ処理)を実施してよい。   In the above-described embodiment, the image generation unit 162 is configured to perform known noise removal processing or image filtering processing (for example, an image using a Gaussian filter) before, during or after combining multi-phase volume data using 4DMIP or the like. Filter processing) may be performed.

上記実施形態では、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100,100Aへ送信されることを例示した。この代わりに、ボリュームデータが一旦蓄積されるように、ネットワーク上のサーバ等へ送信され、サーバ等に保管されてもよい。この場合、必要時に医用画像処理装置100,100Aのポート110が、ボリュームデータを、有線回線又は無線回線を介してサーバ等から取得してもよいし、任意の記憶媒体(不図示)を介して取得してもよい。   In the above embodiment, the volume data as a captured CT image is transmitted from the CT apparatus 200 to the medical image processing apparatuses 100 and 100A. Instead, the volume data may be transmitted to a server on the network and stored in the server or the like so that the volume data is temporarily accumulated. In this case, when necessary, the port 110 of the medical image processing apparatus 100 or 100A may acquire volume data from a server or the like via a wired line or a wireless line, or via an arbitrary storage medium (not shown). You may get it.

上記実施形態では、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100,100Aへポート110を経由して送信されることを例示した。これは、実質的にCT装置200と医用画像処理装置100,100Aとを併せて一製品として成立している場合も含まれるものとする。また、医用画像処理装置100,100AがCT装置200のコンソールとして扱われている場合も含む。   In the above embodiment, the volume data as a captured CT image is transmitted from the CT apparatus 200 to the medical image processing apparatuses 100 and 100A via the port 110. This includes the case where the CT apparatus 200 and the medical image processing apparatuses 100 and 100A are substantially combined into one product. Further, the case where the medical image processing apparatuses 100 and 100A are handled as a console of the CT apparatus 200 is also included.

上記実施形態では、CT装置200により画像を撮像し、生体内部の情報を含むボリュームデータを生成することを例示したが、他の装置により画像を撮像し、ボリュームデータを生成してもよい。他の装置は、MRI装置、PET(Positron Emission Tomography)装置、血管造影装置(Angiography装置)、又はその他のモダリティ装置を含む。また、PET装置は、他のモダリティ装置と組み合わせて用いられてもよい。   In the above-described embodiment, it is exemplified that an image is captured by the CT apparatus 200 and volume data including information inside the living body is generated. However, an image may be captured by another apparatus to generate volume data. Other devices include MRI devices, PET (Positron Emission Tomography) devices, angiographic devices (Angiography devices), or other modality devices. In addition, the PET apparatus may be used in combination with other modality apparatuses.

上記実施形態では、被検体として人体を例示したが、動物の体でもよい。   In the above embodiment, the human body is exemplified as the subject, but an animal body may be used.

本開示は、上記実施形態の医用画像処理装置の機能を実現するプログラムを、ネットワーク又は各種記憶媒体を介して医用画像処理装置に供給し、医用画像処理装置内のコンピュータが読み出して実行するプログラムも適用範囲である。   In the present disclosure, a program that realizes the functions of the medical image processing apparatus of the above-described embodiment is supplied to the medical image processing apparatus via a network or various storage media, and a program that is read and executed by a computer in the medical image processing apparatus is also provided. Scope of application.

以上のように、上記実施形態の医用画像処理装置100では、取得部(例えばポート110)は、第1の被検体を時系列上で複数回撮像して得られた複数の医用画像(例えばボリュームデータ)を取得する。処理部160は、予測器171を用いて、複数の予測画像(例えば予測ボリュームデータ)を生成する。予測器171は、複数の医用画像のうちの一部の医用画像(例えばV1〜V7)を基に複数の医用画像のうちの残りの医用画像(例えばV0)に対応する予測画像(例えばV’0)を生成する。処理部160は、複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、複数の医用画像のうちの残りの医用画像を教師データとし、一部の医用画像の組み合わせ及び残りの医用画像を順次変更して、予測器171を機械学習させる。処理部160は、複数の医用画像のうちの一部の医用画像を予測器171に入力し、一部の医用画像の組み合わせを順次変更して、複数の予測画像(例えばV’0〜V’7)を生成する。   As described above, in the medical image processing apparatus 100 of the above-described embodiment, the acquisition unit (for example, the port 110) has a plurality of medical images (for example, volume) obtained by imaging the first subject a plurality of times in time series. Data). The processing unit 160 uses the predictor 171 to generate a plurality of predicted images (for example, predicted volume data). The predictor 171 predicts images (for example, V ′) corresponding to the remaining medical images (for example, V0) of the plurality of medical images based on some of the plurality of medical images (for example, V1 to V7). 0) is generated. The processing unit 160 uses at least two medical images constituting a part of the plurality of medical images as training data, uses the remaining medical images among the plurality of medical images as teacher data, and combines some medical images. Then, the remaining medical images are sequentially changed to cause the predictor 171 to perform machine learning. The processing unit 160 inputs a part of the plurality of medical images to the predictor 171 and sequentially changes a combination of the part of the medical images to thereby generate a plurality of predicted images (for example, V′0 to V ′). 7) is generated.

これにより、医用画像処理装置100は、時系列に並ぶ複数フェーズのうちの一部の医用画像を用いて機械学習することで、複数フェーズのうちの残りの医用画像とそのフェーズに対応する予測画像との特徴が近づくように機械学習できる。つまり、医用画像処理装置100は、複数フェーズのうちの予測されるフェーズ以外のフェーズの医用画像を訓練データとし、予測されるフェーズの医用画像を教師データとして、予測器171に機械学習させ、予測されるフェーズの医用画像の画質を改善(例えば医用画像に含まれるノイズを低減)できる。よって、医用画像処理装置100は、残りの医用画像の撮像精度が低い場合(例えば残りの医用画像の撮像タイミングにおいて被検体の動きによりブレが生じた場合、医用画像撮像装置(例えばCT装置200)の不具合が発生した場合)でも、撮像精度が低いことによる影響を低減できる。   As a result, the medical image processing apparatus 100 performs machine learning using a part of the medical images in the plurality of phases arranged in time series, and thereby the remaining medical images in the plurality of phases and the predicted images corresponding to the phases. Machine learning is possible so that the characteristics of That is, the medical image processing apparatus 100 causes the predictor 171 to perform machine learning using a medical image in a phase other than the predicted phase among a plurality of phases as training data and a medical image in a predicted phase as teacher data to perform prediction. The image quality of the medical image in the phase to be improved can be improved (for example, noise included in the medical image is reduced). Therefore, when the imaging accuracy of the remaining medical image is low (for example, when blurring occurs due to the movement of the subject at the imaging timing of the remaining medical image, the medical image processing apparatus 100 (eg, the CT apparatus 200). Even when the above problem occurs), the influence of low imaging accuracy can be reduced.

また、医用画像処理装置100は、実際の医用画像にはノイズが含まれるが、予測画像を生成することで、各フェーズの医用画像を改善できる。また、ノイズが無いデータは実空間上で存在しないが、医用画像処理装置100は、各フェーズの医用画像に対応する予測画像を生成することで、ノイズの無い理想的な画像を生成でき、複数フェーズの医用画像を理想的な4Dデータに近づけることができる。   Moreover, although the medical image processing apparatus 100 includes noise in the actual medical image, the medical image of each phase can be improved by generating a predicted image. In addition, although no noise-free data exists in the real space, the medical image processing apparatus 100 can generate an ideal image without noise by generating a predicted image corresponding to the medical image of each phase. Phase medical images can be brought close to ideal 4D data.

このように、医用画像処理装置100は、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる。   In this manner, the medical image processing apparatus 100 can improve the image quality of a plurality of phases of medical images by suppressing the influence of noise during imaging of the subject.

また、処理部160は、少なくとも第1の医用画像(例えばV0)及び第2の医用画像(例えばV1)を予測器171の訓練データとし、第3の医用画像(例えばV2)を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第2の医用画像及び第3の医用画像を予測器171の訓練データとし、第1の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第3の医用画像及び第1の医用画像を予測器171の訓練データとし、第2の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第1の医用画像及び第2の医用画像を予測器171に入力して、第1の予測画像(例えばV’2)を生成してよい。処理部160は、少なくとも第2の医用画像及び第3の医用画像を予測器171に入力して、第2の予測画像(例えばV’0)を生成してよい。処理部160は、少なくとも第3の医用画像及び第1の医用画像を予測器171に入力して、第3の予測画像(例えばV’1)を生成してよい。処理部160は、少なくとも第1の予測画像、第2の予測画像、第3の予測画像を合成して、合成画像を得てよい。   In addition, the processing unit 160 uses at least the first medical image (for example, V0) and the second medical image (for example, V1) as training data of the predictor 171 and uses the third medical image (for example, V2) of the predictor 171. As the teacher data, the predictor 171 may be machine-learned. The processing unit 160 may cause the predictor 171 to perform machine learning using at least the second medical image and the third medical image as training data for the predictor 171 and using the first medical image as teacher data for the predictor 171. The processing unit 160 may cause the predictor 171 to perform machine learning using at least the third medical image and the first medical image as training data for the predictor 171 and the second medical image as teacher data for the predictor 171. The processing unit 160 may input at least the first medical image and the second medical image to the predictor 171 to generate a first predicted image (for example, V′2). The processing unit 160 may input at least the second medical image and the third medical image to the predictor 171 to generate a second predicted image (for example, V′0). The processing unit 160 may input at least the third medical image and the first medical image to the predictor 171 to generate a third predicted image (for example, V′1). The processing unit 160 may combine at least the first predicted image, the second predicted image, and the third predicted image to obtain a combined image.

これにより、医用画像処理装置100は、時系列に並ぶ第1の医用画像と第2の医用画像と第3の医用画像とを用いて機械学習することで、第3の医用画像と第1の予測画像との特徴が近づくように学習できる。よって、医用画像処理装置100は、第3の医用画像の撮像精度が低い場合(例えば第3の医用画像の撮像タイミングにおいて被検体の動きによりブレが生じた場合、医用画像撮像装置の不具合が発生した場合)でも、撮像精度が低いことによる影響を低減できる。   As a result, the medical image processing apparatus 100 performs machine learning using the first medical image, the second medical image, and the third medical image arranged in time series, thereby the third medical image and the first medical image. Learning can be performed so that the features of the predicted image approach each other. Therefore, the medical image processing apparatus 100 has a problem in the medical image imaging device when the imaging accuracy of the third medical image is low (for example, when blurring occurs due to the movement of the subject at the imaging timing of the third medical image). However, the influence of low imaging accuracy can be reduced.

また、医用画像処理装置100は、実際の医用画像にはノイズが含まれるが、予測画像を用いて合成画像を生成することで、ノイズが低減された合成画像としての4Dデータ(例えば動画)を得ることができる。また、ノイズが無いデータは実空間上で存在しないが、医用画像処理装置100は、ノイズの無い理想的な画像を生成することで、理想的な4Dデータに近づけることができる。   The medical image processing apparatus 100 generates 4D data (for example, a moving image) as a synthesized image with reduced noise by generating a synthesized image using a predicted image, although noise is included in an actual medical image. Can be obtained. In addition, data without noise does not exist in real space, but the medical image processing apparatus 100 can approximate ideal 4D data by generating an ideal image without noise.

このように、医用画像処理装置100は、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像が合成された合成画像の導出精度を向上できる。   In this manner, the medical image processing apparatus 100 can improve the derivation accuracy of a composite image in which a plurality of phases of medical images are combined by suppressing the influence of noise during imaging of the subject.

また、処理部160は、第1の医用画像、第2の医用画像、及び第3の医用画像を位置合わせしてから、予測器171を機械学習させてよい。   The processing unit 160 may cause the predictor 171 to perform machine learning after aligning the first medical image, the second medical image, and the third medical image.

これにより、医用画像処理装置100は、時系列で被検体の位置がずれると予測精度が劣化するが、時系列上の複数の医用画像の位置合わせを行うことで、予測精度の劣化を抑制できる。   As a result, the medical image processing apparatus 100 deteriorates the prediction accuracy when the position of the subject is shifted in time series. However, by aligning a plurality of medical images on the time series, deterioration in prediction accuracy can be suppressed. .

また、処理部160は、第1の被検体とは異なる第2の被検体の時系列上の複数の医用画像を用いて、予測器171に機械学習させてよい。この場合、取得部は、第1の被検体とは異なる第2の被検体を時系列上で少なくとも3回撮像して得られた第4の医用画像、第5の医用画像、及び第6の医用画像を取得してよい。処理部160は、少なくとも第4の医用画像及び第5の医用画像を予測器171の訓練データとし、第6の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第5の医用画像及び第6の医用画像を予測器171の訓練データとし、第4の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。処理部160は、少なくとも第6の医用画像及び第4の医用画像を予測器171の訓練データとし、第5の医用画像を予測器171の教師データとして、予測器171を機械学習させてよい。   The processing unit 160 may cause the predictor 171 to perform machine learning using a plurality of medical images on a time series of a second subject that is different from the first subject. In this case, the acquisition unit obtains the fourth medical image, the fifth medical image, and the sixth medical image obtained by imaging the second subject different from the first subject at least three times in time series. Medical images may be acquired. The processing unit 160 may cause the predictor 171 to perform machine learning using at least the fourth medical image and the fifth medical image as training data for the predictor 171 and the sixth medical image as teacher data for the predictor 171. The processing unit 160 may cause the predictor 171 to perform machine learning using at least the fifth medical image and the sixth medical image as training data for the predictor 171 and the fourth medical image as teacher data for the predictor 171. The processing unit 160 may cause the predictor 171 to perform machine learning using at least the sixth medical image and the fourth medical image as training data for the predictor 171 and the fifth medical image as teacher data for the predictor 171.

これにより、医用画像処理装置100は、様々な被検体(患者)についての予測器171を共有できる。つまり、医用画像処理装置100は、予測対象の被検体以外の被検体のボリュームデータと予測対象の被検体のボリュームデータとの両方を用いて、予測器171に機械学習させることができる。この場合、医用画像処理装置100は、予測対象の被検体のみを用いて予測器171を機械学習させる場合と比較して、様々な被検体の状態や組織の構成を加味でき、機械学習の学習結果に局所的に収束することを抑制できる。よって、例えば予測器171を用いて多数の被検体の予測画像を生成する場合であっても、様々な被検体の状態や組織の構成を加味でき、予測精度を向上できる。   Thereby, the medical image processing apparatus 100 can share the predictors 171 for various subjects (patients). That is, the medical image processing apparatus 100 can cause the predictor 171 to perform machine learning using both the volume data of a subject other than the subject to be predicted and the volume data of the subject to be predicted. In this case, the medical image processing apparatus 100 can take into account various subject states and tissue configurations compared to the case where the predictor 171 performs machine learning using only the subject to be predicted. It is possible to suppress local convergence on the result. Therefore, for example, even when predictive images of a large number of subjects are generated using the predictor 171, various subject states and tissue configurations can be taken into account, and prediction accuracy can be improved.

また、処理部160は、第3の医用画像から、第1の被検体における第1の部位(例えば部位p)の医用画像(例えばVp)と第1の部位とは異なる第2の部位(例えば部位q)の医用画像(例えばVq)とを取得してよい。処理部160は、第1の予測画像から、第1の被検体における第1の部位の予測画像(例えばV’p)と第2の部位の予測画像(例えばV’q)を取得してよい。処理部160は、第1の部位の医用画像と第1の部位の予測画像との差分を示す第1の差分画像(例えばV’p−Vp)を生成してよい。処理部160は、第2の部位の医用画像と第2の部位の予測画像との差分を示す第2の差分画像を生成してよい。処理部が160は、第1の差分画像及び第2の差分画像のうちいずれかの差分画像(例えばV’p−Vp)と第1の部位の予測画像及び第2の部位の予測画像のうちいずれかの部位の予測画像とのペア(例えばデータペア)を生成してよい。処理部160は、ペアにおけるいずれかの差分画像といずれかの部位の予測画像とが対応するか否かを識別する識別器172による識別が成功しないように、予測器171を機械学習させてよい。   In addition, the processing unit 160 determines, from the third medical image, a medical image (for example, Vp) of the first region (for example, region p) in the first subject and a second region (for example, different from the first region). You may acquire the medical image (for example, Vq) of the site | part q). The processing unit 160 may acquire a predicted image (for example, V′p) of the first part and a predicted image (for example, V′q) of the second part in the first subject from the first predicted image. . The processing unit 160 may generate a first difference image (for example, V′p−Vp) indicating a difference between the medical image of the first part and the predicted image of the first part. The processing unit 160 may generate a second difference image indicating a difference between the medical image of the second part and the predicted image of the second part. The processing unit 160 includes a difference image (for example, V′p−Vp) of the first difference image and the second difference image, a predicted image of the first part, and a predicted image of the second part. You may generate | occur | produce the pair (for example, data pair) with the prediction image of any site | part. The processing unit 160 may cause the predictor 171 to perform machine learning so that the discrimination by the discriminator 172 that identifies whether any difference image in the pair corresponds to the predicted image of any part does not succeed. .

識別器172により識別が失敗する場合、識別器172が差分画像と予測画像との対応付けができないことを意味し、つまり差分画像内に予測画像の実信号成分が含まれず、ノイズ成分のみ含まれていることを意味する。一方、識別器172により識別が成功する場合、識別器172が差分画像と予測画像との対応付けができることを意味し、つまり、差分画像内に予測画像の実信号成分(例えば微小構造)が残存していることを意味する。したがって、差分画像が実信号成分(微小構造としての血管等)を含んでおり、予測精度の向上の余地があることを意味する。医用画像処理装置100Aは、識別器172による識別が成功しないように、予測器171を機械学習させることで、予測器171によるノイズ成分を超えた微小構造等の削除を抑制でき、予測精度を向上できる。   When discrimination by the discriminator 172 fails, it means that the discriminator 172 cannot associate the difference image with the predicted image, that is, the actual image component of the predicted image is not included in the difference image, and only the noise component is included. Means that On the other hand, when the discrimination by the discriminator 172 is successful, it means that the discriminator 172 can associate the difference image with the predicted image, that is, the actual signal component (for example, a minute structure) of the predicted image remains in the difference image. Means that Therefore, the difference image includes a real signal component (such as a blood vessel as a minute structure), which means that there is room for improvement in prediction accuracy. The medical image processing apparatus 100 </ b> A can suppress the deletion of a minute structure or the like exceeding the noise component by the predictor 171 by causing the predictor 171 to perform machine learning so that the identification by the identifier 172 is not successful, thereby improving the prediction accuracy. it can.

つまり、予測器171は、予測画像内に元の構造物が残らないようにできる。そのため、識別器172による識別精度を低下させることができる。これは、差分画像と予測画像との区別がつけられないことを意味する。したがって、差分画像内に被検体の微小領域の残存が低下し、ノイズの成分が多くなるので、被検体における部位の判定精度も低下する。この識別結果を予測器171にフィードバックすることで、予測器171は、識別器172による識別精度が低くなるように、予測画像を生成できる。よって差分画像に微小領域の残存が低下することで、医用画像と予測画像との差が小さくなり、医用画像と予測画像とが近づく。よって、識別器172は、予測器171による予測画像の予測精度向上を補助できる。   That is, the predictor 171 can prevent the original structure from remaining in the predicted image. Therefore, the identification accuracy by the classifier 172 can be reduced. This means that the difference image and the predicted image cannot be distinguished. Therefore, the remaining minute area of the subject in the difference image is reduced and the noise component is increased, so that the determination accuracy of the part in the subject is also reduced. By feeding back this identification result to the predictor 171, the predictor 171 can generate a predicted image so that the discrimination accuracy by the discriminator 172 is lowered. Therefore, the remaining of the minute region in the difference image is reduced, so that the difference between the medical image and the predicted image is reduced, and the medical image and the predicted image are brought closer. Therefore, the classifier 172 can assist the predictor 171 in improving the prediction accuracy of the predicted image.

また、処理部160は、第1の差分画像と第1の部位の予測画像とのペアを識別器172の訓練データとし、第1の差分画像と第1の部位の予測画像とが対応することを示す対応情報を教師データとして、識別器172を機械学習させてよい。処理部160は、第1の差分画像と第2の部位の予測画像とのペアを識別器172の訓練データとし、第1の差分画像と第2の部位の予測画像とが対応しないことを示す非対応情報を教師データとして、識別器172を機械学習させてよい。   In addition, the processing unit 160 uses the pair of the first difference image and the predicted image of the first part as training data of the discriminator 172, and the first difference image and the predicted image of the first part correspond to each other. The discriminator 172 may be machine-learned using the correspondence information indicating as the teacher data. The processing unit 160 uses the pair of the first difference image and the predicted image of the second part as training data of the discriminator 172, and indicates that the first difference image and the predicted image of the second part do not correspond. The discriminator 172 may be machine-learned using non-corresponding information as teacher data.

これにより、医用画像処理装置100Aは、識別器172に入力した差分画像と任意の部位の予測画像とが対応するか否かを順次学習できる。よって、医用画像処理装置100Aは、識別器172が新規に入力した差分画像と任意の部位の予測画像とが対応するか否かを識別する識別精度を向上できる。これにより、予測器171は、識別器172に識別されないように機械学習を行うので、予測器171による予測画像の生成精度を向上できる。   Thereby, the medical image processing apparatus 100A can sequentially learn whether or not the difference image input to the classifier 172 corresponds to the predicted image of an arbitrary part. Therefore, the medical image processing apparatus 100A can improve the identification accuracy for identifying whether or not the difference image newly input by the classifier 172 corresponds to the predicted image of an arbitrary part. Thereby, since the predictor 171 performs machine learning so that it is not discriminated by the discriminator 172, the generation accuracy of the predicted image by the predictor 171 can be improved.

処理部160は、時系列に並ぶ画像であり、Raycast法、MIP法、RaySUM法、又はMinIP法でレンダリングして、合成画像を生成してよい。   The processing unit 160 is an image arranged in time series, and may generate a composite image by rendering using the Raycast method, the MIP method, the RaySUM method, or the MinIP method.

これにより、医用画像処理装置100,100Aは、様々なレンダリング方法で、合成画像を可視化できる。例えば、MIP法に従って合成画像を可視化する場合、最大値をとることによって輝度(画素値)が過大に大きくなり易く、合成画像が観察し難くなり易いが、医用画像処理装置100,100Aによれば、輝度値が過度に大きくなることを抑制でき、合成画像を観察し易くできる。   Accordingly, the medical image processing apparatuses 100 and 100A can visualize the composite image by various rendering methods. For example, when a composite image is visualized according to the MIP method, the luminance (pixel value) tends to be excessively large by taking the maximum value, and the composite image is difficult to observe, but according to the medical image processing apparatuses 100 and 100A. The luminance value can be suppressed from becoming excessively large, and the composite image can be easily observed.

本開示は、被検体の撮像時のノイズの影響を抑制して、複数フェーズの医用画像の画質を向上できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム等に有用である。   The present disclosure is useful for a medical image processing apparatus, a medical image processing method, a medical image processing program, and the like that can suppress the influence of noise during imaging of a subject and improve the image quality of a plurality of phases of medical images.

100 医用画像処理装置
110 ポート
120 ユーザインタフェース(UI)
130 ディスプレイ
140 プロセッサ
150 メモリ
151 学習DB
160 処理部
161 領域抽出部
162 画像生成部
163 レジストレーション処理部
164 予測処理部
165 識別処理部
166 表示制御部
171 予測器
172 識別器
200 CT装置
100 Medical Image Processing Device 110 Port 120 User Interface (UI)
130 Display 140 Processor 150 Memory 151 Learning DB
160 processing unit 161 region extraction unit 162 image generation unit 163 registration processing unit 164 prediction processing unit 165 identification processing unit 166 display control unit 171 predictor 172 classifier 200 CT device

Claims (9)

第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得する取得部と、
前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成する処理部と、
を備え、
前記処理部は、
前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させ、
前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成する、
医用画像処理装置。
An acquisition unit for acquiring a plurality of medical images obtained by imaging the first subject a plurality of times in time series;
Generating a plurality of predicted images using a predictor that generates a predicted image corresponding to the remaining medical images of the plurality of medical images based on some of the medical images of the plurality of medical images. A processing unit;
With
The processor is
At least two medical images constituting a part of the plurality of medical images are used as training data, and the remaining medical images of the plurality of medical images are used as teacher data. The remaining medical images are sequentially changed, and the predictor is machine-learned,
A part of the plurality of medical images is input to the predictor, a combination of the part of the medical images is sequentially changed to generate a plurality of the prediction images;
Medical image processing apparatus.
複数の前記医用画像は、第1の医用画像、第2の医用画像、及び第3の医用画像を含み、
複数の前記予測画像は、第1の予測画像、第2の予測画像、及び第3の予測画像を含み、
前記処理部は、
少なくとも前記第1の医用画像及び前記第2の医用画像を前記予測器の訓練データとし、前記第3の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
少なくとも前記第2の医用画像及び前記第3の医用画像を前記予測器の訓練データとし、前記第1の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
少なくとも前記第3の医用画像及び前記第1の医用画像を前記予測器の訓練データとし、前記第2の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
少なくとも前記第1の医用画像及び前記第2の医用画像を前記予測器に入力して、前記第1の予測画像を生成し、
少なくとも前記第2の医用画像及び前記第3の医用画像を前記予測器に入力して、前記第2の予測画像を生成し、
少なくとも前記第3の医用画像及び前記第1の医用画像を前記予測器に入力して、前記第3の予測画像を生成し、
少なくとも前記第1の予測画像、前記第2の予測画像、前記第3の予測画像を合成して、合成画像を得る、
請求項1に記載の医用画像処理装置。
The plurality of medical images include a first medical image, a second medical image, and a third medical image,
The plurality of predicted images include a first predicted image, a second predicted image, and a third predicted image,
The processor is
At least the first medical image and the second medical image as training data of the predictor, the third medical image as teacher data of the predictor, and machine learning of the predictor,
At least the second medical image and the third medical image as training data of the predictor, the first medical image as teacher data of the predictor, and machine learning of the predictor,
At least the third medical image and the first medical image as training data of the predictor, the second medical image as teacher data of the predictor, and machine learning of the predictor,
Inputting at least the first medical image and the second medical image to the predictor to generate the first predicted image;
Inputting at least the second medical image and the third medical image to the predictor to generate the second predicted image;
Inputting at least the third medical image and the first medical image to the predictor to generate the third predicted image;
Synthesizing at least the first predicted image, the second predicted image, and the third predicted image to obtain a combined image;
The medical image processing apparatus according to claim 1.
前記処理部は、前記第1の医用画像、前記第2の医用画像、及び前記第3の医用画像を位置合わせしてから、前記予測器を前記機械学習させる、
請求項2に記載の医用画像処理装置。
The processing unit aligns the first medical image, the second medical image, and the third medical image, and then causes the predictor to perform the machine learning.
The medical image processing apparatus according to claim 2.
前記取得部は、前記第1の被検体とは異なる第2の被検体を時系列上で少なくとも3回撮像して得られた第4の医用画像、第5の医用画像、及び第6の医用画像を取得し、
前記処理部は、
少なくとも前記第4の医用画像及び前記第5の医用画像を前記予測器の訓練データとし、前記第6の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
少なくとも前記第5の医用画像及び前記第6の医用画像を前記予測器の訓練データとし、前記第4の医用画像を前記予測器の教師データとして、前記予測器を機械学習させ、
少なくとも前記第6の医用画像及び前記第4の医用画像を前記予測器の訓練データとし、前記第5の医用画像を前記予測器の教師データとして、前記予測器を機械学習させる、
請求項2または3に記載の医用画像処理装置。
The acquisition unit includes a fourth medical image, a fifth medical image, and a sixth medical image obtained by imaging a second subject different from the first subject at least three times in time series. Get an image,
The processor is
At least the fourth medical image and the fifth medical image as training data of the predictor, the sixth medical image as teacher data of the predictor, and machine learning of the predictor,
At least the fifth medical image and the sixth medical image as training data of the predictor, the fourth medical image as teacher data of the predictor, and machine learning of the predictor,
Machine learning of the predictor using at least the sixth medical image and the fourth medical image as training data of the predictor, and the fifth medical image as teacher data of the predictor,
The medical image processing apparatus according to claim 2 or 3.
前記処理部は、
前記第3の医用画像から、前記第1の被検体における第1の部位の医用画像と前記第1の部位とは異なる第2の部位の医用画像とを取得し、
前記第1の予測画像から、前記第1の被検体における前記第1の部位の予測画像と前記第2の部位の予測画像を取得し、
前記第1の部位の医用画像と前記第1の部位の予測画像との差分を示す第1の差分画像を生成し、
前記第2の部位の医用画像と前記第2の部位の予測画像との差分を示す第2の差分画像を生成し、
前記第1の差分画像及び前記第2の差分画像のうちいずれかの差分画像と前記第1の部位の予測画像及び前記第2の部位の予測画像のうちいずれかの部位の予測画像とのペアを生成し、
前記ペアにおける前記いずれかの差分画像と前記いずれかの部位の予測画像とが対応するか否かを識別する識別器による識別が成功しないように、前記予測器を機械学習させる、
請求項2〜4のいずれか1項に記載の医用画像処理装置。
The processor is
Obtaining from the third medical image a medical image of a first part of the first subject and a medical image of a second part different from the first part;
From the first predicted image, obtain a predicted image of the first part and a predicted image of the second part in the first subject,
Generating a first difference image indicating a difference between the medical image of the first part and the predicted image of the first part;
Generating a second difference image indicating a difference between the medical image of the second part and the predicted image of the second part;
A pair of any one of the first difference image and the second difference image and a predicted image of any part of the predicted image of the first part and the predicted image of the second part. Produces
Causing the predictor to machine-learn so that identification by a discriminator for identifying whether or not any one of the difference images in the pair corresponds to a predicted image of any one of the parts,
The medical image processing apparatus according to any one of claims 2 to 4.
前記処理部は、
前記第1の差分画像と前記第1の部位の予測画像とのペアを前記識別器の訓練データとし、前記第1の差分画像と前記第1の部位の予測画像とが対応することを示す対応情報を教師データとして、前記識別器を機械学習させ、
前記第1の差分画像と前記第2の部位の予測画像とのペアを前記識別器の訓練データとし、前記第1の差分画像と前記第2の部位の予測画像とが対応しないことを示す非対応情報を教師データとして、前記識別器を機械学習させる
請求項5に記載の医用画像処理装置。
The processor is
Correspondence indicating that the pair of the first difference image and the predicted image of the first part is training data of the classifier, and the first difference image and the predicted image of the first part correspond to each other. Using the information as teacher data, let the classifier machine-learn,
A pair of the first difference image and the predicted image of the second part is used as training data for the discriminator, and the first difference image and the predicted image of the second part do not correspond to each other. The medical image processing apparatus according to claim 5, wherein the classifier is machine-learned using correspondence information as teacher data.
前記処理部は、Raycast法、MIP法、RaySUM法、又はMinIP法に従って、前記合成画像を可視化する、
請求項2〜6のいずれか1項に記載の医用画像処理装置。
The processing unit visualizes the composite image according to the Raycast method, the MIP method, the RaySUM method, or the MinIP method.
The medical image processing apparatus according to any one of claims 2 to 6.
医用画像処理装置における医用画像処理方法であって、
第1の被検体を時系列上で複数回撮像して得られた複数の医用画像を取得するステップと、
前記複数の医用画像のうちの一部の医用画像を基に前記複数の医用画像のうちの残りの医用画像に対応する予測画像を生成する予測器を用いて、複数の前記予測画像を生成するステップと、
を有し、
前記予測画像を生成するステップは、
前記複数の医用画像のうちの一部を構成する少なくとも2つの医用画像を訓練データとし、前記複数の医用画像のうちの残りの医用画像を教師データとし、前記一部の医用画像の組み合わせ及び前記残りの医用画像を順次変更して、前記予測器を機械学習させるステップと、
前記複数の医用画像のうちの一部の医用画像を前記予測器に入力し、前記一部の医用画像の組み合わせを順次変更して、複数の前記予測画像を生成するステップと、を含む、
医用画像処理方法。
A medical image processing method in a medical image processing apparatus,
Obtaining a plurality of medical images obtained by imaging the first subject a plurality of times in time series;
Generating a plurality of predicted images using a predictor that generates a predicted image corresponding to the remaining medical images of the plurality of medical images based on some of the medical images of the plurality of medical images. Steps,
Have
The step of generating the predicted image includes
At least two medical images constituting a part of the plurality of medical images are used as training data, and the remaining medical images of the plurality of medical images are used as teacher data. Sequentially changing the remaining medical images and machine learning the predictor;
Including inputting a part of the plurality of medical images to the predictor and sequentially changing a combination of the part of the medical images to generate a plurality of the predicted images.
Medical image processing method.
請求項8に記載の医用画像処理方法をコンピュータに実行させるための医用画像処理プログラム。   A medical image processing program for causing a computer to execute the medical image processing method according to claim 8.
JP2018108027A 2018-06-05 2018-06-05 Medical image processing equipment, medical image processing methods, and medical image processing programs Active JP7051595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018108027A JP7051595B2 (en) 2018-06-05 2018-06-05 Medical image processing equipment, medical image processing methods, and medical image processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018108027A JP7051595B2 (en) 2018-06-05 2018-06-05 Medical image processing equipment, medical image processing methods, and medical image processing programs

Publications (2)

Publication Number Publication Date
JP2019208903A true JP2019208903A (en) 2019-12-12
JP7051595B2 JP7051595B2 (en) 2022-04-11

Family

ID=68845807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018108027A Active JP7051595B2 (en) 2018-06-05 2018-06-05 Medical image processing equipment, medical image processing methods, and medical image processing programs

Country Status (1)

Country Link
JP (1) JP7051595B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706583A (en) * 2021-09-01 2021-11-26 上海联影医疗科技股份有限公司 Image processing method, image processing device, computer equipment and storage medium
CN114519397A (en) * 2022-02-22 2022-05-20 平安科技(深圳)有限公司 Entity link model training method, device and equipment based on comparative learning
US11672498B2 (en) 2020-07-29 2023-06-13 Canon Medical Systems Corporation Information processing method, medical image diagnostic apparatus, and information processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035895A (en) * 2006-08-01 2008-02-21 Ziosoft Inc Image processing method and image processing program
JP2011150541A (en) * 2010-01-21 2011-08-04 Sony Corp Learning apparatus, learning method and program
WO2017091833A1 (en) * 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
JP2018022216A (en) * 2016-08-01 2018-02-08 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008035895A (en) * 2006-08-01 2008-02-21 Ziosoft Inc Image processing method and image processing program
JP2011150541A (en) * 2010-01-21 2011-08-04 Sony Corp Learning apparatus, learning method and program
WO2017091833A1 (en) * 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
JP2018022216A (en) * 2016-08-01 2018-02-08 ソニー株式会社 Information processing device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11672498B2 (en) 2020-07-29 2023-06-13 Canon Medical Systems Corporation Information processing method, medical image diagnostic apparatus, and information processing system
CN113706583A (en) * 2021-09-01 2021-11-26 上海联影医疗科技股份有限公司 Image processing method, image processing device, computer equipment and storage medium
CN113706583B (en) * 2021-09-01 2024-03-22 上海联影医疗科技股份有限公司 Image processing method, device, computer equipment and storage medium
CN114519397A (en) * 2022-02-22 2022-05-20 平安科技(深圳)有限公司 Entity link model training method, device and equipment based on comparative learning
CN114519397B (en) * 2022-02-22 2024-05-28 平安科技(深圳)有限公司 Training method, device and equipment for entity link model based on contrast learning

Also Published As

Publication number Publication date
JP7051595B2 (en) 2022-04-11

Similar Documents

Publication Publication Date Title
US9471987B2 (en) Automatic planning for medical imaging
JP5921132B2 (en) Medical image processing system
KR102154733B1 (en) Apparatus and method for estimating whether malignant tumor is in object by using medical image
JP4653542B2 (en) Image processing device
US9504852B2 (en) Medical image processing apparatus and radiation treatment apparatus
US10098602B2 (en) Apparatus and method for processing a medical image of a body lumen
US9519993B2 (en) Medical image processing apparatus
US20210085271A1 (en) Medical-image processing apparatus and medical-image diagnostic apparatus
KR101728044B1 (en) Method and apparatus for displaying medical image
CN105640583A (en) Angiography method
JP2016116867A (en) Medical image processing apparatus, medical image diagnostic apparatus and medical image processing program
JP7051595B2 (en) Medical image processing equipment, medical image processing methods, and medical image processing programs
JP2010154982A (en) X-ray computer tomographic imaging apparatus and image processor
JP6747785B2 (en) Medical image processing apparatus and medical image processing method
JP5215444B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
JP2014050527A (en) Image processor and image processing method
JP6533687B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM
CN113538419B (en) Image processing method and system
JP2013040829A (en) Volume data processor and method
JP2011254861A (en) Medical image processor
JP2011067594A (en) Medical image diagnostic apparatus and method using liver function angiographic image, and program
JP2016159116A (en) Three-dimensional model creation device and method, and three-dimensional model creation program
WO2019058657A1 (en) Fluid analysis device, method for operating fluid analysis device, and fluid analysis program
US20160310094A1 (en) Medical image processing apparatus
KR102229367B1 (en) Cerebrovascular image displaying apparatus and method for comparison and diagnosis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210517

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7051595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150