JP7262933B2 - Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program - Google Patents

Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program Download PDF

Info

Publication number
JP7262933B2
JP7262933B2 JP2018101025A JP2018101025A JP7262933B2 JP 7262933 B2 JP7262933 B2 JP 7262933B2 JP 2018101025 A JP2018101025 A JP 2018101025A JP 2018101025 A JP2018101025 A JP 2018101025A JP 7262933 B2 JP7262933 B2 JP 7262933B2
Authority
JP
Japan
Prior art keywords
learning data
medical
image data
function
ray image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018101025A
Other languages
Japanese (ja)
Other versions
JP2019202087A (en
Inventor
翔 佐々木
亮一 長江
智生 藤戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018101025A priority Critical patent/JP7262933B2/en
Publication of JP2019202087A publication Critical patent/JP2019202087A/en
Application granted granted Critical
Publication of JP7262933B2 publication Critical patent/JP7262933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明の実施形態は、医用情報処理システム、医用情報処理装置、放射線診断装置、超音波診断装置、学習用データの生産方法及びプログラムに関する。 The embodiments of the present invention relate to a medical information processing system, a medical information processing apparatus, a radiological diagnostic apparatus, an ultrasonic diagnostic apparatus, a learning data production method, and a program.

機械学習を用いた画像処理技術が知られている。この技術では、例えば、ノイズの多寡が異なり、かつ、同一の領域を撮像した画像の組を学習用データとして用いることにより、画像中のノイズを除去する処理に組み込まれる学習済みモデルを生成する。ここで、機械学習を用いた画像処理技術を医用画像に適用することが考えられるが、医用画像に関する学習用データの収集は容易でない。 An image processing technique using machine learning is known. In this technique, for example, a set of images of the same area with different amounts of noise is used as learning data to generate a trained model that is incorporated in the process of removing noise in the image. Here, it is conceivable to apply image processing technology using machine learning to medical images, but it is not easy to collect data for learning about medical images.

特開2016-062524号公報JP 2016-062524 A

本発明が解決しようとする課題は、医用画像に関する学習用データ不足を解消することである。 The problem to be solved by the present invention is to eliminate the shortage of learning data related to medical images.

実施形態の医用情報処理装置は、取得部と、特定部とを備える。取得部は、医用画像を取得する。特定部は、前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する。 A medical information processing apparatus according to an embodiment includes an acquisition unit and an identification unit. The acquisition unit acquires a medical image. The specifying unit specifies, among the medical images acquired by the acquiring unit, learning data including a set of medical images having at least one of different imaging conditions and subject conditions and having approximately the same imaging direction. do.

図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a medical information processing system according to the first embodiment. 図2は、第1の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example configuration of the X-ray diagnostic apparatus according to the first embodiment. 図3は、第1の実施形態に係る撮像方向について説明するための図である。FIG. 3 is a diagram for explaining imaging directions according to the first embodiment. 図4は、第1の実施形態に係る撮像方向について説明するための図である。FIG. 4 is a diagram for explaining imaging directions according to the first embodiment. 図5は、第1の実施形態に係る処理回路による処理について説明するための図である。FIG. 5 is a diagram for explaining processing by a processing circuit according to the first embodiment; 図6は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 6 is a diagram for explaining a process of generating a trained model according to the first embodiment. 図7は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 7 is a diagram for explaining the process of generating a trained model according to the first embodiment. 図8は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 8 is a diagram for explaining a learned model generation process according to the first embodiment. 図9は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 9 is a diagram for explaining a learned model generation process according to the first embodiment. 図10は、第1の実施形態に係る変換処理について説明するための図である。FIG. 10 is a diagram for explaining conversion processing according to the first embodiment. 図11は、第1の実施形態に係る医用情報処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 11 is a flowchart for explaining a series of processing flows of the medical information processing apparatus according to the first embodiment. 図12は、第2の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 12 is a block diagram showing an example configuration of an X-ray diagnostic apparatus according to the second embodiment. 図13は、第4の実施形態に係る超音波診断装置の構成の一例を示すブロック図である。FIG. 13 is a block diagram showing an example configuration of an ultrasonic diagnostic apparatus according to the fourth embodiment.

以下、図面を参照して、医用情報処理システム、医用情報処理装置、放射線診断装置、超音波診断装置、学習用データの生産方法及びプログラムの実施形態について詳細に説明する。 Hereinafter, embodiments of a medical information processing system, a medical information processing apparatus, a radiological diagnostic apparatus, an ultrasonic diagnostic apparatus, a learning data production method, and a program will be described in detail with reference to the drawings.

(第1の実施形態)
まず、第1の実施形態について説明する。第1の実施形態では、医用情報処理装置30を含んだ医用情報処理システム1を一例として説明する。
(First embodiment)
First, the first embodiment will be described. In the first embodiment, a medical information processing system 1 including a medical information processing apparatus 30 will be described as an example.

図1に示すように、第1の実施形態に係る医用情報処理システム1は、医用画像診断装置10と、画像保管装置20と、医用情報処理装置30とを備える。なお、図1は、第1の実施形態に係る医用情報処理システム1の構成の一例を示すブロック図である。図1に示すように、医用画像診断装置10、画像保管装置20及び医用情報処理装置30は、ネットワークNWを介して相互に接続される。 As shown in FIG. 1, the medical information processing system 1 according to the first embodiment includes a medical image diagnostic apparatus 10, an image storage apparatus 20, and a medical information processing apparatus 30. FIG. Note that FIG. 1 is a block diagram showing an example of the configuration of the medical information processing system 1 according to the first embodiment. As shown in FIG. 1, a medical image diagnostic apparatus 10, an image storage apparatus 20, and a medical information processing apparatus 30 are interconnected via a network NW.

医用画像診断装置10は、被検体から医用画像を収集する装置である。なお、データとして処理される医用画像については、医用画像データとも記載する。例えば、医用画像診断装置10は、被検体から医用画像データを収集し、収集した医用画像データを画像保管装置20及び医用情報処理装置30に送信する。例えば、医用画像診断装置10は、X線診断装置やX線CT(Computed Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT-CT装置、超音波診断装置等である。 A medical image diagnostic apparatus 10 is an apparatus that acquires medical images from a subject. Medical images processed as data are also referred to as medical image data. For example, the medical image diagnostic apparatus 10 collects medical image data from a subject and transmits the collected medical image data to the image storage apparatus 20 and the medical information processing apparatus 30 . For example, the medical image diagnostic apparatus 10 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a SPECT-CT apparatus in which a SPECT apparatus and an X-ray CT apparatus are integrated. , ultrasonic diagnostic equipment, etc.

画像保管装置20は、医用画像診断装置10によって収集された医用画像データを保管する装置である。例えば、画像保管装置20は、ネットワークNWを介して医用画像診断装置10から医用画像データを取得し、取得した医用画像データを装置内又は装置外に設けられたメモリに記憶させる。例えば、画像保管装置20は、サーバ装置等のコンピュータ機器によって実現される。 The image storage device 20 is a device that stores medical image data collected by the medical image diagnostic device 10 . For example, the image storage device 20 acquires medical image data from the medical image diagnostic device 10 via the network NW, and stores the acquired medical image data in a memory provided inside or outside the device. For example, the image storage device 20 is realized by computer equipment such as a server device.

医用情報処理装置30は、ネットワークNWを介して医用画像データを取得し、取得した医用画像データを用いた種々の処理を実行する。例えば、医用情報処理装置30は、ネットワークNWを介して、医用画像診断装置10又は画像保管装置20から医用画像データを取得する。また、医用情報処理装置30は、取得した医用画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像データを組として含む学習用データを特定する。例えば、医用情報処理装置30は、ワークステーション等のコンピュータ機器によって実現される。 The medical information processing apparatus 30 acquires medical image data via the network NW and executes various processes using the acquired medical image data. For example, the medical information processing apparatus 30 acquires medical image data from the medical image diagnostic apparatus 10 or the image storage apparatus 20 via the network NW. In addition, the medical information processing apparatus 30 includes a set of medical image data in which at least one of the imaging conditions and the subject conditions is different from the acquired medical image data and the imaging directions are substantially the same. identify. For example, the medical information processing apparatus 30 is implemented by computer equipment such as a workstation.

なお、ネットワークNWを介して接続可能であれば、医用画像診断装置10、画像保管装置20及び医用情報処理装置30が設置される場所は任意である。例えば、医用情報処理装置30は、医用画像診断装置10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。また、図1においては医用画像診断装置10を1つ示すが、医用情報処理システム1は、複数の医用画像診断装置10を含んでもよい。 The place where the medical image diagnostic apparatus 10, the image storage apparatus 20 and the medical information processing apparatus 30 are installed is arbitrary as long as they can be connected via the network NW. For example, the medical information processing apparatus 30 may be installed in a hospital different from the medical image diagnostic apparatus 10 . That is, the network NW may be configured by a closed local network within the hospital, or may be a network via the Internet. Although one medical image diagnostic apparatus 10 is shown in FIG. 1 , the medical information processing system 1 may include a plurality of medical image diagnostic apparatuses 10 .

図1に示すように、医用情報処理装置30は、入力インターフェース31と、ディスプレイ32と、メモリ33と、処理回路34とを有する。 As shown in FIG. 1, the medical information processing apparatus 30 has an input interface 31, a display 32, a memory 33, and a processing circuit .

入力インターフェース31は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インターフェース31は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース31は、医用情報処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース31は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用情報処理装置30とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路34へ出力する電気信号の処理回路も入力インターフェース31の例に含まれる。 The input interface 31 receives various input operations from the operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 34 . For example, the input interface 31 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad that performs input operations by touching an operation surface, a touch screen that integrates a display screen and a touch pad, and an optical sensor. It is realized by the used non-contact input circuit, voice input circuit, or the like. The input interface 31 may be composed of a tablet terminal or the like capable of wireless communication with the main body of the medical information processing apparatus 30 . Also, the input interface 31 is not limited to those having physical operation parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the medical information processing apparatus 30 and outputs the electrical signal to the processing circuit 34 is also included in the input interface 31. included in the example.

ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、処理回路34による制御の下、医用画像診断装置10又は画像保管装置20から処理回路34が取得した医用画像や、処理回路34による変換処理後の医用画像を表示する。また、ディスプレイ32は、入力インターフェース31を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ32は、デスクトップ型でもよいし、医用情報処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 32 displays various information. For example, the display 32 displays medical images acquired by the processing circuit 34 from the medical image diagnostic apparatus 10 or the image storage device 20 under the control of the processing circuit 34 and medical images after conversion processing by the processing circuit 34 . The display 32 also displays a GUI (Graphical User Interface) for receiving various instructions and various settings from the operator via the input interface 31 . For example, the display 32 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display 32 may be of a desktop type, or may be configured by a tablet terminal or the like capable of wireless communication with the main body of the medical information processing apparatus 30 .

メモリ33は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ33は、医用画像診断装置10又は画像保管装置20から取得した医用画像データを記憶する。また、例えば、メモリ33は、処理回路34が生成した学習用データセットや学習済みモデルを記憶する。また、例えば、メモリ33は、医用情報処理装置30に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ33は、医用情報処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 33 is implemented by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. For example, the memory 33 stores medical image data acquired from the medical image diagnostic apparatus 10 or the image storage apparatus 20 . In addition, for example, the memory 33 stores learning data sets and learned models generated by the processing circuit 34 . In addition, for example, the memory 33 stores programs for the circuits included in the medical information processing apparatus 30 to implement their functions. Note that the memory 33 may be realized by a server group (cloud) connected to the medical information processing apparatus 30 via the network NW.

処理回路34は、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gを実行することで、医用情報処理装置30全体の動作を制御する。ここで、取得機能34aは、取得部の一例である。また、特定機能34bは、特定部の一例である。また、学習用データセット生成機能34cは、学習用データセット生成部の一例である。また、モデル生成機能34dは、モデル生成部の一例である。また、変換機能34eは、変換部の一例である。また、制御機能34gは、制御部の一例である。 The processing circuit 34 executes an acquisition function 34a, a specific function 34b, a learning data set generation function 34c, a model generation function 34d, a conversion function 34e, an output function 34f, and a control function 34g, so that the entire medical information processing apparatus 30 control behavior. Here, the acquisition function 34a is an example of an acquisition unit. Also, the specific function 34b is an example of a specific unit. Also, the learning data set generation function 34c is an example of a learning data set generation unit. Also, the model generation function 34d is an example of a model generation unit. Also, the conversion function 34e is an example of a conversion unit. Also, the control function 34g is an example of a control unit.

例えば、処理回路34は、取得機能34aに対応するプログラムをメモリ33から読み出して実行することにより、医用画像診断装置10又は画像保管装置20から、医用画像データを取得する。また、例えば、処理回路34は、特定機能34bに対応するプログラムをメモリ33から読み出して実行することにより、取得機能34aにより取得される医用画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像データを組として含む学習用データを特定する。 For example, the processing circuit 34 acquires medical image data from the medical image diagnostic apparatus 10 or the image storage apparatus 20 by reading a program corresponding to the acquisition function 34a from the memory 33 and executing it. Further, for example, the processing circuit 34 reads out from the memory 33 a program corresponding to the specific function 34b and executes it, so that among the medical image data acquired by the acquisition function 34a, among the imaging conditions and the subject conditions, Learning data including a set of medical image data in which at least one is different and the imaging directions of which are substantially the same is specified.

また、例えば、処理回路34は、学習用データセット生成機能34cに対応するプログラムをメモリ33から読み出して実行することにより、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。また、例えば、処理回路34は、モデル生成機能34dに対応するプログラムをメモリ33から読み出して実行することにより、学習用データセットに基づいて、入力される医用画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる医用画像データに相当する医用画像データに変換する処理に組み込まれる学習済みモデルを生成する。 Further, for example, the processing circuit 34 reads a program corresponding to the learning data set generation function 34c from the memory 33 and executes it, thereby generating a learning data set including a plurality of learning data specified by the specifying function 34b. Generate. Further, for example, the processing circuit 34 reads the program corresponding to the model generation function 34d from the memory 33 and executes it, thereby converting the input medical image data into imaging conditions and the subject based on the learning data set. generates a trained model to be incorporated in the process of converting to medical image data corresponding to medical image data different in at least one of the conditions of .

また、例えば、処理回路34は、変換機能34eに対応するプログラムをメモリ33から読み出して実行することにより、学習済みモデルに基づいて、入力される医用画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる医用画像データに相当する医用画像データに変換する変換処理を実行する。また、例えば、処理回路34は、出力機能34fに対応するプログラムをメモリ33から読み出して実行することにより、取得機能34aが取得した医用画像や変換機能34eによる変換処理後の医用画像をディスプレイ32に表示させたり、種々のデータ(学習用データ、学習用データセット、学習済みモデル、変換処理後の医用画像データ等)を外部装置に出力したりする。また、例えば、処理回路34は、制御機能34gに対応するプログラムをメモリ33から読み出して実行することにより、入力インターフェース31を介して操作者から受け付けた入力操作に基づいて、処理回路34の各種機能を制御する。 Further, for example, the processing circuit 34 reads the program corresponding to the conversion function 34e from the memory 33 and executes it, thereby converting the input medical image data into imaging conditions and subject conditions based on the learned model. At least one of the data is converted into medical image data corresponding to different medical image data. Further, for example, the processing circuit 34 reads a program corresponding to the output function 34f from the memory 33 and executes it, thereby displaying the medical image acquired by the acquisition function 34a or the medical image after conversion processing by the conversion function 34e on the display 32. It displays and outputs various data (learning data, learning data set, trained model, medical image data after conversion processing, etc.) to an external device. Further, for example, the processing circuit 34 reads out a program corresponding to the control function 34g from the memory 33 and executes it, thereby controlling various functions of the processing circuit 34 based on an input operation received from the operator via the input interface 31. to control.

図1に示す医用情報処理装置30においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ33へ記憶されている。処理回路34は、メモリ33からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路34は、読み出したプログラムに対応する機能を有することとなる。なお、図1においては単一の処理回路34にて、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路34が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In the medical information processing apparatus 30 shown in FIG. 1, each processing function is stored in the memory 33 in the form of a computer-executable program. The processing circuit 34 is a processor that implements a function corresponding to each program by reading the program from the memory 33 and executing the program. In other words, the processing circuit 34 in a state where each program is read has a function corresponding to the read program. In FIG. 1, the single processing circuit 34 realizes an acquisition function 34a, a specific function 34b, a learning data set generation function 34c, a model generation function 34d, a conversion function 34e, an output function 34f, and a control function 34g. However, the processing circuit 34 may be configured by combining a plurality of independent processors, and each processor may implement each processing function by executing each program. Further, each processing function of the processing circuit 34 may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented.

次に、医用画像データを収集する医用画像診断装置10について説明する。本実施形態では、医用画像診断装置10の一例として、図2に示すX線診断装置100について説明する。図2は、第1の実施形態に係るX線診断装置100の構成の一例を示すブロック図である。また、本実施形態では、医用画像データの一例として、2次元のX線画像データについて説明する。 Next, the medical image diagnostic apparatus 10 that collects medical image data will be described. In this embodiment, an X-ray diagnostic apparatus 100 shown in FIG. 2 will be described as an example of the medical image diagnostic apparatus 10. As shown in FIG. FIG. 2 is a block diagram showing an example configuration of the X-ray diagnostic apparatus 100 according to the first embodiment. Also, in this embodiment, two-dimensional X-ray image data will be described as an example of medical image data.

図2に示すように、X線診断装置100は、X線高電圧装置101と、X線管102と、コリメータ103と、フィルタ104と、天板105と、Cアーム106と、X線検出器107と、メモリ108と、ディスプレイ109と、入力インターフェース110と、処理回路111とを備える。 As shown in FIG. 2, the X-ray diagnostic apparatus 100 includes an X-ray high voltage device 101, an X-ray tube 102, a collimator 103, a filter 104, a top plate 105, a C-arm 106, and an X-ray detector. 107 , a memory 108 , a display 109 , an input interface 110 and a processing circuit 111 .

X線高電圧装置101は、処理回路111による制御の下、X線管102に高電圧を供給する。例えば、X線高電圧装置101は、変圧器(トランス)及び整流器等の電気回路を有し、X線管102に印加する高電圧を発生する高電圧発生装置と、X線管102が照射するX線に応じた出力電圧の制御を行なうX線制御装置とを有する。なお、高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。 The X-ray high voltage device 101 supplies high voltage to the X-ray tube 102 under the control of the processing circuitry 111 . For example, the X-ray high voltage device 101 has electric circuits such as a transformer and a rectifier, and includes a high voltage generator that generates a high voltage to be applied to the X-ray tube 102 and a and an X-ray controller for controlling an output voltage according to X-rays. The high voltage generator may be of a transformer type or an inverter type.

X線管102は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管102は、X線高電圧装置101から供給される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。 The X-ray tube 102 is a vacuum tube having a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays upon collision with thermoelectrons. The X-ray tube 102 uses a high voltage supplied from the X-ray high-voltage device 101 to irradiate thermoelectrons from the cathode to the anode, thereby generating X-rays.

コリメータ(X線絞り装置ともいう)103は、例えば、スライド可能な4枚の絞り羽根を有する。コリメータ103は、絞り羽根をスライドさせることで、X線管102が発生したX線を絞り込んで被検体P1に照射させる。ここで、絞り羽根は、鉛等で構成された板状部材であり、X線の照射範囲を調整するためにX線管102のX線照射口付近に設けられる。例えば、コリメータ103は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、X線の照射範囲を制御する。例えば、コリメータ103は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、絞り羽根の開度を調整して、被検体P1に対して照射されるX線の照射範囲を制御する。 A collimator (also called an X-ray diaphragm device) 103 has, for example, four slidable diaphragm blades. The collimator 103 narrows down the X-rays generated by the X-ray tube 102 by sliding the diaphragm blades and irradiates the subject P1 with the X-rays. Here, the diaphragm blade is a plate-shaped member made of lead or the like, and is provided near the X-ray irradiation port of the X-ray tube 102 to adjust the irradiation range of X-rays. For example, the collimator 103 has a drive mechanism such as a motor and an actuator, and controls the irradiation range of X-rays under the control of the processing circuit 111, which will be described later. For example, the collimator 103 applies a drive voltage to the drive mechanism in accordance with the control signal received from the processing circuit 111, thereby adjusting the opening of the diaphragm blades and increasing the amount of X-rays irradiated to the subject P1. Control the irradiation range.

フィルタ104は、被検体P1に対する被ばく線量の低減とX線画像データの画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体P1に吸収されやすい軟線成分を低減したり、X線画像データのコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタ104は、その材質や厚み、位置等によってX線の線量及び照射範囲を変化させ、X線管102から被検体P1へ照射されるX線が予め定められた分布になるようにX線を減衰させる。例えば、フィルタ104は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、駆動機構を動作させることにより移動する。例えば、フィルタ104は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することによりその位置を調整して、被検体P1に対して照射されるX線の線量の分布を制御する。 The filter 104 changes the quality of X-rays transmitted by its material and thickness for the purpose of reducing the exposure dose to the subject P1 and improving the image quality of the X-ray image data. or to reduce high-energy components that cause a reduction in the contrast of X-ray image data. In addition, the filter 104 changes the X-ray dose and irradiation range depending on its material, thickness, position, etc., so that the X-ray irradiated from the X-ray tube 102 to the subject P1 has a predetermined distribution. Attenuate the line. For example, the filter 104 has a driving mechanism such as a motor and an actuator, and is moved by operating the driving mechanism under the control of the processing circuit 111, which will be described later. For example, the filter 104 adjusts its position by applying a drive voltage to the drive mechanism in accordance with the control signal received from the processing circuit 111, and adjusts the dose distribution of the X-rays irradiated to the subject P1. Control.

天板105は、被検体P1を載せるベッドであり、図示しない寝台の上に配置される。なお、被検体P1は、X線診断装置100に含まれない。例えば、寝台は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、駆動機構を動作させることにより、天板105の移動・傾斜を制御する。例えば、寝台は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、天板105を移動させたり、傾斜させたりする。 The top board 105 is a bed on which the subject P1 is placed, and is arranged on a bed (not shown). Note that the subject P1 is not included in the X-ray diagnostic apparatus 100. FIG. For example, the bed has a drive mechanism such as a motor and an actuator, and controls the movement and inclination of the tabletop 105 by operating the drive mechanism under the control of the processing circuit 111, which will be described later. For example, the bed moves or inclines the table top 105 by applying a drive voltage to the drive mechanism according to the control signal received from the processing circuit 111 .

Cアーム106は、X線管102、コリメータ103及びフィルタ104と、X線検出器107とを、被検体P1を挟んで対向するように保持する。例えば、Cアーム106は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、駆動機構を動作させることにより、回転したり移動したりする。例えば、Cアーム106は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、X線管102、コリメータ103及びフィルタ104と、X線検出器107とを被検体P1に対して回転・移動させ、X線の照射位置や照射角度を制御する。なお、図2では、X線診断装置100がシングルプレーンの場合を例に挙げて説明しているが、実施形態はこれに限定されるものではなく、バイプレーンの場合であってもよい。また、図2では、X線診断装置100が循環器診断用のX線診断装置である場合を例に挙げて説明しているが、実施形態はこれに限定されるものではない。例えば、X線診断装置100は、一般X線診断装置、消化器用X線TV装置、マンモグラフィ装置等、種々のX線診断装置であってもよい。Cアーム106は、X線管およびX線検出器のうち少なくとも一方を保持する保持部、保持機構および保持装置の一例である。 The C-arm 106 holds the X-ray tube 102, the collimator 103, the filter 104, and the X-ray detector 107 so as to face each other with the subject P1 interposed therebetween. For example, the C-arm 106 has a driving mechanism such as a motor and an actuator, and rotates or moves by operating the driving mechanism under the control of a processing circuit 111, which will be described later. For example, the C-arm 106 applies a drive voltage to the drive mechanism according to the control signal received from the processing circuit 111, thereby moving the X-ray tube 102, collimator 103, filter 104, and X-ray detector 107 to the subject. It is rotated and moved with respect to P1 to control the X-ray irradiation position and irradiation angle. In FIG. 2, the case where the X-ray diagnostic apparatus 100 is a single plane is described as an example, but the embodiment is not limited to this, and may be a biplane. Also, in FIG. 2, the case where the X-ray diagnostic apparatus 100 is an X-ray diagnostic apparatus for circulatory system diagnosis is described as an example, but the embodiment is not limited to this. For example, the X-ray diagnostic apparatus 100 may be various X-ray diagnostic apparatuses such as a general X-ray diagnostic apparatus, a gastrointestinal X-ray TV apparatus, and a mammography apparatus. The C-arm 106 is an example of a holding section, holding mechanism, and holding device that hold at least one of the X-ray tube and the X-ray detector.

X線検出器107は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器107は、X線管102から照射されて被検体P1を透過したX線を検出して、検出したX線量に対応した検出信号を処理回路111へと出力する。なお、X線検出器107は、グリッド、シンチレータアレイ及び光センサアレイを有する間接変換型の検出器であってもよいし、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。また、X線検出器107は、検出面に垂直な軸を回転軸として、回転可能に構成されてもよい。即ち、X線検出器107は、検出面内で回転可能に構成されてもよい。以下では、検出面内でのX線検出器107の回転角を、面内回転角とも記載する。なお、X線検出器107は、検出器の一例である。 The X-ray detector 107 is, for example, an X-ray flat panel detector (FPD) having detection elements arranged in a matrix. The X-ray detector 107 detects X-rays emitted from the X-ray tube 102 and transmitted through the subject P1 and outputs a detection signal corresponding to the detected X-ray dose to the processing circuit 111 . The X-ray detector 107 may be an indirect conversion type detector having a grid, a scintillator array, and a photosensor array, or a direct conversion type detector having a semiconductor element that converts incident X-rays into electrical signals. It may be a detector. Also, the X-ray detector 107 may be configured to be rotatable about an axis perpendicular to the detection surface as a rotation axis. That is, the X-ray detector 107 may be configured to be rotatable within the detection plane. Hereinafter, the rotation angle of the X-ray detector 107 within the detection plane is also referred to as an in-plane rotation angle. Note that the X-ray detector 107 is an example of a detector.

メモリ108は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ108は、処理回路111によって収集されたX線画像データを受け付けて記憶する。また、メモリ108は、処理回路111によって読み出されて実行される各種機能に対応するプログラムを記憶する。なお、メモリ108は、X線診断装置100とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 108 is implemented by, for example, a RAM, a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. For example, memory 108 receives and stores x-ray image data acquired by processing circuitry 111 . The memory 108 also stores programs corresponding to various functions read and executed by the processing circuit 111 . Note that the memory 108 may be realized by a server group (cloud) connected to the X-ray diagnostic apparatus 100 via the network NW.

ディスプレイ109は、各種の情報を表示する。例えば、ディスプレイ109は、処理回路111による制御の下、操作者の指示を受け付けるためのGUIや、各種のX線画像を表示する。例えば、ディスプレイ109は、液晶ディスプレイやCRTディスプレイである。なお、ディスプレイ109はデスクトップ型でもよいし、処理回路111と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 109 displays various information. For example, the display 109 displays a GUI for accepting operator's instructions and various X-ray images under the control of the processing circuit 111 . For example, display 109 is a liquid crystal display or a CRT display. The display 109 may be of a desktop type, or may be configured by a tablet terminal or the like capable of wireless communication with the processing circuit 111 .

入力インターフェース110は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路111に出力する。例えば、入力インターフェース110は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース110は、処理回路111と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース110は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、X線診断装置100とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路111へ出力する電気信号の処理回路も入力インターフェース110の例に含まれる。 The input interface 110 receives various input operations from an operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 111 . For example, the input interface 110 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad that performs input operations by touching an operation surface, a touch screen that integrates a display screen and a touch pad, and an optical sensor. It is realized by the used non-contact input circuit, voice input circuit, or the like. Note that the input interface 110 may be configured by a tablet terminal or the like capable of wireless communication with the processing circuit 111 . Also, the input interface 110 is not limited to having physical operation parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the X-ray diagnostic apparatus 100 and outputs this electrical signal to the processing circuit 111 is also included in the input interface 110. included in the example.

処理回路111は、収集機能111a、出力機能111b及び制御機能111cを実行することで、X線診断装置100全体の動作を制御する。 The processing circuit 111 controls the overall operation of the X-ray diagnostic apparatus 100 by executing the acquisition function 111a, the output function 111b, and the control function 111c.

例えば、処理回路111は、メモリ108から収集機能111aに相当するプログラムを読み出して実行することにより、X線画像データを収集する。例えば、収集機能111aは、X線高電圧装置101を制御し、X線管102に供給する電圧を調整することで、被検体P1に対して照射されるX線量やオン/オフを制御する。 For example, the processing circuit 111 acquires X-ray image data by reading out a program corresponding to the acquisition function 111a from the memory 108 and executing the program. For example, the acquisition function 111a controls the X-ray high-voltage device 101 and adjusts the voltage supplied to the X-ray tube 102, thereby controlling the X-ray dose irradiated to the subject P1 and ON/OFF.

また、収集機能111aは、撮像対象領域や撮像方向を制御する。ここで、本実施形態において、撮像対象領域とは、被検体P1の部位のうちX線画像により描出される部分を指し、撮像方向とは、被検体P1に対するX線照射に関する方向を指す。例えば、収集機能111aは、コリメータ103を制御し、絞り羽根の開度を調整することで、被検体P1に対して照射されるX線の照射範囲を制御する。また、収集機能111aは、フィルタ104を制御し、フィルタ104の位置を調整することで、X線の線量の分布を制御する。また、収集機能111aは、Cアーム106の動作を制御することで、Cアーム106を回転させたり、移動させたりする。また、例えば、収集機能111aは、寝台の動作を制御することで、天板105を移動させたり、傾斜させたりする。 Also, the acquisition function 111a controls an imaging target area and an imaging direction. Here, in the present embodiment, the imaging target area refers to a portion of the subject P1 that is visualized by an X-ray image, and the imaging direction refers to the direction of X-ray irradiation to the subject P1. For example, the acquisition function 111a controls the irradiation range of X-rays with which the subject P1 is irradiated by controlling the collimator 103 and adjusting the aperture blade opening. The acquisition function 111a also controls the X-ray dose distribution by controlling the filter 104 and adjusting the position of the filter 104 . The collection function 111a also rotates and moves the C-arm 106 by controlling the operation of the C-arm 106 . Also, for example, the collection function 111a moves or tilts the tabletop 105 by controlling the motion of the bed.

以下では、医用画像診断装置10において撮像に用いられる機構を、撮像部とも記載する。例えば、X線診断装置100の撮像部は、X線管102、コリメータ103、フィルタ104、天板105、Cアーム106及びX線検出器107を含む。収集機能111aは、撮像部の一部又は全部を制御することにより、撮像対象領域や撮像方向を制御する。 Hereinafter, a mechanism used for imaging in the medical image diagnostic apparatus 10 is also referred to as an imaging unit. For example, the imaging unit of the X-ray diagnostic apparatus 100 includes an X-ray tube 102, a collimator 103, a filter 104, a top plate 105, a C-arm 106 and an X-ray detector 107. The acquisition function 111a controls the imaging target area and the imaging direction by controlling part or all of the imaging unit.

また、収集機能111aは、X線検出器107から受信した検出信号に基づいてX線画像データを生成し、生成したX線画像データをメモリ108に格納する。この際、収集機能111aは、生成したX線画像データの付帯情報に、撮像対象領域や撮像方向、患者ID、検査種別、検査日時、X線検出器107の面内回転角等を記録することとしてもよい。 The acquisition function 111 a also generates X-ray image data based on the detection signal received from the X-ray detector 107 and stores the generated X-ray image data in the memory 108 . At this time, the acquisition function 111a records the imaging target area, the imaging direction, the patient ID, the examination type, the examination date and time, the in-plane rotation angle of the X-ray detector 107, and the like in the incidental information of the generated X-ray image data. may be

例えば、収集機能111aは、X線管102の向きに応じて撮像方向を特定し、X線画像データの付帯情報に記録する。例えば、収集機能111aは、まず、被検体Pを基準とした方向を定義する。一例を挙げると、収集機能111aは、被検体P1の体軸方向(被検体P1の横断面に垂直な方向)をT方向として定義する。また、収集機能111aは、被検体P1の左右方向(被検体P1のサジタル面に垂直な方向)をS方向として定義する。また、収集機能111aは、被検体P1の前後方向(被検体P1のコロナル面に垂直な方向)をC方向として定義する。なお、以下では、T方向、S方向及びC方向が相互に直交するものとして説明する。 For example, the acquisition function 111a identifies the imaging direction according to the orientation of the X-ray tube 102 and records it in the supplementary information of the X-ray image data. For example, the acquisition function 111a first defines a direction with the subject P as a reference. For example, the acquisition function 111a defines the body axis direction of the subject P1 (the direction perpendicular to the cross section of the subject P1) as the T direction. Further, the acquisition function 111a defines the lateral direction of the subject P1 (the direction perpendicular to the sagittal plane of the subject P1) as the S direction. Also, the acquisition function 111a defines the front-rear direction of the subject P1 (the direction perpendicular to the coronal plane of the subject P1) as the C direction. In the following description, the T-direction, S-direction and C-direction are assumed to be orthogonal to each other.

例えば、被検体P1は、天板105の長手方向に沿って仰向けに載置される。この場合、収集機能111aは、天板105の傾斜情報を用いて、図3の左図に示すように、天板105の長手方向をT方向として定義し、天板105の短手方向をS方向として定義し、天板105に垂直な方向をC方向として定義する。また、収集機能111aは、図3の左図に示すように、撮像方向を特定する。具体的には、収集機能111aは、T方向、S方向及びC方向を基準とし、X線管102の向きを撮像方向として特定する。なお、図3は、第1の実施形態に係る撮像方向について説明するための図である。 For example, the subject P1 is placed face up along the longitudinal direction of the tabletop 105 . In this case, the collection function 111a uses the tilt information of the tabletop 105 to define the longitudinal direction of the tabletop 105 as the T direction and the lateral direction of the tabletop 105 as the S direction, as shown in the left diagram of FIG. A direction perpendicular to the top plate 105 is defined as a C direction. Also, the collection function 111a identifies the imaging direction as shown in the left diagram of FIG. Specifically, the acquisition function 111a specifies the orientation of the X-ray tube 102 as the imaging direction with reference to the T direction, S direction, and C direction. Note that FIG. 3 is a diagram for explaining the imaging direction according to the first embodiment.

ここで、図3の左図に示すように、収集機能111aがCアーム106の回転動作を行なうことによって、被検体Pに対するX線管102の向きは変化する。即ち、Cアーム106の回転動作により、撮像方向は変化する。この場合、収集機能111aは、図3の右図に示すように、T方向、S方向及びC方向を基準として、回転動作後のX線管102の向きを撮像方向として特定する。 Here, as shown in the left diagram of FIG. 3, the orientation of the X-ray tube 102 with respect to the subject P is changed by rotating the C-arm 106 by the acquisition function 111a. That is, the rotation of the C-arm 106 changes the imaging direction. In this case, the acquisition function 111a specifies the orientation of the X-ray tube 102 after the rotation operation as the imaging direction with reference to the T, S, and C directions, as shown in the right diagram of FIG.

また、収集機能111aは、天板105の傾斜(チルト)を考慮して、撮像方向を特定してもよい。即ち、図4の左図に示すように、収集機能111aが天板105を傾斜(チルト)させることによって、X線管102に対する被検体Pの向きは変化する。この場合、収集機能111aは、チルト後の天板105の傾斜情報を用いて、T方向、S方向及びC方向を再度定義する。そして、収集機能111aは、図4の右図に示すように、再度定義したT方向、S方向及びC方向を基準とし、X線管102の向きを撮像方向として特定する。なお、図4は、第1の実施形態に係る撮像方向について説明するための図である。 Also, the collection function 111a may specify the imaging direction in consideration of the tilt of the tabletop 105 . That is, as shown in the left diagram of FIG. 4, the orientation of the subject P with respect to the X-ray tube 102 changes as the acquisition function 111a tilts the top plate 105. FIG. In this case, the collection function 111a redefines the T, S, and C directions using the tilt information of the tabletop 105 after tilting. Then, as shown in the right diagram of FIG. 4, the acquisition function 111a specifies the orientation of the X-ray tube 102 as the imaging direction with reference to the redefined T, S, and C directions. Note that FIG. 4 is a diagram for explaining the imaging direction according to the first embodiment.

なお、収集機能111aは、撮像方向として、臨床角を特定してもよいし、撮像方向を示す値を特定してもよい。例えば、心臓の検査において収集されたX線画像データについて、収集機能111aは、CRA、CAU、LAO、RAO等の臨床角を撮像方向として特定し、X線画像データの付帯情報に記録する。また、例えば、収集機能111aは、T方向、S方向及びC方向から成るTSC座標系を定義し、この座標系における単位ベクトルを撮像方向として特定する。一例を挙げると、撮像方向がC方向に一致する場合、収集機能111aは、TSC座標系において(0,0,1)を撮像方向として特定し、X線画像データの付帯情報に記録する。 Note that the acquisition function 111a may specify the clinical angle as the imaging direction, or may specify a value indicating the imaging direction. For example, for X-ray image data acquired in heart examination, the acquisition function 111a identifies clinical angles such as CRA, CAU, LAO, and RAO as imaging directions, and records them in supplementary information of the X-ray image data. Also, for example, the acquisition function 111a defines a TSC coordinate system consisting of the T, S, and C directions, and specifies a unit vector in this coordinate system as the imaging direction. For example, when the imaging direction coincides with the C direction, the acquisition function 111a specifies (0, 0, 1) as the imaging direction in the TSC coordinate system and records it in the incidental information of the X-ray image data.

また、収集機能111aは、Cアーム106の位置やコリメータ103における絞り羽根の開度等に応じて撮像対象領域を特定し、X線画像データの付帯情報に記録する。例えば、収集機能111aは、まず、被検体Pを基準とした方向及び基準位置を定義する。一例を挙げると、収集機能111aは、T方向、S方向及びC方向から成るTSC座標系を定義し、T座標、S座標及びC座標を用いて、撮像対象領域を特定する。 In addition, the acquisition function 111a specifies an imaging target area according to the position of the C-arm 106, the opening degree of the diaphragm blades in the collimator 103, and the like, and records the area as supplementary information of the X-ray image data. For example, the acquisition function 111a first defines a direction and a reference position with the subject P as a reference. For example, the acquisition function 111a defines a TSC coordinate system consisting of T, S, and C directions, and uses the T, S, and C coordinates to identify the imaging target area.

例えば、収集機能111aは、まず、Cアーム106の位置に基づいて、アイソセンタ(Cアーム106の回転中心)を特定する。次に、収集機能111aは、アイソセンタを通り、かつ、撮像方向に平行な直線を特定する。そして、収集機能111aは、コリメータ103における絞り羽根の開度に基づき、特定した直線を軸とする柱状領域又は錐状領域として、撮像対象領域を特定する。一例を挙げると、コリメータ103が4枚の絞り羽根を有する場合、収集機能111aは、X線焦点を頂点とし、特定した直線を軸とする四角錐状の領域を、撮像対象領域として特定する。 For example, the acquisition function 111a first identifies the isocenter (the center of rotation of the C-arm 106) based on the position of the C-arm 106. FIG. Acquisition function 111a then identifies a straight line that passes through the isocenter and is parallel to the imaging direction. Then, the acquisition function 111a identifies the imaging target area as a columnar area or conical area having the identified straight line as an axis based on the opening degree of the aperture blades of the collimator 103 . For example, when the collimator 103 has four aperture blades, the acquisition function 111a specifies a quadrangular pyramid-shaped region having the X-ray focal point as the vertex and the specified straight line as the imaging target region.

以下では、+T方向が被検体Pの上側(頭側)の方向であり、-T方向が被検体Pの下側(足側)の方向であるものとして説明する。例えば、Cアーム106が+T方向に平行移動する場合、撮像対象領域は、+T方向に平行移動する。また、コリメータ103における絞り羽根の動作を制御する場合、撮像対象領域は、絞り羽根の開度に応じて、拡大または縮小する。例えば、収集機能111aは、Cアーム106の位置、及び、コリメータ103における絞り羽根の開度に基づいて、撮像対象領域を特定することができる。 In the following description, the +T direction is the upper side (head side) of the subject P, and the −T direction is the lower side (foot side) of the subject P. For example, when the C-arm 106 translates in the +T direction, the imaging target region translates in the +T direction. Also, when controlling the operation of the diaphragm blades in the collimator 103, the imaging target area is enlarged or reduced according to the opening degree of the diaphragm blades. For example, the acquisition function 111a can specify the imaging target area based on the position of the C-arm 106 and the opening degree of the diaphragm blades in the collimator 103 .

また、収集機能111aは、天板105の平行移動(スライド)を考慮して、撮像対象領域を特定してもよい。即ち、収集機能111aが天板105をスライドさせることによって、天板105とCアーム106との相対的な位置関係は変化し、撮像対象領域も変化する。例えば、天板105が+T方向に平行移動する場合、撮像対象領域は、-T方向に平行移動する。この場合、収集機能111aは、例えば、天板105とCアーム106との相対的な位置関係、及び、コリメータ103における絞り羽根の開度に基づいて、撮像対象領域を特定する。 In addition, the collection function 111a may specify the imaging target area in consideration of parallel movement (sliding) of the tabletop 105 . That is, when the collection function 111a slides the top plate 105, the relative positional relationship between the top plate 105 and the C-arm 106 changes, and the imaging target area also changes. For example, when the tabletop 105 translates in the +T direction, the imaging target area translates in the -T direction. In this case, the acquisition function 111a identifies the imaging target area based on the relative positional relationship between the top plate 105 and the C-arm 106 and the opening degree of the diaphragm blades in the collimator 103, for example.

なお、収集機能111aは、撮像対象領域として、撮像対象部位を特定してもよいし、撮像対象領域を示す値を特定してもよい。例えば、収集機能111aは、「心臓」、「右肺」、「頭部」等の撮像対象部位を撮像対象領域として特定し、X線画像データの付帯情報に記録する。また、例えば、収集機能111aは、T方向、S方向及びC方向から成るTSC座標系を定義し、この座標系における3次元領域を撮像対象領域として特定して、X線画像データの付帯情報に記録する。 Note that the collection function 111a may specify an imaging target region as the imaging target region, or may specify a value indicating the imaging target region. For example, the acquisition function 111a specifies imaging target regions such as "heart", "right lung", and "head" as imaging target regions, and records them in the supplementary information of the X-ray image data. Also, for example, the acquisition function 111a defines a TSC coordinate system consisting of the T, S, and C directions, specifies a three-dimensional area in this coordinate system as an imaging target area, and uses the incidental information of the X-ray image data. Record.

また、収集機能111aは、メモリ108が記憶するX線画像データに対して各種画像処理を行なってもよい。例えば、収集機能111aは、X線画像データに対して、画像処理フィルタによるノイズ低減処理や、散乱線補正を実行する。 The acquisition function 111a may also perform various image processing on the X-ray image data stored in the memory 108. FIG. For example, the acquisition function 111a performs noise reduction processing using an image processing filter and scattered radiation correction on X-ray image data.

また、処理回路111は、メモリ108から出力機能111bに相当するプログラムを読み出して実行することにより、ディスプレイ109にGUIやX線画像を表示させる。また、出力機能111bは、X線画像データを、画像保管装置20や医用情報処理装置30に出力する。また、処理回路111は、メモリ108から制御機能111cに相当するプログラムを読み出して実行することにより、入力インターフェース110を介して操作者から受け付けた入力操作に基づいて、処理回路111の各種機能を制御する。 In addition, the processing circuit 111 reads a program corresponding to the output function 111b from the memory 108 and executes it to display a GUI and an X-ray image on the display 109 . The output function 111b also outputs the X-ray image data to the image storage device 20 and the medical information processing device 30. FIG. Further, the processing circuit 111 reads out a program corresponding to the control function 111c from the memory 108 and executes it, thereby controlling various functions of the processing circuit 111 based on an input operation received from the operator via the input interface 110. do.

図2に示すX線診断装置100においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ108へ記憶されている。処理回路111は、メモリ108からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路111は、読み出したプログラムに対応する機能を有することとなる。なお、図2においては、収集機能111a、出力機能111b及び制御機能111cの各処理機能が単一の処理回路111によって実現される場合を示したが、実施形態はこれに限られるものではない。例えば、処理回路111は、複数の独立したプロセッサを組み合わせて構成され、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路111が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In the X-ray diagnostic apparatus 100 shown in FIG. 2, each processing function is stored in the memory 108 in the form of a computer-executable program. The processing circuit 111 is a processor that implements a function corresponding to each program by reading and executing the program from the memory 108 . In other words, the processing circuit 111 having read each program has a function corresponding to the read program. Although FIG. 2 shows a case where the processing functions of the collection function 111a, the output function 111b, and the control function 111c are realized by the single processing circuit 111, the embodiment is not limited to this. For example, the processing circuit 111 may be configured by combining a plurality of independent processors, and each processor may implement each processing function by executing each program. Further, each processing function of the processing circuit 111 may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ33又はメモリ108に保存されたプログラムを読み出し実行することで機能を実現する。 The term "processor" used in the above description includes, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., a simple programmable logic device ( Circuits such as Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). The processor implements its functions by reading and executing programs stored in the memory 33 or memory 108 .

なお、図1及び図2においては、単一のメモリ33又はメモリ108が各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、複数のメモリ33を分散して配置し、処理回路34は、個別のメモリ33から対応するプログラムを読み出す構成としても構わない。同様に、複数のメモリ108を分散して配置し、処理回路111は、個別のメモリ108から対応するプログラムを読み出す構成としても構わない。また、メモリ33及びメモリ108にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 1 and 2, it is assumed that the single memory 33 or memory 108 stores programs corresponding to each processing function. However, a configuration may be adopted in which a plurality of memories 33 are distributed and the processing circuit 34 reads corresponding programs from the individual memories 33 . Similarly, a plurality of memories 108 may be distributed and the processing circuit 111 may read corresponding programs from individual memories 108 . Also, instead of storing the program in the memory 33 and memory 108, the program may be configured to be directly embedded in the circuitry of the processor. In this case, the processor implements its functions by reading and executing the program embedded in the circuit.

また、処理回路34及び処理回路111は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路34は、メモリ33から各機能に対応するプログラムを読み出して実行するとともに、医用情報処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。また、例えば、処理回路34は、メモリ33から各機能に対応するプログラムを読み出して実行するとともに、処理回路111を計算資源として利用することにより、図1に示す各機能を実現する。 Also, the processing circuit 34 and the processing circuit 111 may realize their functions using a processor of an external device connected via the network NW. For example, the processing circuit 34 reads and executes a program corresponding to each function from the memory 33, and uses a server group (cloud) connected to the medical information processing apparatus 30 via the network NW as computational resources. , implement the functions shown in FIG. Further, for example, the processing circuit 34 reads out and executes programs corresponding to each function from the memory 33, and uses the processing circuit 111 as a computational resource to realize each function shown in FIG.

以上、医用情報処理システム1の構成の一例について説明した。かかる構成の下、医用情報処理システム1における医用情報処理装置30は、医用画像に関する学習用データ不足を解消する。具体的には、医用情報処理装置30は、以下詳細に説明する処理回路34による処理によってX線画像データを取得し、取得したX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定することで、医用画像に関する学習用データ不足を解消する。以下、第1の実施形態に係る医用情報処理装置30が行なう処理について詳細に説明する。 An example of the configuration of the medical information processing system 1 has been described above. With such a configuration, the medical information processing apparatus 30 in the medical information processing system 1 solves the shortage of learning data related to medical images. Specifically, the medical information processing apparatus 30 acquires X-ray image data through processing by the processing circuit 34, which will be described in detail below, and among the acquired X-ray image data, By specifying learning data that includes a set of X-ray image data in which at least one is different and the imaging directions of which are substantially the same, the lack of learning data related to medical images is resolved. Processing performed by the medical information processing apparatus 30 according to the first embodiment will be described in detail below.

まず、取得機能34aは、X線診断装置100又は画像保管装置20からX線画像データを取得する。例えば、取得機能34aは、図5に示すように、X線診断装置100から、X線画像データI1及びX線画像データI2を含む複数のX線画像データを取得する。なお、図5は、第1の実施形態に係る処理回路34による処理について説明するための図である。 First, the acquisition function 34 a acquires X-ray image data from the X-ray diagnostic apparatus 100 or the image storage apparatus 20 . For example, the acquisition function 34a acquires a plurality of X-ray image data including X-ray image data I1 and X-ray image data I2 from the X-ray diagnostic apparatus 100, as shown in FIG. FIG. 5 is a diagram for explaining processing by the processing circuit 34 according to the first embodiment.

ここで、取得機能34aは、メモリ108に記憶されたX線画像データを取得してもよいし、収集機能111aにより収集されたX線画像データをメモリ108を介すことなく取得してもよい。また、取得機能34aは、画像保管装置20に記憶されたX線画像データを取得する場合であってもよい。また、取得機能34aは、取得したX線画像データをメモリ33に記憶させることとしてもよい。 Here, the acquisition function 34a may acquire X-ray image data stored in the memory 108, or may acquire X-ray image data acquired by the acquisition function 111a without using the memory 108. . Alternatively, the acquisition function 34 a may acquire X-ray image data stored in the image storage device 20 . The acquisition function 34a may also cause the memory 33 to store the acquired X-ray image data.

次に、特定機能34bは、取得機能34aにより取得されたX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定する。 Next, the specifying function 34b selects X-ray image data in which at least one of the imaging condition and the subject condition is different from the X-ray image data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify training data to include as a set.

例えば、特定機能34bは、まず、取得機能34aにより取得されたX線画像データのうち、同一検査内で収集されたX線画像データの組を特定する。一例を挙げると、特定機能34bは、撮像対象となった被検体及び検査種別が同一であり、かつ、同日に収集されたX線画像データの組を特定する。 For example, the specifying function 34b first specifies a set of X-ray image data acquired in the same examination among the X-ray image data acquired by the acquiring function 34a. To give an example, the specifying function 34b specifies a set of X-ray image data acquired on the same day and having the same imaging subject and examination type.

例えば、特定機能34bは、各X線画像データの付帯情報に基づいて、各X線画像データの撮像対象となった被検体の情報を取得し、撮像対象となった被検体が同一であるX線画像データの組を特定する。一例を挙げると、X線画像データがDICOM(Digital Imaging and Communications in Medicine)形式である場合、特定機能34bは、タグ「(0010,0020) Patient ID」に記録された患者IDに基づいて、撮像対象となった被検体が同一であるX線画像データの組を特定する。 For example, the specifying function 34b acquires information on the subject that is the imaging target of each X-ray image data based on the incidental information of each X-ray image data, Identify a set of line image data. For example, if the X-ray image data is in DICOM (Digital Imaging and Communications in Medicine) format, the specific function 34b performs imaging based on the patient ID recorded in the tag "(0010,0020) Patient ID". A set of X-ray image data in which the object of interest is the same is identified.

次に、特定機能34bは、撮像対象となった被検体が同一であるX線画像データの組のうち、検査種別が同一であるX線画像データの組を特定する。一例を挙げると、特定機能34bは、各X線画像データの付帯情報に基づいて、各X線画像データに関する検査が通常検査であるか緊急検査であるか等の検査種別を取得する。そして、特定機能34bは、各X線画像データの検査種別を比較することで、検査種別が同一であるX線画像データの組を特定する。 Next, the specifying function 34b specifies a set of X-ray image data of the same examination type among the sets of X-ray image data of the same subject that is the imaging target. For example, the specifying function 34b acquires an examination type such as whether the examination for each X-ray image data is a normal examination or an emergency examination based on the incidental information of each X-ray image data. Then, the identifying function 34b identifies a set of X-ray image data having the same examination type by comparing the examination type of each X-ray image data.

更に、特定機能34bは、撮像対象となった被検体及び検査種別が同一であるX線画像データの組のうち、同日に収集されたX線画像データの組を特定する。一例を挙げると、特定機能34bは、各X線画像データの付帯情報に基づいて、各X線画像データに関する検査が実行された検査日時を取得する。そして、特定機能34bは、各X線画像データの検査日時を比較することで、同日に収集されたX線画像データの組を特定する。即ち、特定機能34bは、撮像対象となった被検体及び検査種別が同一であるX線画像データの組のうち、同日に収集されたX線画像データの組を、同一検査内で収集されたX線画像データの組として特定する。 Furthermore, the specifying function 34b specifies a set of X-ray image data acquired on the same day, among sets of X-ray image data having the same subject to be imaged and examination type. For example, the specifying function 34b acquires the examination date and time when the examination for each X-ray image data was performed based on the incidental information of each X-ray image data. Then, the specifying function 34b specifies a set of X-ray image data acquired on the same day by comparing the examination date and time of each X-ray image data. That is, the specifying function 34b selects a set of X-ray image data acquired on the same day, among sets of X-ray image data having the same subject to be imaged and the same examination type, as a set of X-ray image data acquired in the same examination. It is specified as a set of X-ray image data.

次に、特定機能34bは、同一検査内で収集されたX線画像データの組のうち、撮像方向が略一致するX線画像データの組を特定する。例えば、特定機能34bは、同一検査内で収集されたX線画像データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。ここで、特定機能34bは、各X線画像データの撮像対象領域及び撮像方向を、各X線画像データの付帯情報に基づいて取得することができる。 Next, the specifying function 34b specifies a set of X-ray image data whose imaging directions are substantially the same among the sets of X-ray image data acquired in the same examination. For example, the identifying function 34b identifies, among sets of X-ray image data acquired in the same examination, sets of X-ray image data in which at least a part of the imaging target region overlaps and whose imaging directions are substantially the same. do. Here, the specifying function 34b can acquire the imaging target region and the imaging direction of each X-ray image data based on the incidental information of each X-ray image data.

例えば、特定機能34bは、まず、同一検査内で収集されたX線画像データの組の間で、撮像方向が略一致しているか否かを判定する。一例を挙げると、心臓の検査において収集された各X線画像データについて、収集機能111aは、CRA、CAU、LAO、RAO等の臨床角を撮像方向として特定し、各X線画像データの付帯情報に記録する。この場合、特定機能34bは、各X線画像データの付帯情報から取得した臨床角を相互に比較し、臨床角が一致している場合、撮像方向が略一致していると判定する。別の例を挙げると、収集機能111aは、各X線画像データの撮像方向として、撮像方向を示す単位ベクトルを特定する。この場合、特定機能34bは、各X線画像データの付帯情報から取得した単位ベクトルについて内積を算出し、内積が閾値以上である場合に、撮像方向が略一致していると判定する。 For example, the specifying function 34b first determines whether or not the imaging directions of sets of X-ray image data acquired in the same examination substantially match. For example, the acquisition function 111a specifies clinical angles such as CRA, CAU, LAO, and RAO for each X-ray image data acquired in a heart examination as an imaging direction, and to record. In this case, the specifying function 34b compares the clinical angles acquired from the supplementary information of each X-ray image data, and determines that the imaging directions substantially match when the clinical angles match. To give another example, the acquisition function 111a identifies a unit vector indicating the imaging direction as the imaging direction of each piece of X-ray image data. In this case, the specifying function 34b calculates the inner product of the unit vectors acquired from the incidental information of each X-ray image data, and determines that the imaging directions substantially match when the inner product is equal to or greater than the threshold.

上述したように、収集機能111aは、X線管102の向きや天板105の傾斜情報等、撮像部の配置に基づいて撮像方向を特定し、X線画像データの付帯情報に撮像方向を記録する。そして、特定機能34bは、X線画像データの付帯情報から取得した撮像方向に基づいて、撮像方向が略一致するX線画像データの組の特定を行なう。即ち、特定機能34bは、撮像部の配置に基づいて、撮像方向が略一致するX線画像データの組の特定を行なう。 As described above, the acquisition function 111a identifies the imaging direction based on the arrangement of the imaging unit such as the orientation of the X-ray tube 102 and the tilt information of the tabletop 105, and records the imaging direction in the incidental information of the X-ray image data. do. Then, the specifying function 34b specifies a set of X-ray image data whose imaging directions substantially match based on the imaging directions acquired from the incidental information of the X-ray image data. That is, the specifying function 34b specifies a set of X-ray image data whose imaging directions are substantially the same based on the arrangement of the imaging units.

また、例えば、特定機能34bは、撮像方向が略一致していると判定したX線画像データの組の間で、撮像対象領域の少なくとも一部が重複しているか否かを判定する。一例を挙げると、各X線画像データについて、収集機能111aは、TSC座標系において特定した3次元領域を、撮像対象領域としてX線画像データの付帯情報に記録する。この場合、特定機能34bは、各X線画像データの付帯情報から取得した3次元領域を相互に比較し、3次元領域の少なくとも一部が重複している場合、撮像対象領域の少なくとも一部が重複していると判定する。別の例を挙げると、収集機能111aは、各X線画像データについて、アイソセンタの位置情報をX線画像データの付帯情報に記録する。この場合、特定機能34bは、各X線画像データの付帯情報から取得したアイソセンタの位置間の距離が閾値以下である場合に、撮像対象領域の少なくとも一部が重複していると判定する。 Also, for example, the specifying function 34b determines whether or not at least a part of the imaging target region overlaps between sets of X-ray image data determined to have approximately the same imaging direction. For example, for each piece of X-ray image data, the acquisition function 111a records the three-dimensional area specified in the TSC coordinate system in the incidental information of the X-ray image data as an imaging target area. In this case, the specifying function 34b mutually compares the three-dimensional regions acquired from the incidental information of each X-ray image data, and if at least a part of the three-dimensional regions overlaps, at least a part of the imaging target region is determined to be duplicates. To give another example, the acquisition function 111a records the position information of the isocenter in the supplementary information of the X-ray image data for each X-ray image data. In this case, the specifying function 34b determines that at least a part of the imaging target regions overlap when the distance between the isocenter positions obtained from the incidental information of each X-ray image data is equal to or less than the threshold.

上述したように、収集機能111aは、天板105とCアーム106との位置関係や、コリメータ103における絞り羽根の開度等、撮像部の配置に基づいて撮像対象領域を取得し、X線画像データの付帯情報に記録する。或いは、収集機能111aは、天板105とCアーム106との位置関係等、撮像部の配置に基づいてアイソセンタの位置情報を取得し、X線画像データの付帯情報に記録する。そして、特定機能34bは、X線画像データの付帯情報から取得した撮像対象領域、又は、アイソセンタの位置情報に基づいて、撮像対象領域の少なくとも一部が重複するX線画像データの組の特定を行なう。即ち、特定機能34bは、撮像部の配置に基づいて、撮像対象領域の少なくとも一部が重複するX線画像データの組の特定を行なう。 As described above, the acquisition function 111a acquires an imaging target region based on the positional relationship between the top plate 105 and the C-arm 106, the opening degree of the aperture blades in the collimator 103, and the like, and acquires the imaging target region based on the arrangement of the imaging unit. Record in the accompanying information of the data. Alternatively, the acquisition function 111a acquires the positional information of the isocenter based on the arrangement of the imaging unit such as the positional relationship between the top plate 105 and the C-arm 106, and records it in the incidental information of the X-ray image data. Then, the specifying function 34b specifies a set of X-ray image data in which at least a part of the imaging target region overlaps based on the imaging target region or the isocenter position information acquired from the incidental information of the X-ray image data. do That is, the specifying function 34b specifies a set of X-ray image data in which at least a part of the imaging target region overlaps based on the arrangement of the imaging units.

ここで、特定機能34bは、撮像対象領域の一部が重複し、かつ、撮像対象領域の全部が重複していないX線画像データの組について、X線画像データ間の位置合わせを行なうこととしてもよい。例えば、特定機能34bは、撮像対象領域の一部が重複するX線画像データの組において、各X線画像データから解剖学的特徴点(ランドマーク)を抽出する。次に、特定機能34bは、平行移動、拡大/縮小等の処理によって、X線画像データ間の解剖学的特徴点が重なるように位置合わせを行なう。そして、特定機能34bは、位置合わせしたX線画像データの組を学習用データとして特定する。なお、特定機能34bは、撮像対象領域の全部が重複するX線画像データの組については、位置合わせを実行せず、そのまま学習用データとして特定する。 Here, the specifying function 34b performs alignment between X-ray image data for a set of X-ray image data in which a part of the imaging target region overlaps and the entire imaging target region does not overlap. good too. For example, the specifying function 34b extracts anatomical feature points (landmarks) from each piece of X-ray image data in a set of X-ray image data in which part of the imaging target region overlaps. Next, the specifying function 34b carries out registration such that the anatomical feature points of the X-ray image data are overlapped by processing such as translation and enlargement/reduction. Then, the identifying function 34b identifies a set of aligned X-ray image data as learning data. Note that the specifying function 34b specifies a set of X-ray image data in which the entire imaging target region overlaps as learning data without performing alignment.

また、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でないX線画像データの組について、X線画像データ間の角度補正を行なうこととしてもよい。例えば、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でないX線画像データの組において、X線画像データ間の撮像方向の差に基づく台形補正や、各X線画像データから抽出した解剖学的特徴点に基づく変形処理等の角度補正を行なう。そして、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。なお、特定機能34bは、撮像方向が同一であるX線画像データの組については、角度補正を実行せず、そのまま学習用データとして特定する。 Further, the specifying function 34b may perform angle correction between X-ray image data for a set of X-ray image data whose imaging directions are substantially the same and which are not the same. For example, the specific function 34b performs trapezoidal correction based on the difference in imaging direction between X-ray image data sets in a set of X-ray image data whose imaging directions are substantially the same but are not the same. Angle correction such as deformation processing is performed based on the anatomical feature points extracted from . Then, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. Note that the identifying function 34b identifies sets of X-ray image data having the same imaging direction as learning data without executing angle correction.

また、特定機能34bは、X線画像データの撮像時におけるX線検出器107の面内回転角に基づいて、X線画像データの回転補正を行なうこととしてもよい。例えば、収集機能111aは、X線検出器107の基準状態(面内回転角が0°である状態)を定義し、基準状態からのX線検出器107の回転量を面内回転角として取得し、X線画像データの付帯情報に記録する。一例を挙げると、X線画像データがDICOM形式である場合、収集機能111aは、DICOMのプライベートタグに面内回転角を記録する。 Further, the specifying function 34b may correct the rotation of the X-ray image data based on the in-plane rotation angle of the X-ray detector 107 when capturing the X-ray image data. For example, the acquisition function 111a defines the reference state of the X-ray detector 107 (state in which the in-plane rotation angle is 0°), and obtains the amount of rotation of the X-ray detector 107 from the reference state as the in-plane rotation angle. and recorded in the incidental information of the X-ray image data. For example, if the X-ray image data is in DICOM format, the acquisition function 111a records the in-plane rotation angle in a DICOM private tag.

例えば、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組における少なくとも一方のX線画像データについて、回転補正を実行する。一例を挙げると、特定機能34bは、面内回転角(基準状態からのX線検出器107の回転量)を相殺するように、各X線画像データの回転補正を実行する。
これにより、特定機能34bは、各X線画像データの向きを揃えることができる。そして、特定機能34bは、向きが揃った状態のX線画像データの組を、学習用データとして特定する。
For example, the specifying function 34b performs rotation correction on at least one piece of X-ray image data in a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. For example, the specific function 34b executes rotation correction of each X-ray image data so as to offset the in-plane rotation angle (rotation amount of the X-ray detector 107 from the reference state).
Thereby, the specific function 34b can align the orientation of each X-ray image data. Then, the specifying function 34b specifies a set of X-ray image data with aligned orientations as learning data.

或いは、特定機能34bは、まず、同一検査内で収集されたX線画像データの組における少なくとも一方のX線画像データについて、回転補正を実行する。次に、特定機能34bは、回転補正後のX線画像データの組から、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。これにより、特定機能34bは、向きが揃った状態のX線画像データの組を、学習用データとして特定する。 Alternatively, the specification function 34b first performs rotational correction on at least one piece of X-ray image data in a set of X-ray image data acquired within the same examination. Next, the specifying function 34b specifies, from the sets of X-ray image data after rotation correction, sets of X-ray image data in which at least a part of the imaging target region overlaps and in which the imaging directions are substantially the same. As a result, the identifying function 34b identifies a set of X-ray image data with aligned orientations as learning data.

次に、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データの組から成る学習用データを特定する。 Next, the specifying function 34b selects a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same, and at least one of the imaging condition and the subject condition is different. Identify training data consisting of a set of X-ray image data.

ここで、X線画像データについて撮像の条件とは、例えば、X線の照射に関する条件やX線の検出に関する条件等である。なお、X線の照射に関する条件の例としては、管電流値、管電圧値、照射時間等が挙げられる。また、X線の検出に関する条件の例としては、X線検出器107が備える検出素子の数、X線検出器107のビニング数、X線検出器107の種類(間接変換型/直接変換型)等が挙げられる。 Here, the imaging conditions for the X-ray image data are, for example, conditions related to irradiation of X-rays, conditions related to detection of X-rays, and the like. Incidentally, examples of conditions related to X-ray irradiation include a tube current value, a tube voltage value, an irradiation time, and the like. Examples of conditions related to X-ray detection include the number of detection elements included in the X-ray detector 107, the number of binnings of the X-ray detector 107, and the type of the X-ray detector 107 (indirect conversion type/direct conversion type). etc.

また、X線画像データについて被検体の条件とは、例えば、造影条件等である。なお、造影条件の例としては、被検体の血管や消化器等に注入された造影剤の種類及び量、造影剤注入後の経過時間等が挙げられる。例えば、被検体の血管に注入される造影剤の種類には、被検体の周辺組織よりX線減弱係数の大きな陽性造影剤(ヨードや硫酸バリウムを主成分とする造影剤等)と、被検体の周辺組織よりX線減弱係数の小さな陰性造影剤(二酸化炭素や酸素、窒素、空気を主成分とする気体造影剤等)とがある。 In addition, the condition of the subject for the X-ray image data is, for example, the contrast condition. Examples of contrast conditions include the type and amount of the contrast medium injected into the subject's blood vessels, digestive organs, and the like, and the elapsed time after injection of the contrast medium. For example, the types of contrast agents injected into the blood vessels of the subject include positive contrast agents (contrast agents mainly composed of iodine and barium sulfate, etc.) that have larger X-ray attenuation coefficients than the surrounding tissue of the subject, and There are negative contrast agents (gas contrast agents mainly composed of carbon dioxide, oxygen, nitrogen, air, etc.) that have a smaller X-ray attenuation coefficient than the surrounding tissue.

以下では一例として、図5に示すX線画像データI1に係る管電流値が、X線画像データI2に係る管電流値よりも小さい場合について説明する。即ち、以下では、X線画像データI1とX線画像データI2との撮像の条件が異なる場合について説明する。また、図5に示すように、X線画像データI1とX線画像データI2とは、撮像対象領域が略重複し、かつ、撮像方向が略一致するX線画像データの組である。従って、特定機能34bは、撮像の条件が異なるX線画像データI1とX線画像データI2との組を、学習用データとして特定する。 As an example, a case where the tube current value related to the X-ray image data I1 shown in FIG. 5 is smaller than the tube current value related to the X-ray image data I2 will be described below. That is, the case where the imaging conditions of the X-ray image data I1 and the X-ray image data I2 are different will be described below. Further, as shown in FIG. 5, the X-ray image data I1 and the X-ray image data I2 are a set of X-ray image data having substantially overlapping imaging target regions and substantially matching imaging directions. Therefore, the specifying function 34b specifies a set of X-ray image data I1 and X-ray image data I2 with different imaging conditions as learning data.

ここで、X線画像データI2よりも小さい管電流値(低線量)で撮像されたX線画像データI1は、X線画像データI2よりも多くのノイズを含んでいる。即ち、X線画像データI1とX線画像データI2との組は、ノイズの程度が異なる医用画像の組の一例である。 Here, the X-ray image data I1 imaged with a smaller tube current value (low dose) than the X-ray image data I2 contains more noise than the X-ray image data I2. That is, the set of the X-ray image data I1 and the X-ray image data I2 is an example of a set of medical images having different degrees of noise.

なお、特定機能34bは、X線画像データの組について、学習用データとして特定するか否かを判定してもよい。例えば、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でないX線画像データの組についてX線画像データ間の角度補正を行なった場合に、角度補正したX線画像データの組を学習用データとして特定するか否かを判定してもよい。例えば、特定機能34bは、まず、角度補正したX線画像データの組について、画像間の比較を行なう。 Note that the specifying function 34b may determine whether or not to specify a set of X-ray image data as learning data. For example, when performing angle correction between X-ray image data for a set of X-ray image data whose imaging directions are substantially the same but whose imaging directions are not the same, the specifying function 34b performs angle correction of the angle-corrected X-ray image data. It may be determined whether or not to specify a set as learning data. For example, the specification function 34b first performs an image-to-image comparison for sets of angle-corrected X-ray image data.

例えば、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴点を抽出し、画像間で特徴点の位置が一致するか否かを判定する。一例を挙げると、特定機能34bは、メモリ33から、被検体P1の年齢、成人/子供、男性/女性、体重、身長等の種々のパラメータに応じて、仮想患者画像データを取得する。ここで、仮想患者画像データは、複数の解剖学的特徴点の位置が、それぞれの解剖学的特徴の識別コードとともに定義されたデータである。例えば、特定機能34bは、パターン認識等の画像処理によりX線画像データから複数の特徴点を抽出するとともに、仮想患者画像データに基づいて、抽出した複数の特徴点それぞれの識別コードを特定する。そして、特定機能34bは、識別コードごとに、各X線画像データから抽出した特徴点の位置が画像間で一致するか否かを判定する。ここで、特徴点の位置が一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、特徴点の位置が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 For example, the specifying function 34b extracts feature points from each set of angle-corrected X-ray image data, and determines whether or not the positions of the feature points match between the images. As an example, the identification function 34b acquires virtual patient image data from the memory 33 according to various parameters such as age, adult/child, male/female, weight, height, etc. of the subject P1. Here, the virtual patient image data is data in which the positions of a plurality of anatomical feature points are defined together with identification codes for the respective anatomical features. For example, the specifying function 34b extracts a plurality of feature points from the X-ray image data by image processing such as pattern recognition, and specifies an identification code for each of the extracted feature points based on the virtual patient image data. Then, the specifying function 34b determines whether or not the positions of the feature points extracted from each X-ray image data match between the images for each identification code. Here, when the positions of the feature points match, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. On the other hand, if the positions of the feature points do not match, the identifying function 34b determines not to identify the set of angle-corrected X-ray image data as learning data.

別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴領域を抽出し、画像間で特徴領域が一致するか否かを判定する。例えば、特定機能34bは、各X線画像データにおいて骨や臓器等を特徴領域として抽出し、抽出した領域の輪郭線を抽出する。ここで、輪郭線が画像間で一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、輪郭線が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 To give another example, the specifying function 34b extracts a characteristic region from each piece of X-ray image data for a set of angle-corrected X-ray image data, and determines whether or not the characteristic regions match between the images. For example, the specifying function 34b extracts a bone, an organ, or the like as a characteristic region from each X-ray image data, and extracts a contour line of the extracted region. Here, if the contour lines match between the images, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. On the other hand, if the contour lines do not match, the specifying function 34b determines not to specify the set of angle-corrected X-ray image data as learning data.

別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、画像間の類似度を算出する。例えば、特定機能34bは、画素ごとに、画像間での画素値の差を算出する。次に、特定機能34bは、画素ごとに算出した差をそれぞれ二乗した後、合算する。そして、特定機能34bは、算出した合算値に基づいて、類似度を算出する。また、例えば、特定機能34bは、各X線画像データをハッシュ関数に入力して、ハッシュ値を算出する。そして、特定機能34bは、画像間でのハッシュ値の差に基づいて、類似度を算出する。 To give another example, the specifying function 34b calculates the degree of similarity between images for sets of angle-corrected X-ray image data. For example, the specifying function 34b calculates the pixel value difference between the images for each pixel. Next, the specific function 34b squares the differences calculated for each pixel, and then sums them up. Then, the specifying function 34b calculates the degree of similarity based on the calculated total value. Also, for example, the specifying function 34b inputs each X-ray image data to a hash function to calculate a hash value. Then, the specifying function 34b calculates the degree of similarity based on the hash value difference between the images.

なお、特定機能34bは、各X線画像データのSN比(信号対雑音比)が異なる場合、コントラストを補正してから、類似度を算出してもよい。例えば、特定機能34bは、角度補正したX線画像データの組のうちSN比が低い方のX線画像データについて、平滑化フィルタを用いた画像処理を実行する。これにより、特定機能34bは、SN比が低い方のX線画像データについて、他方のX線画像データと同程度までSN比を上昇させる。そして、特定機能34bは、同程度のSN比を有するX線画像データの組について、画像間の類似度を算出する。 Note that when the SN ratio (signal-to-noise ratio) of each X-ray image data is different, the specifying function 34b may calculate the degree of similarity after correcting the contrast. For example, the specifying function 34b performs image processing using a smoothing filter on X-ray image data having a lower SN ratio among the set of angle-corrected X-ray image data. As a result, the specifying function 34b increases the SN ratio of the X-ray image data with the lower SN ratio to the same extent as the other X-ray image data. Then, the specifying function 34b calculates the degree of similarity between images for sets of X-ray image data having similar SN ratios.

ここで、類似度が閾値よりも高い場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。なお、SN比が低い方のX線画像データについて画像処理を実行していた場合、特定機能34bは、画像処理を実行する前のX線画像データと他方のX線画像データとの組を、学習用データとして特定する。一方で、類似度が閾値よりも低い場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 Here, if the similarity is higher than the threshold, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. Note that when image processing is performed on the X-ray image data with a lower SN ratio, the specific function 34b sets the X-ray image data before performing the image processing and the other X-ray image data to Identify as training data. On the other hand, if the degree of similarity is lower than the threshold, the identifying function 34b determines not to identify the set of angle-corrected X-ray image data as learning data.

また、特定機能34bは、学習用データの特定に先立って、X線画像データの各々を学習用データの特定に使用するか否か判定してもよい。即ち、特定機能34bは、取得機能34aにより取得されたX線画像データについて、学習用データの特定に使用するか否かを判定し、使用すると判定したX線画像データを用いて、学習用データを特定することとしてもよい。 In addition, the specifying function 34b may determine whether or not to use each piece of X-ray image data to specify learning data prior to specifying learning data. That is, the specifying function 34b determines whether or not to use the X-ray image data acquired by the acquiring function 34a to specify learning data, and uses the X-ray image data determined to be used to acquire learning data. may be specified.

例えば、特定機能34bは、取得機能34aにより取得されたX線画像データのうち、類似するX線画像データが複数ある場合、その一部のみを使用すると判定する。ここで、類似するX線画像データが複数ある場合とは、例えば、X線透視が実行された場合や、撮像対象領域及び撮像方向を変更することなく、条件を微調整しながらX線画像データの撮像が繰り返し行われた場合等である。なお、X線透視は、リアルタイムでの観察に用いられる撮像及び観察の方法であり、例えば、比較的低線量のX線を用いて時系列の複数のX線画像データの撮像を行ない、撮像と並行してディスプレイ109に表示する方法である。X線透視によって得られるX線画像を透視画像ともいう。 For example, if there is a plurality of similar X-ray image data among the X-ray image data acquired by the acquisition function 34a, the specifying function 34b determines to use only a part of them. Here, the case where there are a plurality of similar X-ray image data means, for example, when X-ray fluoroscopy is performed, or when the X-ray image data is acquired while finely adjusting the conditions without changing the imaging target area and imaging direction. is repeatedly performed. X-ray fluoroscopy is a method of imaging and observation used for real-time observation. This is a method of displaying on the display 109 in parallel. An X-ray image obtained by X-ray fluoroscopy is also called a fluoroscopic image.

一例を挙げると、特定機能34bは、まず、取得機能34aにより取得されたX線画像データの各々について、撮像の条件及び被検体の条件が略一致し、かつ、撮像対象領域及び撮像方向が略一致する他のX線画像データ(類似するX線画像データ)があるか否かを判定する。そして、特定機能34bは、類似するX線画像データがないX線画像データについては、学習用データの特定に使用すると判定する。 For example, for each piece of X-ray image data acquired by the acquisition function 34a, the specifying function 34b first determines that the imaging conditions and subject conditions are substantially the same, and the imaging target region and imaging direction are substantially the same. It is determined whether or not there is other matching X-ray image data (similar X-ray image data). Then, the specifying function 34b determines that X-ray image data for which there is no similar X-ray image data is used for specifying learning data.

一方で、特定機能34bは、撮像の条件及び被検体の条件が略一致し、かつ、撮像対象領域及び撮像方向が略一致する複数のX線画像データについては、その一部を学習用データの特定に使用すると判定する。即ち、特定機能34bは、類似する複数のX線画像データについては、その一部を学習用データの特定に使用すると判定する。例えば、特定機能34bは、類似する複数のX線画像データのうち、画質の良いX線画像データを学習用データの特定に使用すると判定する。一例を挙げると、特定機能34bは、複数のX線画像データの各々についてSN比を算出し、SN比が最も高いX線画像データを、学習用データの特定に使用すると判定する。 On the other hand, for a plurality of X-ray image data whose imaging conditions and subject conditions substantially match and whose imaging target regions and imaging directions substantially match, the specifying function 34b converts some of them into learning data. Determined to be used specifically. That is, the specifying function 34b determines that a part of a plurality of similar X-ray image data should be used for specifying learning data. For example, the specifying function 34b determines to use X-ray image data with good image quality among a plurality of similar X-ray image data to specify learning data. For example, the specifying function 34b calculates the SN ratio for each of the plurality of X-ray image data, and determines that the X-ray image data with the highest SN ratio is used for specifying learning data.

また、例えば、特定機能34bは、取得機能34aにより取得されたX線画像データのうち、時系列の複数のX線画像データについては、階調の安定性に関する条件及び残像に関する条件の少なくとも一方を満たすX線画像データを学習用データの特定に使用すると判定する。 Further, for example, the specifying function 34b sets at least one of the condition regarding the stability of gradation and the condition regarding afterimage for a plurality of pieces of time-series X-ray image data among the X-ray image data obtained by the obtaining function 34a. X-ray image data that satisfies the criteria is determined to be used for specifying learning data.

例えば、特定機能34bは、時系列の複数のX線画像データのうち、連続するX線画像データの間で画素値の平均値の差を算出する。そして、特定機能34bは、算出した差が閾値よりも小さい場合は階調の安定性に関する条件を満たすと判定し、算出した差が閾値以上である場合は階調の安定性に関する条件を満たさないと判定する。なお、階調の安定性に関する条件を満たさない場合としては、例えば、X線管102がX線の発生を開始した後、X線強度が安定するまでの間にX線画像データが収集された場合等が該当する。 For example, the specifying function 34b calculates the difference in the average value of the pixel values between successive pieces of X-ray image data among a plurality of pieces of time-series X-ray image data. Then, the specific function 34b determines that the condition regarding tone stability is met when the calculated difference is smaller than the threshold, and the condition regarding tone stability is not satisfied when the calculated difference is greater than or equal to the threshold. I judge. As a case where the condition regarding gradation stability is not satisfied, for example, X-ray image data is collected after the X-ray tube 102 starts generating X-rays until the X-ray intensity stabilizes. This applies to cases, etc.

また、例えば、特定機能34bは、時系列の複数のX線画像データについて、リカーシブフィルタや加算平均処理等の画像処理を実行し、処理後のX線画像データと処理前のX線画像データとを差分することで残像成分を抽出する。そして、特定機能34bは、残像成分の抽出量が閾値よりも小さい場合は残像に関する条件を満たすと判定し、残像成分の抽出量が閾値以上である場合は残像に関する条件を満たさないと判定する。なお、残像に関する条件を満たさない場合としては、例えば、撮像時に被検体の体動があった場合等が該当する。 Further, for example, the specific function 34b executes image processing such as recursive filtering and averaging processing on a plurality of time-series X-ray image data, and converts the processed X-ray image data and the unprocessed X-ray image data into Afterimage components are extracted by subtracting . Then, the specifying function 34b determines that the afterimage condition is satisfied when the afterimage component extraction amount is smaller than the threshold, and determines that the afterimage condition is not satisfied when the afterimage component extraction amount is equal to or greater than the threshold. It should be noted that, for example, the case where the condition regarding the afterimage is not satisfied corresponds to the case where there is body movement of the subject at the time of imaging.

次に、学習用データセット生成機能34cは、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。例えば、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、X線画像データの組の間で異なっている条件(撮像の条件及び被検体の条件)が共通する学習用データを抽出する。 Next, the learning data set generation function 34c generates a learning data set including the plurality of learning data specified by the specifying function 34b. For example, the learning data set generation function 34c performs learning in which different conditions (imaging conditions and subject conditions) are common among sets of X-ray image data from the learning data specified by the specifying function 34b. Extract data for

一例を挙げると、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、X線画像データの組の間で管電流値の条件が異なっている学習用データ(X線画像データI1とX線画像データI2との組から成る学習用データ等)を複数抽出する。即ち、学習用データセット生成機能34cは、ノイズの程度が異なるX線画像データの組から成る学習用データを複数抽出する。次に、学習用データセット生成機能34cは、抽出した複数の学習用データを含む学習用データセットを生成する。そして、学習用データセット生成機能34cは、生成した学習用データセットをメモリ33に格納する。なお、以下では、ノイズの程度が異なるX線画像データの組から成る複数の学習用データを含む学習用データセットを、学習用データセットD1とも記載する。 For example, the learning data set generation function 34c generates learning data (X-ray A plurality of learning data, etc., each consisting of a set of image data I1 and X-ray image data I2 are extracted. In other words, the learning data set generation function 34c extracts a plurality of learning data sets composed of X-ray image data sets with different degrees of noise. Next, the learning data set generation function 34c generates a learning data set including the plurality of extracted learning data. Then, the learning data set generation function 34 c stores the generated learning data set in the memory 33 . In the following description, a learning data set including a plurality of sets of X-ray image data with different degrees of noise is also referred to as a learning data set D1.

ここで、学習用データセット生成機能34cは、被検体の部位ごとに学習用データセットを生成することとしてもよい。例えば、学習用データセット生成機能34cは、まず、特定機能34bにより特定された学習用データから、ノイズの程度が異なるX線画像データの組から成る学習用データを複数抽出する。次に、学習用データセット生成機能34cは、抽出した学習用データから、被検体の部位ごとに学習用データを抽出する。 Here, the learning data set generation function 34c may generate a learning data set for each part of the subject. For example, the learning data set generation function 34c first extracts a plurality of learning data consisting of sets of X-ray image data with different degrees of noise from the learning data specified by the specifying function 34b. Next, the learning data set generating function 34c extracts learning data for each part of the subject from the extracted learning data.

例えば、学習用データセット生成機能34cは、「腹部」のX線画像データの組から成る学習用データを抽出し、「腹部」についての学習用データセットD11を生成する。また、例えば、学習用データセット生成機能34cは、「肝臓」のX線画像データの組から成る学習用データを抽出し、「肝臓」についての学習用データセットD12を生成する。ここで、学習用データセット生成機能34cは、同一の学習用データを、「腹部」のX線画像データの組から成る学習用データとして抽出するとともに、「肝臓」のX線画像データの組から成る学習用データとして抽出しても構わない。そして、学習用データセット生成機能34cは、生成した学習用データセットD11及び学習用データセットD12をメモリ33に格納する。なお、学習用データセットD11及び学習用データセットD12は、学習用データセットD1の一例である。 For example, the learning data set generation function 34c extracts learning data consisting of sets of X-ray image data of "abdomen" and generates a learning data set D11 for "abdomen". Also, for example, the learning data set generation function 34c extracts learning data composed of sets of X-ray image data of "liver" and generates a learning data set D12 for "liver". Here, the learning data set generation function 34c extracts the same learning data as learning data consisting of a set of X-ray image data of "abdomen", and extracts the same data for learning from a set of X-ray image data of "liver" may be extracted as training data. Then, the learning data set generation function 34 c stores the generated learning data set D<b>11 and learning data set D<b>12 in the memory 33 . The learning data set D11 and the learning data set D12 are examples of the learning data set D1.

次に、モデル生成機能34dは、図5に示すように、メモリ33から学習用データセットを読み出して、学習済みモデルを生成する。具体的には、モデル生成機能34dは、入力されるX線画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。ここで、本実施形態における学習済みモデルは、例えば、多層のニューラルネットワークにより構成することができる。 Next, the model generation function 34d reads the learning data set from the memory 33 and generates a trained model, as shown in FIG. Specifically, the model generating function 34d performs processing for converting input X-ray image data into X-ray image data corresponding to X-ray image data in which at least one of the imaging conditions and the subject conditions is different. Generate an embedded trained model. Here, the trained model in this embodiment can be composed of, for example, a multi-layered neural network.

本実施形態に係る多層のニューラルネットワークの典型的な構成について、以下説明する。ここで、多層のニューラルネットワークとは、層状に並べた隣接層間のみ結合した構造を持ち、情報が入力層側から出力層側に一方向に伝播するネットワークである。本実施形態に係る多層のニューラルネットワークは、図6に示す様に、入力層(l=1)、中間層(l=2,3,・・・,L-1)、出力層(l=L)のL個の層から構成されるものとする。なお、図6は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。以下の説明は一例であり、多層のニューラルネットワークの構成は以下の説明に限定されない。 A typical configuration of the multilayer neural network according to this embodiment will be described below. Here, a multilayer neural network is a network that has a structure in which only adjacent layers arranged in layers are connected, and information propagates in one direction from the input layer side to the output layer side. As shown in FIG. 6, the multi-layer neural network according to this embodiment includes an input layer (l=1), an intermediate layer (l=2, 3, . . . , L−1), an output layer (l=L ) are composed of L layers. FIG. 6 is a diagram for explaining the process of generating a trained model according to the first embodiment. The following description is an example, and the configuration of the multilayer neural network is not limited to the following description.

第l層でのユニット数をI個とし、第l層への入力u(l)を下記の式(1-1)、第l層からの出力z(l)を下記の式(l-2)の様にそれぞれ表記すると、第l層への入力と第l層からの出力との関係は、下記の式(1-3)によって表すことができる。 The number of units in the l-th layer is I, the input u (l) to the l-th layer is the following formula (1-1), and the output z (l) from the l-th layer is the following formula (l-2 ), the relationship between the input to the l-th layer and the output from the l-th layer can be expressed by the following equation (1-3).

Figure 0007262933000001
Figure 0007262933000001

Figure 0007262933000002
Figure 0007262933000002

Figure 0007262933000003
Figure 0007262933000003

式(1-1)、式(1-2)及び式(1-3)において、右上の添字(l)は層の番号を示す。また、式(1-3)におけるf(u)は、活性化関数であり、ロジスティックシグモイド関数(ロジスティック関数)、双曲線正接関数、正規化線形関数(ReLU:Rectified Liner Unit)、線形写像、恒等写像、マックスアウト関数等、目的に応じて種々の関数を選択することができる。 In formulas (1-1), (1-2) and (1-3), the upper right subscript (l) indicates the layer number. In addition, f (u) in formula (1-3) is an activation function, logistic sigmoid function (logistic function), hyperbolic tangent function, normalized linear function (ReLU: Rectified Liner Unit), linear mapping, identity Various functions such as mapping, maxout function, etc. can be selected according to the purpose.

第l+1層でのユニット数をJ個とし、第l層と第l+1層との間の重み付行列W(l+1)を下記の式(2-1)、第l+1層におけるバイアスb(l+1)を下記の式(2-2)の様にそれぞれ表記すると、第l+1層への入力u(l+1)、第l+1層からの出力z(l+1)は、それぞれ、下記の式(2-3)、式(2-4)によって表すことができる。 Let the number of units in the l+1-th layer be J, the weighting matrix W (l+1) between the l-th layer and the l+1-th layer is expressed by the following formula (2-1), and the bias b (l +1) is expressed as in the following equation (2-2), the input u (l+1) to the l+1th layer and the output z (l+1) from the l+1th layer are as follows: It can be represented by equations (2-3) and (2-4).

Figure 0007262933000004
Figure 0007262933000004

Figure 0007262933000005
Figure 0007262933000005

Figure 0007262933000006
Figure 0007262933000006

Figure 0007262933000007
Figure 0007262933000007

本実施形態に係る多層のニューラルネットワークにおいて、入力層(l=1)には、下記の式(3-1)で表現される信号が入力される。また、当該入力層においては、入力データxがそのまま出力データz(1)となるため、下記の式(3-2)の関係が成立する。 In the multi-layer neural network according to this embodiment, a signal represented by the following equation (3-1) is input to the input layer (l=1). Also, in the input layer, the input data x becomes the output data z (1) as it is, so the following formula (3-2) holds.

Figure 0007262933000008
Figure 0007262933000008

Figure 0007262933000009
Figure 0007262933000009

ここで、入力信号xについては、例えば、各成分xp(p=1,2,・・・,N)を、入力側の医用画像を構成する画素の画素値とする。 Here, for the input signal x, for example, each component x p (p=1, 2, .

入力層に続く中間層(l=2,3,・・・,L-1)層においては、上記の式(2-3)、式(2-4)に従う計算を順次実行することで、各層の出力z(2),・・・z(L-1)を計算することができる。 In the intermediate layers (l=2, 3, . can be calculated for the outputs z ( 2 ) , .

出力層(第L層)の出力z(L)を以下の式(4-1)の様に表記する。本実施形態に係る多層のニューラルネットワークは、入力層に入力された画像データxが、入力層側から出力層側に向かって隣接層間でのみ結合しながら伝播する順伝播型ネットワークである。この様な順伝播型ネットワークは、以下の式(4-2)の様な合成関数として表現することができる。 The output z (L) of the output layer (L-th layer) is expressed as in Equation (4-1) below. The multi-layer neural network according to this embodiment is a forward propagation network in which image data x input to an input layer propagates from the input layer side to the output layer side while connecting only between adjacent layers. Such a forward propagating network can be expressed as a composite function such as the following equation (4-2).

Figure 0007262933000010
Figure 0007262933000010

Figure 0007262933000011
Figure 0007262933000011

式(4-2)によって定義される合成関数は、式(2-3)、式(2-4)より、重み付行列W(l+1)を用いた各層間の線形関係、各層における活性化関数f(u(l+1))を用いた非線形関係(又は線形関係)、バイアスb(l+1)の組み合わせとして定義される。特に、重み付行列W(l+1)、バイアスb(l+1)はネットワークのパラメータpと呼ばれる。式(4-2)によって定義される合成関数は、パラメータpをどのように選ぶかで、関数としての形を変える。従って、本実施形態に係る多層のニューラルネットワークは、式(4-2)を構成するパラメータpを適切に選ぶことで、出力層が好ましい結果yを出力することができる関数として、定義することができる。 The composite function defined by equation (4-2) is obtained from equations (2-3) and (2-4) using the weighting matrix W (l+1) to obtain the linear relationship between layers, the activity defined as a combination of a non-linear relationship (or linear relationship) using a function f(u (l+1) ) and a bias b (l+1) . In particular, the weighting matrix W (l+1) and the bias b (l+1) are called parameters p of the network. The composite function defined by equation (4-2) changes its form as a function depending on how the parameter p is selected. Therefore, the multi-layer neural network according to this embodiment can be defined as a function that allows the output layer to output a preferable result y by appropriately selecting the parameter p that constitutes equation (4-2). can.

パラメータpを適切に選ぶためには、学習用データセットと誤差関数を用いた学習を実行する。ここで、学習用データセットとは、入力xnに対する望ましい出力(正解出力)をdnとすると、下記の式(5-1)のように表現される学習用データ(xn,dn)の集合D(n=1,・・・,S)である。即ち、学習用データセットとは、下記の式(5-2)のように表現される学習用データの集合Dである。 In order to properly select the parameter p, learning is performed using a training data set and an error function. Here, the learning data set is the learning data (x n , d n ) represented by the following equation (5-1) where d n is the desired output (correct output) for the input x n is a set D (n=1, . . . , S). That is, the learning data set is a set D of learning data represented by the following equation (5-2).

Figure 0007262933000012
Figure 0007262933000012

Figure 0007262933000013
Figure 0007262933000013

また、誤差関数とは、xnを入力した多層のニューラルネットワークからの出力と学習用データdnとの近さを表す関数である。誤差関数の代表例としては、二乗誤差関数、最尤度推定関数、交差エントロピー関数等を挙げることができる。どのような関数を誤差関数に選択するかは、多層化ネットワークが取り扱う問題(例えば、回帰問題、二値問題、多クラス分類問題等)に依存する。 The error function is a function that expresses the closeness between the output from the multilayer neural network to which xn is input and the learning data dn . Typical examples of error functions include a squared error function, a maximum likelihood estimation function, a cross entropy function, and the like. What kind of function is selected as the error function depends on the problem (eg, regression problem, binary problem, multi-class classification problem, etc.) to be handled by the multi-layered network.

誤差関数をE(p)と表記し、一つの学習用データ(xn,dn)のみを使用して計算される誤差関数をEn(p)と表記する。現在のパラメータp(t)は、勾配降下法に従う場合には誤差関数E(p)の勾配ベクトルを用いた式(6-1)、確率的勾配降下法に従う場合には誤差関数En(p)の勾配ベクトルを用いた式(6-3)によって、新たなパラメータp(t+1)に更新される。 An error function is denoted by E(p), and an error function calculated using only one learning data (x n , d n ) is denoted by E n (p). The current parameter p (t) is the formula (6-1) using the gradient vector of the error function E (p) when following the gradient descent method, and the error function E n (p ) is updated to the new parameter p (t+1) by equation (6-3) using the gradient vector of .

Figure 0007262933000014
Figure 0007262933000014

Figure 0007262933000015
Figure 0007262933000015

Figure 0007262933000016
Figure 0007262933000016

Figure 0007262933000017
Figure 0007262933000017

ここで、εはパラメータpの更新量の大きさを定める学習係数である。式(6-1)又は式(6-3)に従って、現在のpを負の勾配方向に少し動かし、これを逐次繰り返すことで、誤差関数E(p)を極小にするパラメータpを決定することができる。 Here, ε is a learning coefficient that determines the magnitude of the update amount of the parameter p. Determining the parameter p that minimizes the error function E(p) by moving the current p slightly in the direction of the negative gradient according to formula (6-1) or formula (6-3) and repeating this step by step can be done.

なお、式(6-1)又は式(6-3)を計算するためには、式(6-2)で示されるE(p)の勾配ベクトル、又は式(6-4)で示されるE(p)の勾配ベクトルを計算する必要がある。誤差関数が二乗誤差関数である場合を例とすれば、下記の式(7-1)に示される誤差関数について、各層の重み係数と各ユニットのバイアスとで微分する必要がある。 In addition, in order to calculate the formula (6-1) or formula (6-3), the gradient vector of E(p) represented by formula (6-2) or E We need to compute the n (p) gradient vectors. Taking the case where the error function is a squared error function as an example, it is necessary to differentiate the error function shown in the following equation (7-1) with the weight coefficient of each layer and the bias of each unit.

Figure 0007262933000018
Figure 0007262933000018

一方、最終出力yが式(4-2)で表される合成関数であることから、E(p)又はEn(p)の勾配ベクトルの計算は複雑であり、その計算量も膨大なものとなる。 On the other hand, since the final output y is a composite function represented by equation (4-2), the calculation of the gradient vector of E(p) or E n (p) is complicated and the amount of calculation is enormous. becomes.

この様な勾配計算における不具合は、誤差逆伝播法によって解決することができる。例えば、第l-1層の第iユニットと第l層の第jユニットとを繋ぐ重みwji (l)についての誤差関数の微分は、以下の式(8-1)の様に表すことができる。 Such glitches in gradient computation can be overcome by error backpropagation. For example, the differentiation of the error function with respect to the weight w ji (l) connecting the i-th unit of the (l−1)-th layer and the j-th unit of the l-th layer can be expressed as in the following equation (8-1). can.

Figure 0007262933000019
Figure 0007262933000019

l層の第jユニットへの入力uj (l)がEnに与える変化量は、当該第jユニットからの出力zj (l)を通じて第l+1層の各ユニットkへの各入力uk (l+1)を変化させることのみを介して生じるものである。このことから、式(8-1)の右辺第1項は、微分の連鎖則を用いて、次の式(9-1)の様に表すことができる。 The amount of change given to E n by the input u j (l) to the j-th unit of the l layer is expressed by each input u k ( l+1) only through changing. From this, the first term on the right side of the equation (8-1) can be expressed as the following equation (9-1) using the chain rule of differentiation.

Figure 0007262933000020
Figure 0007262933000020

ここで、式(9-1)の左辺をδj (l)とおくと、下記の式(10-1)、式(10-2)の関係を使って、式(9-1)は式(10-3)の様に書き直すことができる。 Here, if the left side of equation (9-1) is δ j (l) , equation (9-1) can be expressed by equation (10-1) and equation (10-2) below (10-3) can be rewritten.

Figure 0007262933000021
Figure 0007262933000021

Figure 0007262933000022
Figure 0007262933000022

Figure 0007262933000023
Figure 0007262933000023

式(10-3)より、左辺のδj (l)は、δk (l+1)(k=1,2,・・・・)から計算できることがわかる。すなわち、一つ上位の出力層側に存在する第l+1層の第kユニットに関するδk (l+1)が与えられれば、第l層についてのδj (l)を計算することができる。さらに、第l+1層の第kユニットに関するδk (l+1)についても、その一つ上位の出力層側に存在する第l+2層の第kユニットに関するδk (l+2)が与えられれば、計算することができる。このことを逐次繰り返して最上位層である出力層まで辿ることができる。 From equation (10-3), it can be seen that δ j (l) on the left side can be calculated from δ k (l+1) (k=1, 2, . . . ). That is, given δ k (l+1) for the k-th unit of the l+1-th layer existing in the output layer one level higher, δ j (l) for the l-th layer can be calculated. Furthermore, if δ k (l+1) related to the k-th unit of the l+1-th layer is also given δ k (l+2) related to the k-th unit of the l+2-th layer existing on the output layer side one level higher, , can be calculated. This process can be repeated successively to reach the output layer, which is the highest layer.

最初に第L層である出力層の第kユニットに関するδk (L)が取得されていれば、式(10-3)を用いて下位側(すなわち入力層側)に向かって逐次計算を繰り返すことにより(逆伝播)、任意層におけるδk (l+1)を計算することができる。 First, if δ k (L) for the k-th unit of the output layer, which is the L-th layer, is obtained, the calculation is repeated successively toward the lower side (that is, the input layer side) using equation (10-3). (backpropagation), δ k (l+1) at any layer can be calculated.

一方、式(8-1)の右辺第2項については、式(2-3)を第l層について成分で表現した式(11-1)を用いて、式(11-2)の様に計算することができる。 On the other hand, for the second term on the right side of formula (8-1), using formula (11-1) that expresses formula (2-3) with components for the l-th layer, as in formula (11-2) can be calculated.

Figure 0007262933000024
Figure 0007262933000024

Figure 0007262933000025
Figure 0007262933000025

従って、第l-1層の第iユニットと第l層の第jユニットとを繋ぐ重みwji (l)についての誤差関数の微分は、式(8-1)、式(10-3)によるδj (l)、式(11-2)を用いて、以下の式(12-1)の様に表現することができる。 Therefore, the differentiation of the error function with respect to the weight w ji (l) connecting the i-th unit of the l−1-th layer and the j-th unit of the l-th layer is obtained by equations (8-1) and (10-3). Using δ j (l) and equation (11-2), it can be expressed as in equation (12-1) below.

Figure 0007262933000026
Figure 0007262933000026

式(12-1)から、第l-1層の第iユニットと第l層の第jユニットとを繋ぐ重みwji (l)についての誤差関数の微分は、第jユニットに関するδj (l)と、第iユニットからの出力であるzi (l-1)との積で与えらえることがわかる。なお、δj (l)についての計算は、上述した様に、式(10-3)を用いて逆伝播により求めることができ、また、逆伝播の最初の値、すなわち、第L層である出力層に関するδj (L)は、以下の式(13-1)の様に計算することができる。 From equation (12-1), the differential of the error function with respect to the weight w ji (l) connecting the i-th unit of the l−1-th layer and the j-th unit of the l-th layer is δ j (l ) and z i (l-1) which is the output from the i-th unit. Note that the calculation of δ j (l) can be obtained by backpropagation using equation (10-3) as described above, and the first value of backpropagation, that is, the Lth layer δ j (L) for the output layer can be calculated as shown in Equation (13-1) below.

Figure 0007262933000027
Figure 0007262933000027

以上の手順により、本実施形態に係る多層化ネットワークについて、ある学習サンプル(xn,dn)を用いた学習を実現することができる。なお、複数の学習サンプルに対する誤差の総和E=Σnnに関する勾配ベクトルについては、上述した手順を学習サンプル(xn,dn)毎に並列的に繰り返し、以下の式(14-1)に示す和を計算することで、取得することができる。 Through the above procedure, learning using a certain learning sample (x n , d n ) can be realized for the multi-layered network according to this embodiment. Regarding the gradient vector related to the sum of errors E=Σ n E n for a plurality of learning samples, the above-described procedure is repeated for each learning sample (x n , d n ) in parallel, and the following equation (14-1) can be obtained by calculating the sum shown in

Figure 0007262933000028
Figure 0007262933000028

例えば、モデル生成機能34dは、まず、メモリ33から学習用データセットD1を読み出す。次に、モデル生成機能34dは、学習用データセットD1に基づいて、ノイズの多いX線画像データ(X線画像データI1等)から、ノイズの少ないX線画像データ(X線画像データI2等)を復元するように、モデルを学習させる。例えば、モデル生成機能34dは、ノイズの多いX線画像データを入力側データ、ノイズの少ないX線画像データを出力側データとしてモデルのパラメータを調整することにより、ノイズを除去する関数を近似した学習済みモデルを生成する。生成する学習済みモデルがニューラルネットワークによる学習済みモデルである場合、調整するパラメータは、例えば、重みとバイアスとのうち少なくとも一方である。なお、以下では、学習用データセットD1に基づいて生成された学習済みモデルを、学習済みモデルM1とも記載する。そして、モデル生成機能34dは、生成した学習済みモデルM1をメモリ33に格納する。 For example, the model generation function 34d first reads the learning data set D1 from the memory 33 . Next, the model generation function 34d generates X-ray image data with less noise (X-ray image data I2, etc.) from X-ray image data with much noise (X-ray image data I1, etc.) based on the learning data set D1. Train the model to restore For example, the model generation function 34d adjusts model parameters using noisy X-ray image data as input data and low-noise X-ray image data as output data, thereby learning an approximation of a function that removes noise. Generate a finished model. When the trained model to be generated is a trained model by a neural network, the parameter to be adjusted is at least one of weight and bias, for example. In addition, below, the trained model generated based on the data set D1 for learning is also described as the trained model M1. Then, the model generation function 34 d stores the generated learned model M1 in the memory 33 .

なお、モデル生成機能34dは、学習用データを入力側データとして用いてもよいし、学習用データに基づくデータを入力側データとして用いてもよい。例えば、モデル生成機能34dは、図7に示すように、ノイズの多いX線画像データ(X線画像データI1等)に対する前処理(例えば、空間フィルタやコンボリューションフィルタを用いた画像処理等)を実行し、前処理後の画像データを入力側データとする。なお、図7は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。 Note that the model generation function 34d may use learning data as input data, or may use data based on learning data as input data. For example, as shown in FIG. 7, the model generation function 34d performs preprocessing (for example, image processing using a spatial filter or a convolution filter) for X-ray image data with much noise (such as X-ray image data I1). and the image data after preprocessing is used as the input side data. FIG. 7 is a diagram for explaining the process of generating a trained model according to the first embodiment.

また、モデル生成機能34dは、学習用データを出力側データとして用いてもよいし、学習用データに基づくデータを出力側データとして用いてもよい。例えば、図7に示すように、モデル生成機能34dは、ノイズの少ないX線画像データ(X線画像データI2等)に対する後処理の実行前の画像データを、出力側データとする。例えば、モデル生成機能34dは、出力側データに対する後処理後の画像データとノイズの少ないX線画像データとが近似するようにモデルのパラメータを調整して、ノイズを除去する関数を近似した学習済みモデルM1を生成する。この場合、学習済みモデルM1は、ノイズの多いX線画像データをノイズの少ないX線画像データに変換する処理に対して、他の処理(前処理、後処理等)と共に組み込まれて使用される。即ち、モデル生成機能34dは、X線画像データの変換処理に他の処理と共に組み込まれる学習済みモデルM1を生成することができる。 Also, the model generation function 34d may use the learning data as the output side data, or may use data based on the learning data as the output side data. For example, as shown in FIG. 7, the model generating function 34d uses image data before post-processing of X-ray image data with little noise (such as X-ray image data I2) as output data. For example, the model generation function 34d adjusts the parameters of the model so that the image data after post-processing for the output side data and the X-ray image data with less noise are approximated, and has learned an approximation function that removes noise. Generate model M1. In this case, the trained model M1 is incorporated and used together with other processes (pre-processing, post-processing, etc.) for the process of converting X-ray image data with much noise into X-ray image data with less noise. . That is, the model generation function 34d can generate a trained model M1 that is incorporated in the X-ray image data conversion process together with other processes.

また、モデル生成機能34dによって生成される学習済みモデルにおけるニューラルネットワークの出力は、画像データの画素値そのものでなくても良い。例えば、モデル生成機能34dは、ニューラルネットワークの出力を、各種画像処理フィルタのパラメータ(強度等)の組み合わせとしてもよい。 Also, the output of the neural network in the trained model generated by the model generation function 34d may not be the pixel values of the image data. For example, the model generation function 34d may make the output of the neural network a combination of parameters (intensity, etc.) of various image processing filters.

この場合において、モデル生成機能34dは、画像処理フィルタのパラメータの組み合わせごとに、X線画像データの組のうちのノイズの多いX線画像データ(X線画像データI1等)に対するフィルタ処理を実行する。また、モデル生成機能34dは、図8に示すように、ノイズの多いX線画像データに対するフィルタ処理後の画像データと、ノイズの少ないX線画像データ(X線画像データI2等)との類似度をパラメータの組み合わせごとに算出し、類似度が高くなるパラメータの組み合わせ(k1, k2・・・, kM)を特定する。そして、モデル生成機能34dは、図8に示すように、ノイズの多いX線画像データを入力側のデータとし、特定したパラメータの組み合わせを出力側のデータとして、ニューラルネットワークを学習させる。なお、図8は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。 In this case, the model generation function 34d performs filtering on X-ray image data with a lot of noise (X-ray image data I1, etc.) in the set of X-ray image data for each combination of image processing filter parameters. . In addition, as shown in FIG. 8, the model generating function 34d calculates the degree of similarity between the image data after filtering X-ray image data with much noise and the X-ray image data with little noise (such as X-ray image data I2). is calculated for each combination of parameters, and a combination of parameters (k 1 , k 2 . . . , k M ) with high similarity is specified. Then, as shown in FIG. 8, the model generation function 34d makes the neural network learn by using X-ray image data with a lot of noise as data on the input side and using the specified combination of parameters as data on the output side. FIG. 8 is a diagram for explaining the process of generating a trained model according to the first embodiment.

これにより、ノイズの多いX線画像データを入力画像として、ノイズの少ないX線画像データに変換するための画像処理フィルタのパラメータの組み合わせ(k1, k2・・・, kM)を出力するニューラルネットワークを得ることができる。従って、図9のように、当該ニューラルネットワークにより得られるフィルタのパラメータの組み合わせ(k1, k2・・・, kM)でノイズの多いX線画像データに対してフィルタ処理を行うようにすることにより、ノイズの多いX線画像データをノイズの少ないX線画像データに変換する学習済みモデルM1を構成することができる。なお、図9は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。 As a result, X-ray image data with much noise is used as an input image, and a combination of image processing filter parameters (k 1 , k 2 . A neural network can be obtained. Therefore, as shown in FIG. 9, filter processing is performed on noisy X-ray image data with a combination of filter parameters (k 1 , k 2 . . . , k M ) obtained by the neural network. Thus, it is possible to construct a trained model M1 that converts X-ray image data with much noise into X-ray image data with less noise. Note that FIG. 9 is a diagram for explaining the process of generating a learned model according to the first embodiment.

なお、画像処理フィルタの種類としては、例えば、移動平均(平滑化)フィルタ、ガウシアンフィルタ、メディアンフィルタ、リカーシブフィルタ、バンドパスフィルタ等が挙げられる。また、画像処理フィルタのパラメータとしては、例えば、各フィルタの強度、移動平均(平滑化)フィルタ、ガウシアンフィルタ及びメディアンフィルタの縦方向及び横方向のサイズ、リカーシブフィルタにおいて使用するフレーム数及び各フレームに対する重み、バンドパスフィルタにおける周波数の設定等が挙げられる。 Note that types of image processing filters include, for example, a moving average (smoothing) filter, a Gaussian filter, a median filter, a recursive filter, a bandpass filter, and the like. In addition, as the parameters of the image processing filter, for example, the strength of each filter, the moving average (smoothing) filter, the vertical and horizontal sizes of the Gaussian filter and median filter, the number of frames used in the recursive filter, and the Weighting, frequency setting in a band-pass filter, and the like can be mentioned.

また、多層のニューラルネットワーク以外の機械学習手法による学習済みモデルを生成してもよい。例えば、SVM(サポートベクターマシン)等のデータの分類を行う機械学習手法によって、入力された医用画像データに対して適切な画像処理フィルタを選択する学習済みモデルを生成してもよい。具体的な手法としては、例えば、分類先のクラスを画像処理フィルタの種類とし、入力された医用画像データの特徴量をモデルの入力データとし、そして、学習用データの入力側データに対する出力結果と学習用データの出力側データとの類似度が高くなるフィルタを選択するように、モデルの学習を行えばよい。 Also, a learned model may be generated by a machine learning method other than a multi-layer neural network. For example, a machine learning method for classifying data such as SVM (support vector machine) may be used to generate a trained model that selects an appropriate image processing filter for input medical image data. As a specific method, for example, the classification destination class is the type of the image processing filter, the feature amount of the input medical image data is the input data of the model, and the output result for the input side data of the learning data is used. Model learning may be performed so as to select a filter that increases the degree of similarity between the learning data and the output side data.

また、モデル生成機能34dが学習済みモデルを生成する処理を実行する時間については、検査情報に基づいて設定されることとしてもよい。例えば、モデル生成機能34dは、検査情報に基づいて、X線診断装置100によるX線画像データの収集が行われない時間(深夜等)を取得し、取得した時間を、学習済みモデルを生成する時間として設定する。このように設定された時間において、X線診断装置100のプロセッサ(処理回路111等)は使用されないことが多く、モデル生成機能34dは、X線診断装置100のプロセッサを計算資源として利用することができる。特に、X線診断装置100はGPUを有している場合も多いため、モデル生成機能34dは、設定された時間において、学習済みモデルを生成する処理を高速で実現することができる。 Also, the time during which the model generation function 34d executes the process of generating the learned model may be set based on the inspection information. For example, the model generation function 34d acquires a time (midnight, etc.) during which X-ray image data is not collected by the X-ray diagnostic apparatus 100 based on the examination information, and generates a learned model using the acquired time. Set as time. During the time set in this way, the processor (processing circuit 111, etc.) of the X-ray diagnostic apparatus 100 is often not used, and the model generation function 34d may use the processor of the X-ray diagnostic apparatus 100 as a computational resource. can. In particular, since the X-ray diagnostic apparatus 100 often has a GPU, the model generating function 34d can quickly generate a learned model in a set time.

モデル生成機能34dが学習済みモデルを生成した後、新たにX線画像データが収集された場合、取得機能34aは、新たに収集されたX線画像データを取得する。例えば、図10に示すように、X線診断装置100によって新たにX線画像データI3が収集された場合、取得機能34aは、新たに収集されたX線画像データI3を取得する。なお、図10は、第1の実施形態に係る変換処理について説明するための図である。 When new X-ray image data is acquired after the model generation function 34d has generated a learned model, the acquisition function 34a acquires the newly acquired X-ray image data. For example, as shown in FIG. 10, when X-ray image data I3 is newly acquired by the X-ray diagnostic apparatus 100, the acquiring function 34a acquires the newly acquired X-ray image data I3. FIG. 10 is a diagram for explaining conversion processing according to the first embodiment.

そして、変換機能34eは、学習済みモデルに基づいて、X線画像データI3に対する変換処理を実行する。具体的には、変換機能34eは、学習済みモデルに基づいて、入力されるX線画像データI3を、X線画像データI3と撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する変換処理を実行する。 Then, the conversion function 34e executes conversion processing on the X-ray image data I3 based on the learned model. Specifically, the conversion function 34e converts the input X-ray image data I3 into an X-ray image that differs from the X-ray image data I3 in at least one of imaging conditions and subject conditions based on the learned model. A conversion process is executed to convert the data into X-ray image data.

一例を挙げると、変換機能34eは、まず、メモリ33から学習済みモデルM1を読み出す。次に、変換機能34eは、X線画像データI3を学習済みモデルM1に入力し、X線画像データI3よりもノイズが少ないX線画像データに相当するX線画像データI3’に変換する変換処理を実行する。換言すると、変換機能34eは、X線画像データI3を、X線画像データI3よりも大きい管電流値(高線量)で撮像されたX線画像データに相当するX線画像データI3’に変換して、X線画像データI3のノイズを除去する。 For example, the conversion function 34e first reads out the learned model M1 from the memory 33. FIG. Next, the conversion function 34e inputs the X-ray image data I3 to the learned model M1, and converts it into X-ray image data I3' corresponding to X-ray image data with less noise than the X-ray image data I3. to run. In other words, the conversion function 34e converts the X-ray image data I3 into X-ray image data I3' corresponding to X-ray image data captured with a tube current value (high dose) greater than the X-ray image data I3. to remove noise from the X-ray image data I3.

そして、出力機能34fは、変換処理後のX線画像データI3’ を出力する。例えば、出力機能34fは、X線画像データI3’に基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ32に表示させる。これにより、出力機能34fは、医用情報処理装置30の操作者に、ノイズが低減されたX線画像を提供することができる。また、例えば、出力機能34fは、X線画像データI3’ を、医用情報処理装置30とネットワークNWを介して接続された外部装置に出力する。この場合、外部装置は、X線画像データI3’に基づく表示用のX線画像を、外部装置が有するディスプレイに表示させることができる。即ち、出力機能34fは、外部装置の操作者に、ノイズが低減されたX線画像を提供することができる。 The output function 34f outputs the converted X-ray image data I3'. For example, the output function 34f generates an X-ray image for display based on the X-ray image data I3' and causes the display 32 to display the generated X-ray image. As a result, the output function 34f can provide the operator of the medical information processing apparatus 30 with an X-ray image with reduced noise. Also, for example, the output function 34f outputs the X-ray image data I3' to an external device connected to the medical information processing apparatus 30 via the network NW. In this case, the external device can cause the display of the external device to display the X-ray image for display based on the X-ray image data I3'. That is, the output function 34f can provide an X-ray image with reduced noise to the operator of the external device.

ここで、特定機能34bは、新たに取得されたX線画像データの組、又は、新たに取得されたX線画像データとメモリ33に記憶されたX線画像データとの組であって、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するものを、学習用データとして新たに特定することができる。また、新たに学習用データが特定された場合、学習用データセット生成機能34cは、新たに特定された学習用データを含む学習用データセットを新たに生成し、モデル生成機能34dは、新たに生成された学習用データセットに基づいて学習済みモデルを新たに生成する。 Here, the specific function 34b is a set of newly acquired X-ray image data, or a set of newly acquired X-ray image data and X-ray image data stored in the memory 33. and at least one of the conditions of the object are different and the imaging directions are substantially the same can be newly specified as learning data. Further, when learning data is newly specified, the learning data set generation function 34c newly generates a learning data set including the newly specified learning data, and the model generation function 34d newly generates A new trained model is generated based on the generated learning data set.

なお、制御機能34gは、変換機能34eが変換処理を実行するか否かを切り替える入力操作を受け付けることとしてもよい。例えば、制御機能34gは、入力インターフェース31を介して操作者からの入力操作を受け付けることにより、変換機能34eが変換処理を実行するモードと、変換機能34eが変換処理を実行しないモードとを切り替える。 Note that the control function 34g may receive an input operation for switching whether or not the conversion function 34e executes the conversion process. For example, the control function 34g receives an input operation from the operator via the input interface 31, thereby switching between a mode in which the conversion function 34e executes conversion processing and a mode in which the conversion function 34e does not execute conversion processing.

例えば、変換機能34eが変換処理を実行しないモードにおいてX線診断装置100がX線画像データの収集を行なった場合、取得機能34aは、収集されたX線画像データを取得し、特定機能34bは、学習用データを特定する。一方で、変換機能34eが変換処理を実行するモードにおいてX線診断装置100がX線画像データの収集を行なった場合、取得機能34aは、新たに収集されたX線画像データを取得してメモリ33に記憶させ、変換機能34eは、メモリ33から読み出したX線画像データに対する変換処理を実行する。その後、特定機能34bは、変換機能34eが変換処理を実行しないモードに切り替えられた際、メモリ33からX線画像データを読み出して学習用データを特定する。 For example, when the X-ray diagnostic apparatus 100 acquires X-ray image data in a mode in which the conversion function 34e does not perform conversion processing, the acquisition function 34a acquires the acquired X-ray image data, and the specific function 34b , to identify training data. On the other hand, when the X-ray diagnostic apparatus 100 acquires X-ray image data in a mode in which the conversion function 34e executes conversion processing, the acquisition function 34a acquires newly acquired X-ray image data and stores it in the memory. 33, and the conversion function 34e executes conversion processing on the X-ray image data read out from the memory 33. FIG. After that, when the conversion function 34e is switched to a mode in which the conversion processing is not executed, the specifying function 34b reads the X-ray image data from the memory 33 and specifies learning data.

これまで、学習用データの例として、ノイズの程度が異なるX線画像データの組から成る学習用データについて説明した。しかしながら、実施形態はこれに限定されるものではない。 So far, as an example of learning data, learning data composed of sets of X-ray image data with different degrees of noise has been described. However, embodiments are not so limited.

一例を挙げると、特定機能34bは、解像度が異なるX線画像データの組から成る学習用データを特定する。具体的には、特定機能34bは、取得機能34aが取得したX線画像データのうち、撮像方向が略一致するX線画像データの組であって、解像度が異なるものを特定する。例えば、特定機能34bは、取得機能34aが取得したX線画像データのうち、同一検査内で収集されたX線画像データの組を特定する。次に、特定機能34bは、同一検査内で収集されたX線画像データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。そして、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組であって、解像度が異なるものを特定する。 For example, the specifying function 34b specifies learning data consisting of sets of X-ray image data with different resolutions. Specifically, the specifying function 34b specifies a set of X-ray image data having substantially the same imaging direction and having different resolutions among the X-ray image data acquired by the acquiring function 34a. For example, the specifying function 34b specifies a set of X-ray image data acquired in the same examination among the X-ray image data acquired by the acquiring function 34a. Next, the specifying function 34b selects a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same among the sets of X-ray image data acquired in the same examination. Identify. Then, the specifying function 34b specifies a set of X-ray image data in which at least a part of the imaging target region overlaps, the imaging directions are substantially the same, and the resolutions are different.

ここで、解像度が異なるX線画像データの組とは、例えば、検出素子の数(密度)が異なるX線検出器107を用いて撮像されたことにより、画素数(ピクセル数)が異なっているX線画像データの組である。また、例えば、解像度が異なるX線画像データの組とは、少なくとも一方のX線画像データを撮像する際に、検出信号の束ね処理が行われたことにより、画素数が異なっているX線画像データの組である。 Here, the sets of X-ray image data with different resolutions are imaged using the X-ray detectors 107 with different numbers (density) of detection elements, for example, so that the number of pixels (number of pixels) is different. It is a set of X-ray image data. Further, for example, a set of X-ray image data having different resolutions is an X-ray image having a different number of pixels due to bundling processing of detection signals when at least one of the X-ray image data is captured. A set of data.

なお、特定機能34bは、解像度が異なるX線画像データの組について学習用データとして特定するか否かを判定してもよい。例えば、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でなく、かつ、解像度が異なるX線画像データの組についてX線画像データ間の角度補正を行なった場合に、角度補正したX線画像データの組を学習用データとして特定するか否かを判定する。例えば、特定機能34bは、まず、角度補正したX線画像データの組について、画像間の比較を行なう。 Note that the specifying function 34b may determine whether or not to specify sets of X-ray image data with different resolutions as learning data. For example, the specifying function 34b performs angle correction between sets of X-ray image data having substantially the same imaging direction, different imaging directions, and different resolutions. It is determined whether or not to specify the set of corrected X-ray image data as learning data. For example, the specification function 34b first performs an image-to-image comparison for sets of angle-corrected X-ray image data.

例えば、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴点を抽出し、画像間で特徴点の位置が一致するか否かを判定する。一例を挙げると、特定機能34bは、パターン認識等の画像処理によりX線画像データから複数の特徴点を抽出するとともに、仮想患者画像データに基づいて、抽出した複数の特徴点それぞれの識別コードを特定する。そして、特定機能34bは、識別コードごとに、各X線画像データから抽出した特徴点の位置が一致するか否かを判定する。ここで、特徴点の位置が一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、特徴点の位置が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 For example, the specifying function 34b extracts feature points from each set of angle-corrected X-ray image data, and determines whether or not the positions of the feature points match between the images. For example, the specifying function 34b extracts a plurality of feature points from the X-ray image data by image processing such as pattern recognition, and generates an identification code for each of the extracted feature points based on the virtual patient image data. Identify. Then, the specifying function 34b determines whether or not the positions of the feature points extracted from each X-ray image data match for each identification code. Here, when the positions of the feature points match, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. On the other hand, if the positions of the feature points do not match, the identifying function 34b determines not to identify the set of angle-corrected X-ray image data as learning data.

別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴領域を抽出し、画像間で特徴領域が一致するか否かを判定する。例えば、特定機能34bは、各X線画像データにおいて骨や臓器等を特徴領域として抽出し、抽出した領域の輪郭線を抽出する。ここで、輪郭線が画像間で一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、輪郭線が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 To give another example, the specifying function 34b extracts a characteristic region from each piece of X-ray image data for a set of angle-corrected X-ray image data, and determines whether or not the characteristic regions match between the images. For example, the specifying function 34b extracts a bone, an organ, or the like as a characteristic region from each X-ray image data, and extracts a contour line of the extracted region. Here, if the contour lines match between the images, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. On the other hand, if the contour lines do not match, the specifying function 34b determines not to specify the set of angle-corrected X-ray image data as learning data.

別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、画像間の類似度を算出する。例えば、特定機能34bは、画素ごとに画像間での画素値の差を算出し、算出した差をそれぞれ二乗した後に合算する。そして、特定機能34bは、算出した合算値に基づいて、類似度を算出する。また、例えば、特定機能34bは、各X線画像データをハッシュ関数に入力してハッシュ値を算出し、画像間でのハッシュ値の差に基づいて、類似度を算出する。 To give another example, the specifying function 34b calculates the degree of similarity between images for sets of angle-corrected X-ray image data. For example, the specific function 34b calculates the pixel value difference between the images for each pixel, squares each of the calculated differences, and then sums them. Then, the specifying function 34b calculates the degree of similarity based on the calculated total value. Also, for example, the specifying function 34b inputs each X-ray image data to a hash function to calculate a hash value, and calculates a degree of similarity based on the difference in hash value between images.

なお、特定機能34bは、X線画像データの解像度を補正してから、類似度を算出してもよい。例えば、特定機能34bは、角度補正したX線画像データの組において解像度が高い方のX線画像データについて、画素の束ね処理を実行する。これにより、特定機能34bは、解像度が高い方のX線画像データについて、他方のX線画像データと同程度まで解像度を低下させる。そして、特定機能34bは、同程度の解像度を有するX線画像データの組について、画像間の類似度を算出する。 Note that the specifying function 34b may calculate the degree of similarity after correcting the resolution of the X-ray image data. For example, the specifying function 34b executes the pixel bundling process for the X-ray image data having the higher resolution in the set of angle-corrected X-ray image data. As a result, the specifying function 34b reduces the resolution of the X-ray image data with the higher resolution to the same extent as the other X-ray image data. Then, the specifying function 34b calculates the degree of similarity between images for sets of X-ray image data having similar resolutions.

また、特定機能34bは、各X線画像データのSN比が異なる場合、コントラストを補正してから、類似度を算出してもよい。例えば、特定機能34bは、角度補正したX線画像データの組のうちSN比が低い方のX線画像データについて、平滑化フィルタを用いた画像処理を実行する。これにより、特定機能34bは、SN比が低い方のX線画像データについて、他方のX線画像データと同程度までSN比を上昇させる。そして、特定機能34bは、同程度のSN比を有するX線画像データの組について、画像間の類似度を算出する。 Further, when the SN ratio of each X-ray image data is different, the specifying function 34b may calculate the degree of similarity after correcting the contrast. For example, the specifying function 34b performs image processing using a smoothing filter on X-ray image data having a lower SN ratio among the set of angle-corrected X-ray image data. As a result, the specifying function 34b increases the SN ratio of the X-ray image data with the lower SN ratio to the same extent as the other X-ray image data. Then, the specifying function 34b calculates the degree of similarity between images for sets of X-ray image data having similar SN ratios.

ここで、類似度が閾値よりも高い場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。なお、解像度が高い方のX線画像データについて画素の束ね処理を実行していた場合、特定機能34bは、画素の束ね処理を実行する前のX線画像データと他方のX線画像データとの組を学習用データとして特定する。また、SN比が低い方のX線画像データについて画像処理を実行していた場合、特定機能34bは、画像処理を実行する前のX線画像データと他方のX線画像データとの組を学習用データとして特定する。一方で、類似度が閾値よりも低い場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 Here, if the similarity is higher than the threshold, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. Note that when the pixel bundling process has been executed for the X-ray image data with the higher resolution, the specific function 34b selects the X-ray image data before executing the pixel bundling process and the other X-ray image data. A set is specified as training data. Further, when image processing is performed on X-ray image data with a lower SN ratio, the specific function 34b learns a set of X-ray image data before image processing and the other X-ray image data. data for use. On the other hand, if the degree of similarity is lower than the threshold, the identifying function 34b determines not to identify the set of angle-corrected X-ray image data as learning data.

次に、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、解像度が異なるX線画像データの組から成る学習用データを抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、解像度が異なるX線画像データの組から成る複数の学習用データを含む学習用データセットを、学習用データセットD2とも記載する。 Next, the learning data set generation function 34c extracts learning data composed of sets of X-ray image data with different resolutions from the learning data specified by the specifying function 34b, and converts the extracted learning data to Generate a training dataset containing In the following description, a learning data set including a plurality of sets of X-ray image data having different resolutions is also referred to as a learning data set D2.

次に、モデル生成機能34dは、学習用データセットD2に基づいて、入力されるX線画像データを、より解像度が高いX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。なお、以下では、学習用データセットD2に基づいて生成された学習済みモデルを、学習済みモデルM2とも記載する。 Next, the model generation function 34d is based on the learning data set D2, and the learning incorporated in the process of converting the input X-ray image data into X-ray image data corresponding to X-ray image data with higher resolution. Generate a finished model. In addition, below, the trained model generated based on the data set D2 for learning is also described as the trained model M2.

モデル生成機能34dが学習済みモデルM2を生成した後、新たにX線画像データI4が収集された場合、取得機能34aは、X線画像データI4を取得する。そして、変換機能34eは、学習済みモデルM2に基づいて、X線画像データI4に対する変換処理を実行する。具体的には、変換機能34eは、学習済みモデルM2に基づいて、入力されるX線画像データI4を、より解像度が高いX線画像データに相当するX線画像データI4’に変換する変換処理を実行する。例えば、変換機能34eは、新たに収集されたX線画像データI4を、より高精細なX線検出器107を用いて撮像されたX線画像データに相当するX線画像データI4’に変換して、高解像度化する。 When X-ray image data I4 is newly acquired after the model generation function 34d has generated the learned model M2, the acquisition function 34a acquires the X-ray image data I4. Then, the conversion function 34e executes conversion processing on the X-ray image data I4 based on the learned model M2. Specifically, the conversion function 34e converts the input X-ray image data I4 into X-ray image data I4' corresponding to higher resolution X-ray image data based on the learned model M2. to run. For example, the conversion function 34e converts the newly acquired X-ray image data I4 into X-ray image data I4' corresponding to the X-ray image data captured using the higher-definition X-ray detector 107. to increase the resolution.

そして、出力機能34fは、変換処理後のX線画像データI4’ を出力する。例えば、出力機能34fは、X線画像データI4’に基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ32に表示させる。これにより、出力機能34fは、医用情報処理装置30の操作者に、高解像度のX線画像を提供することができる。また、例えば、出力機能34fは、X線画像データI4’を、医用情報処理装置30とネットワークNWを介して接続された外部装置に出力する。この場合、外部装置は、X線画像データI4’に基づく表示用のX線画像を、外部装置が有するディスプレイに表示させることができる。即ち、出力機能34fは、外部装置の操作者に、高解像度のX線画像を提供することができる。 The output function 34f outputs the converted X-ray image data I4'. For example, the output function 34f generates an X-ray image for display based on the X-ray image data I4' and causes the display 32 to display the generated X-ray image. Thereby, the output function 34f can provide the operator of the medical information processing apparatus 30 with a high-resolution X-ray image. Also, for example, the output function 34f outputs the X-ray image data I4' to an external device connected to the medical information processing apparatus 30 via the network NW. In this case, the external device can cause the display of the external device to display the X-ray image for display based on the X-ray image data I4'. That is, the output function 34f can provide the operator of the external device with a high-resolution X-ray image.

別の例を挙げると、特定機能34bは、コントラスト画像とマスク像との組から成る学習用データを特定する。具体的には、特定機能34bは、取得機能34aが取得したX線画像データのうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組であって、コントラスト画像とマスク像との組を特定する。 To give another example, the specifying function 34b specifies learning data consisting of a pair of a contrast image and a mask image. Specifically, among the X-ray image data acquired by the acquisition function 34a, the specifying function 34b is a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. to identify pairs of contrast and mask images.

ここで、コントラスト画像は、例えば、被検体P1の血管内に造影剤が注入された状態で撮像されたX線画像データである。コントラスト画像においては、血管内に注入された造影剤と、背景成分(被検体P1の骨や軟組織等)とが描出される。即ち、コントラスト画像には血管と背景成分とが描出される。また、マスク像は、例えば、被検体P1の血管内に造影剤が注入されていない状態で撮像されたX線画像データ(非造影画像)と、コントラスト画像との差分画像である。即ち、マスク像は、コントラスト画像から背景成分を除去した血管像である。 Here, the contrast image is, for example, X-ray image data captured with a contrast agent injected into the blood vessel of the subject P1. In the contrast image, a contrast agent injected into blood vessels and background components (bone, soft tissue, etc. of subject P1) are depicted. That is, the contrast image depicts blood vessels and background components. Also, the mask image is, for example, a difference image between the X-ray image data (non-contrast image) captured with no contrast agent injected into the blood vessel of the subject P1 and the contrast image. That is, the mask image is a blood vessel image obtained by removing the background component from the contrast image.

次に、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、コントラスト画像とマスク像との組から成る学習用データを抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、コントラスト画像とマスク像との組から成る複数の学習用データを含む学習用データセットを、学習用データセットD3とも記載する。 Next, the learning data set generation function 34c extracts learning data consisting of a pair of a contrast image and a mask image from the learning data specified by the specifying function 34b, and includes a plurality of extracted learning data. Generate a training dataset. In the following description, a learning data set including a plurality of sets of contrast images and mask images is also referred to as a learning data set D3.

次に、モデル生成機能34dは、学習用データセットD3に基づいて、入力されるX線画像データを、背景成分を除去したX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。即ち、モデル生成機能34dは、学習用データセットD3に基づいて、入力されるコントラスト画像を、マスク像に相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。なお、以下では、学習用データセットD3に基づいて生成された学習済みモデルを、学習済みモデルM3とも記載する。 Next, the model generation function 34d is incorporated in the process of converting the input X-ray image data into X-ray image data corresponding to X-ray image data from which background components have been removed, based on the learning data set D3. Generate a trained model. That is, the model generation function 34d generates a trained model to be incorporated in the process of converting an input contrast image into X-ray image data corresponding to a mask image, based on the learning data set D3. In addition, below, the trained model generated based on the data set D3 for learning is also described as the trained model M3.

モデル生成機能34dが学習済みモデルM3を生成した後、血管内に造影剤が注入された状態の被検体P1からX線画像データI5(コントラスト画像)が収集された場合、取得機能34aは、X線画像データI5を取得する。そして、変換機能34eは、学習済みモデルM3に基づいて、X線画像データI5に対する変換処理を実行する。具体的には、変換機能34eは、学習済みモデルM3に基づいて、コントラスト画像であるX線画像データI5を、マスク像に相当するX線画像データI5’に変換する変換処理を実行する。即ち、変換機能34eは、X線画像データI5における背景成分を除去し、血管像を生成する。 After the model generation function 34d has generated the learned model M3, when the X-ray image data I5 (contrast image) is acquired from the subject P1 in which the contrast agent is injected into the blood vessel, the acquisition function 34a Acquire the line image data I5. Then, the conversion function 34e executes conversion processing on the X-ray image data I5 based on the learned model M3. Specifically, the conversion function 34e executes conversion processing for converting the X-ray image data I5, which is a contrast image, into X-ray image data I5', which corresponds to a mask image, based on the learned model M3. That is, the conversion function 34e removes the background component in the X-ray image data I5 to generate a blood vessel image.

そして、出力機能34fは、変換処理後のX線画像データI5’ を出力する。例えば、出力機能34fは、X線画像データI5’に基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ32に表示させる。また、例えば、出力機能34fは、X線画像データI5’ を、医用情報処理装置30とネットワークNWを介して接続された外部装置に出力する。この場合、外部装置は、X線画像データI5’に基づく表示用のX線画像を、外部装置が有するディスプレイに表示させることができる。 The output function 34f outputs the converted X-ray image data I5'. For example, the output function 34f generates an X-ray image for display based on the X-ray image data I5' and causes the display 32 to display the generated X-ray image. Also, for example, the output function 34f outputs the X-ray image data I5' to an external device connected to the medical information processing apparatus 30 via the network NW. In this case, the external device can cause the display of the external device to display the X-ray image for display based on the X-ray image data I5'.

次に、医用情報処理装置30による処理の手順の一例を、図11を用いて説明する。図11は、第1の実施形態に係る医用情報処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS101及びステップS108は、取得機能34aに対応するステップである。ステップS102及びステップS103は、特定機能34bに対応するステップである。ステップS104及びステップS105は、学習用データセット生成機能34cに対応するステップである。ステップS106及びステップS107は、モデル生成機能34dに対応するステップである。ステップS109及びステップS110は、変換機能34eに対応するステップである。ステップS111は、出力機能34fに対応するステップである。 Next, an example of the procedure of processing by the medical information processing apparatus 30 will be described with reference to FIG. 11 . FIG. 11 is a flowchart for explaining a series of processing flows of the medical information processing apparatus 30 according to the first embodiment. Steps S101 and S108 are steps corresponding to the acquisition function 34a. Steps S102 and S103 are steps corresponding to the specific function 34b. Steps S104 and S105 are steps corresponding to the learning data set generation function 34c. Steps S106 and S107 are steps corresponding to the model generation function 34d. Steps S109 and S110 are steps corresponding to the conversion function 34e. Step S111 is a step corresponding to the output function 34f.

まず、処理回路34は、X線診断装置100又は画像保管装置20から、X線画像データを取得する(ステップS101)。次に、処理回路34は、取得したX線画像データについて、学習用データの特定に使用するか否かを判定し(ステップS102)、使用すると判定したX線画像データから学習用データを特定する(ステップS103)。次に、処理回路34は、特定した複数の学習用データを含む学習用データセットを生成し(ステップS104)、生成した学習用データセットをメモリ33に格納する(ステップS105)。 First, the processing circuit 34 acquires X-ray image data from the X-ray diagnostic apparatus 100 or the image storage apparatus 20 (step S101). Next, the processing circuit 34 determines whether or not to use the acquired X-ray image data for specifying learning data (step S102), and specifies learning data from the X-ray image data determined to be used. (Step S103). Next, the processing circuit 34 generates a learning data set including the specified plurality of learning data (step S104), and stores the generated learning data set in the memory 33 (step S105).

ここで、処理回路34は、検査情報に基づいて設定された時間であるか否かを判定する(ステップS106)。設定された時間である場合(ステップS106肯定)、処理回路34は、学習用データセットに基づいて学習済みモデルを生成する(ステップS107)。一方で、設定された時間でない場合(ステップS106否定)、又は、ステップS107の後、処理回路34は、新たにX線画像データを取得したか否かを判定する(ステップS108)。 Here, the processing circuit 34 determines whether or not it is the time set based on the inspection information (step S106). If it is the set time (Yes at step S106), the processing circuitry 34 generates a trained model based on the learning data set (step S107). On the other hand, if it is not the set time (No at step S106), or after step S107, the processing circuit 34 determines whether or not new X-ray image data has been acquired (step S108).

新たにX線画像データを取得した場合(ステップS108肯定)、処理回路34は、変換処理を実行するか否かを判定する(ステップS109)。ここで、変換処理を実行すると判定した場合(ステップS109肯定)、処理回路34は、ステップS108において新たに取得したX線画像データに対して変換処理を実行し(ステップS110)、変換処理後のX線画像データを出力する(ステップS111)。なお、処理回路34は、ステップS110において、最後に生成された学習済みモデルに基づいて変換処理を実行する。 When new X-ray image data is acquired (Yes at step S108), the processing circuit 34 determines whether or not to execute conversion processing (step S109). Here, if it is determined that the conversion process is to be executed (Yes at step S109), the processing circuit 34 executes the conversion process on the X-ray image data newly acquired at step S108 (step S110). X-ray image data is output (step S111). In step S110, the processing circuit 34 executes conversion processing based on the last generated learned model.

変換処理を実行しないと判定した場合(ステップS109否定)、又は、ステップS111の後、処理回路34は、再度ステップS102に移行する。また、新たにX線画像データを取得しない場合(ステップS108否定)、処理回路34は、処理を終了する。 If it is determined not to execute the conversion process (No at step S109), or after step S111, the processing circuit 34 proceeds to step S102 again. If no new X-ray image data is acquired (No at step S108), the processing circuit 34 terminates the process.

上述したように、第1の実施形態によれば、取得機能34aは、X線画像データを取得する。また、特定機能34bは、取得機能34aにより取得されるX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データの組から成る学習用データを特定する。従って、第1の実施形態に係る医用情報処理装置30は、学習用データ不足を解消することができる。 As described above, according to the first embodiment, the acquisition function 34a acquires X-ray image data. Further, the specifying function 34b provides a set of X-ray image data obtained by the obtaining function 34a, in which at least one of the imaging conditions and the subject conditions is different and the imaging directions are substantially the same. Identify training data consisting of Therefore, the medical information processing apparatus 30 according to the first embodiment can solve the shortage of learning data.

また、上述したように、学習用データセット生成機能34cは、特定機能34bが特定した複数の学習用データを含む学習用データセットを生成する。また、モデル生成機能34dは、入力されるX線画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。 Further, as described above, the learning data set generation function 34c generates a learning data set including a plurality of learning data specified by the specifying function 34b. In addition, the model generation function 34d is incorporated in the processing of converting the input X-ray image data into X-ray image data corresponding to X-ray image data different in at least one of the imaging conditions and the subject conditions. Generate a finished model.

例えば、モデル生成機能34dは、学習用データセットD1に基づいて、入力されるX線画像データを、よりノイズが少ないX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルM1を生成する。従って、第1の実施形態に係る医用情報処理装置30は、X線画像データにおけるノイズを低減することができる。これにより、医用情報処理装置30は、撮像に使用されるX線を低線量化して、X線管102の寿命を延長するとともに、被検体の被ばく線量を低減することもできる。 For example, the model generation function 34d is based on the learning data set D1, and the learned model incorporated in the process of converting the input X-ray image data into X-ray image data corresponding to X-ray image data with less noise. Generate model M1. Therefore, the medical information processing apparatus 30 according to the first embodiment can reduce noise in X-ray image data. As a result, the medical information processing apparatus 30 can reduce the dose of X-rays used for imaging, extend the life of the X-ray tube 102, and reduce the exposure dose of the subject.

また、例えば、モデル生成機能34dは、学習用データセットD2に基づいて、入力されるX線画像データを、より解像度が高いX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルM2を生成する。従って、第1の実施形態に係る医用情報処理装置30は、X線画像データの解像度を向上させることができる。これにより、医用情報処理装置30は、撮像に使用されるX線を低線量化して、X線管102の寿命を延長するとともに、被検体の被ばく線量を低減することもできる。 Further, for example, the model generation function 34d is incorporated in a process of converting input X-ray image data into X-ray image data corresponding to higher resolution X-ray image data based on the learning data set D2. Generate a trained model M2. Therefore, the medical information processing apparatus 30 according to the first embodiment can improve the resolution of X-ray image data. As a result, the medical information processing apparatus 30 can reduce the dose of X-rays used for imaging, extend the life of the X-ray tube 102, and reduce the exposure dose of the subject.

また、例えば、モデル生成機能34dは、学習用データセットD3に基づいて、入力されるコントラスト画像を、マスク像に相当するX線画像データに変換する処理に組み込まれる学習済みモデルM3を生成する。従って、第1の実施形態に係る医用情報処理装置30は、非造影画像を用いずともコントラスト画像の背景成分を除去し、血管像を生成することができる。ひいては、医用情報処理装置30は、非造影画像の撮像を省略し、被検体P1の被爆量を低減することができる。 Also, for example, the model generation function 34d generates a learned model M3 to be incorporated in the process of converting an input contrast image into X-ray image data corresponding to a mask image, based on the learning data set D3. Therefore, the medical information processing apparatus 30 according to the first embodiment can remove the background component of the contrast image and generate the blood vessel image without using the non-contrast image. As a result, the medical information processing apparatus 30 can omit the imaging of the non-contrast image and reduce the exposure dose of the subject P1.

また、上述したように、第1の実施形態に係る医用情報処理装置30は、新たにX線画像データが撮像される度に学習用データを自動的に特定する。従って、医用情報処理装置30は、撮像が行われるほど多くの学習用データを蓄積し、学習用データ不足を解消することができる。ひいては、医用情報処理装置30は、次第に蓄積される学習用データから学習用データセットを生成し、生成した学習用データセットに基づいて学習済みモデルを生成することで、変換処理の精度を次第に向上させることができる。 Further, as described above, the medical information processing apparatus 30 according to the first embodiment automatically identifies learning data each time new X-ray image data is captured. Therefore, the medical information processing apparatus 30 accumulates more data for learning as imaging is performed, and can solve the shortage of data for learning. As a result, the medical information processing apparatus 30 generates a learning data set from the learning data that is gradually accumulated, and generates a trained model based on the generated learning data set, thereby gradually improving the accuracy of conversion processing. can be made

また、上述したように、第1の実施形態に係る特定機能34bは、取得機能34aにより取得されるX線画像データについて、学習用データの特定に使用するか否かを判定し、使用すると判定したX線画像データから学習用データを特定する。従って、第1の実施形態に係る医用情報処理装置30は、学習用データの質を向上させることができる。 Further, as described above, the specifying function 34b according to the first embodiment determines whether or not the X-ray image data acquired by the acquiring function 34a is used for specifying learning data, and determines that it is to be used. Learning data is specified from the obtained X-ray image data. Therefore, the medical information processing apparatus 30 according to the first embodiment can improve the quality of learning data.

例えば、特定機能34bは、取得機能34aにより取得されるX線画像データのうち、撮像の条件及び被検体の条件が略一致し、かつ、撮像対象領域及び撮像方向が略一致する複数のX線画像データについては、その一部を学習用データの特定に使用すると判定する。これにより、特定機能34bは、略同一の学習用データが大量に登録されるといった事態を防止し、データの偏りを防ぐことができる。 For example, the specifying function 34b selects a plurality of X-ray image data obtained by the obtaining function 34a that have substantially the same imaging conditions and subject conditions, and have substantially the same imaging target region and imaging direction. As for the image data, it is determined that part of it is used to identify the learning data. As a result, the specific function 34b can prevent a situation in which a large amount of substantially identical learning data are registered, and data bias can be prevented.

また、例えば、特定機能34bは、取得機能34aにより取得されるX線画像データのうち、時系列の複数のX線画像データについては、階調の安定性に関する条件及び残像に関する条件の少なくとも一方を満たすX線画像データを学習用データの特定に使用すると判定する。これにより、特定機能34bは、階調が不安定なX線画像データや、残像の多いX線画像データから成る学習用データが登録される事態を防止し、学習用データの質を向上させることができる。 Further, for example, the specifying function 34b sets at least one of the condition regarding the stability of gradation and the condition regarding afterimage for a plurality of pieces of time-series X-ray image data among the X-ray image data obtained by the obtaining function 34a. X-ray image data that satisfies the criteria is determined to be used for specifying learning data. As a result, the specific function 34b prevents the registration of learning data composed of X-ray image data with unstable gradation and X-ray image data with many afterimages, thereby improving the quality of the learning data. can be done.

また、上述したように、第1の実施形態に係る制御機能34gは、変換機能34eが変換処理を実行するか否かを切り替える入力操作を受け付ける。これにより、医用情報処理装置30は、変換機能34eによる変換処理と、特定機能34bによる学習用データの特定処理とを異なるタイミングで実行し、処理負荷を時間的に分散させることができる。ひいては、医用情報処理装置30は、各処理について十分な計算資源を担保し、各処理を高速化することができる。 Further, as described above, the control function 34g according to the first embodiment receives an input operation for switching whether or not the conversion function 34e executes conversion processing. As a result, the medical information processing apparatus 30 can perform the conversion processing by the conversion function 34e and the learning data specifying processing by the specifying function 34b at different timings, thereby distributing the processing load over time. As a result, the medical information processing apparatus 30 can secure sufficient computational resources for each process and speed up each process.

なお、図1においては、医用情報処理装置30の処理回路34にて、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gが実現するものとして説明したが、複数のプロセッサを組み合わせて処理回路34を構成し、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路34は、異なる装置のプロセッサを組み合わせて構成されることとしてもよい。 In FIG. 1, the processing circuit 34 of the medical information processing apparatus 30 includes an acquisition function 34a, a specific function 34b, a learning data set generation function 34c, a model generation function 34d, a conversion function 34e, an output function 34f, and a control function. 34g has been described, but a plurality of processors may be combined to configure the processing circuit 34, and each processing function may be realized by each processor executing each program. Also, the processing circuit 34 may be configured by combining processors of different devices.

例えば、医用情報処理システム1は、複数の医用情報処理装置30を備え、医用情報処理装置30のそれぞれが有するプロセッサを組み合わせることにより、処理回路34を構成することとしてもよい。一例を挙げると、医用情報処理システム1は、取得機能34a及び特定機能34bを実現するプロセッサを有する医用情報処理装置30(第1の医用情報処理装置)と、学習用データセット生成機能34c及びモデル生成機能34dを実現するプロセッサを有する医用情報処理装置30(第2の医用情報処理装置)とを備える。また、例えば、医用情報処理装置30が有するプロセッサ(処理回路34等)と、医用画像診断装置10のプロセッサ(処理回路111等)とを組み合わせることにより、処理回路34を構成することとしてもよい。 For example, the medical information processing system 1 may include a plurality of medical information processing apparatuses 30 , and the processing circuit 34 may be configured by combining the processors of the medical information processing apparatuses 30 . As an example, the medical information processing system 1 includes a medical information processing apparatus 30 (first medical information processing apparatus) having a processor that realizes an acquisition function 34a and a specification function 34b, a learning data set generation function 34c, and a model. and a medical information processing apparatus 30 (second medical information processing apparatus) having a processor that realizes the generating function 34d. Further, for example, the processing circuit 34 may be configured by combining a processor (processing circuit 34 etc.) of the medical information processing apparatus 30 and a processor (processing circuit 111 etc.) of the medical image diagnostic apparatus 10 .

一例を挙げると、第1の医用情報処理装置の処理回路は、取得機能34aと、特定機能34bと、送信機能34h(図示せず)とを有する。また、第2の医用情報処理装置の処理回路は、学習用データセット生成機能34cと、モデル生成機能34dと、受信機能34i(図示せず)とを有する。なお、送信機能34hは、送信部の一例である。また、受信機能34iは、受信部の一例である。この場合、第1の医用情報処理装置における送信機能34hは、第2の医用情報処理装置に対して、特定機能34bにより特定された学習用データを送信する。また、第2の医用情報処理装置における受信機能34iは、第1の医用情報処理装置により送信された学習用データを受信する。また、学習用データセット生成機能34cは、受信機能34iが受信した学習用データを含む学習用データセットを生成する。そして、モデル生成機能34dは、学習用データセット生成機能34cが生成した学習用データセットに基づいて、学習済みモデルを生成する。 As an example, the processing circuitry of the first medical information processing apparatus has an acquisition function 34a, a specification function 34b, and a transmission function 34h (not shown). The processing circuit of the second medical information processing apparatus has a learning data set generating function 34c, a model generating function 34d, and a receiving function 34i (not shown). Note that the transmission function 34h is an example of a transmission unit. Also, the receiving function 34i is an example of a receiving section. In this case, the transmitting function 34h in the first medical information processing apparatus transmits the learning data specified by the specifying function 34b to the second medical information processing apparatus. Also, the reception function 34i in the second medical information processing apparatus receives the learning data transmitted from the first medical information processing apparatus. Also, the learning data set generation function 34c generates a learning data set including the learning data received by the reception function 34i. Then, the model generation function 34d generates a trained model based on the learning data set generated by the learning data set generation function 34c.

例えば、第2の医用情報処理装置におけるモデル生成機能34dは、受信機能34iが受信した学習用データの数が閾値を超えた時に、学習済みモデルを生成する。或いは、モデル生成機能34dは、検査情報に基づいてX線診断装置100によるX線画像データの収集が行われない時間を取得し、取得した時間において、X線診断装置100が有するGPU等を利用して、学習済みモデルを生成する。或いは、モデル生成機能34dは、学習用データセット生成機能34cが学習用データセットを生成し次第、学習済みモデルを生成する。 For example, the model generating function 34d in the second medical information processing apparatus generates a trained model when the number of learning data received by the receiving function 34i exceeds a threshold. Alternatively, the model generation function 34d acquires a time during which the X-ray diagnostic apparatus 100 does not acquire X-ray image data based on the examination information, and uses the GPU or the like of the X-ray diagnostic apparatus 100 during the acquired time. to generate a trained model. Alternatively, the model generation function 34d generates a trained model as soon as the learning data set generation function 34c generates the learning data set.

また、上述した実施形態では、学習用データの例として、X線画像データの組から成る学習用データについて説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、特定機能34bは、X線画像データの組と、他のデータとから成る学習用データを特定してもよい。ここで、他のデータの例としては、例えば、特定機能34bが学習用データを特定した日時の情報が挙げられる。即ち、特定機能34bは、少なくともX線画像データを組として含む学習用データを特定する。 Further, in the above-described embodiment, learning data made up of sets of X-ray image data has been described as an example of learning data. However, embodiments are not so limited. For example, the identification function 34b may identify training data consisting of X-ray image data sets and other data. Here, examples of other data include information on the date and time when the specifying function 34b specified the learning data. That is, the specifying function 34b specifies learning data that includes at least X-ray image data as a set.

同様に、学習用データセット生成機能34cは、複数の学習用データと、他のデータとを含む学習用データセットを生成してもよい。ここで、他のデータの例としては、例えば、学習用データセット生成機能34cが学習用データセットを生成した日時の情報が挙げられる。即ち、学習用データセット生成機能34cは、少なくとも複数の学習用データを含む学習用データセットを生成する。 Similarly, the learning data set generation function 34c may generate a learning data set including multiple pieces of learning data and other data. Here, examples of other data include information on the date and time when the learning data set generation function 34c generated the learning data set. That is, the learning data set generation function 34c generates a learning data set including at least a plurality of pieces of learning data.

(第2の実施形態)
上述した第1の実施形態では、処理回路34が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gを有する場合について説明した。これに対し、第2の実施形態では、処理回路111が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gに相当する機能を有する場合について説明する。
(Second embodiment)
In the above-described first embodiment, the processing circuit 34 has the acquisition function 34a, the specific function 34b, the learning data set generation function 34c, the model generation function 34d, the conversion function 34e, the output function 34f, and the control function 34g. explained. On the other hand, in the second embodiment, the processing circuit 111 corresponds to the acquisition function 34a, the specific function 34b, the learning data set generation function 34c, the model generation function 34d, the conversion function 34e, the output function 34f, and the control function 34g. A case of having a function to

第2の実施形態に係るX線診断装置100は、図2に示した第1の実施形態に係るX線診断装置100と同様の構成を有し、処理回路111が、取得機能111d、特定機能111e、学習用データセット生成機能111f、モデル生成機能111g及び変換機能111hを更に有する点で相異する。そこで、第1の実施形態において説明した構成と同様の構成を有する点については、図2と同一の符号を付し、説明を省略する。 The X-ray diagnostic apparatus 100 according to the second embodiment has the same configuration as the X-ray diagnostic apparatus 100 according to the first embodiment shown in FIG. 111e, a learning data set generation function 111f, a model generation function 111g, and a conversion function 111h. Therefore, the same reference numerals as in FIG. 2 are assigned to the same configurations as those described in the first embodiment, and descriptions thereof are omitted.

以下、図12を用いて、第2の実施形態に係るX線診断装置100について説明する。図12は、第2の実施形態に係るX線診断装置100の構成の一例を示すブロック図である。図12に示すように、X線診断装置100は、X線高電圧装置101と、X線管102と、コリメータ103と、フィルタ104と、天板105と、Cアーム106と、X線検出器107と、メモリ108と、ディスプレイ109と、入力インターフェース110と、処理回路111とを備える。 An X-ray diagnostic apparatus 100 according to the second embodiment will be described below with reference to FIG. FIG. 12 is a block diagram showing an example configuration of an X-ray diagnostic apparatus 100 according to the second embodiment. As shown in FIG. 12, the X-ray diagnostic apparatus 100 includes an X-ray high voltage device 101, an X-ray tube 102, a collimator 103, a filter 104, a top board 105, a C-arm 106, and an X-ray detector. 107 , a memory 108 , a display 109 , an input interface 110 and a processing circuit 111 .

また、処理回路111は、収集機能111a、出力機能111b、制御機能111cを実行することで、X線診断装置100全体の動作を制御する。更に、処理回路111は、取得機能34aに対応する取得機能111dを実行する。また、処理回路111は、特定機能34bに対応する特定機能111eを実行する。また、処理回路111は、学習用データセット生成機能34cに対応する学習用データセット生成機能111fを実行する。また、処理回路111は、モデル生成機能34dに対応するモデル生成機能111gを実行する。また、処理回路111は、変換機能34eに対応する変換機能111hを実行する。 The processing circuit 111 also controls the overall operation of the X-ray diagnostic apparatus 100 by executing the collection function 111a, the output function 111b, and the control function 111c. In addition, processing circuitry 111 executes an acquisition function 111d corresponding to acquisition function 34a. The processing circuit 111 also executes a specific function 111e corresponding to the specific function 34b. The processing circuit 111 also executes a learning data set generation function 111f corresponding to the learning data set generation function 34c. The processing circuitry 111 also executes a model generation function 111g corresponding to the model generation function 34d. The processing circuit 111 also executes a conversion function 111h corresponding to the conversion function 34e.

以上、第2の実施形態に係るX線診断装置100の構成の一例について説明した。かかる構成の下、X線診断装置100は、X線画像データに関する学習用データ不足を解消する。 An example of the configuration of the X-ray diagnostic apparatus 100 according to the second embodiment has been described above. With such a configuration, the X-ray diagnostic apparatus 100 solves the shortage of data for learning regarding X-ray image data.

具体的には、収集機能111aは、まず、X線画像データを収集する。例えば、収集機能111aは、X線高電圧装置101を制御することで、X線管102から被検体P1に対してX線を照射させる。この際、X線検出器107は、被検体P1を透過したX線を検出して検出信号を出力する。そして、収集機能111aは、X線検出器107から受信した検出信号に基づいてX線画像データを生成し、生成したX線画像データをメモリ108に格納する。ここで、出力機能111bは、X線画像データを画像保管装置20に出力し、記憶させることとしてもよい。 Specifically, the acquisition function 111a first acquires X-ray image data. For example, the acquisition function 111a controls the X-ray high-voltage device 101 so that the X-ray tube 102 irradiates the subject P1 with X-rays. At this time, the X-ray detector 107 detects X-rays that have passed through the subject P1 and outputs a detection signal. The acquisition function 111 a then generates X-ray image data based on the detection signal received from the X-ray detector 107 and stores the generated X-ray image data in the memory 108 . Here, the output function 111b may output the X-ray image data to the image storage device 20 for storage.

次に、取得機能111dは、収集機能111aにより収集されたX線画像データを取得する。なお、取得機能111dは、メモリ108に記憶されたX線画像データを取得してもよいし、収集機能111aにより収集されたX線画像データをメモリ108を介すことなく取得してもよい。また、取得機能111dは、画像保管装置20に記憶されたX線画像データを取得する場合であってもよい。 Next, the acquisition function 111d acquires the X-ray image data acquired by the acquisition function 111a. The acquisition function 111d may acquire the X-ray image data stored in the memory 108, or may acquire the X-ray image data acquired by the acquisition function 111a without using the memory 108. Also, the acquisition function 111d may acquire X-ray image data stored in the image storage device 20 .

次に、特定機能111eは、取得機能111dにより取得されるX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定する。例えば、特定機能111eは、取得機能111dにより取得されるX線画像データのうち、同一検査内で収集されたX線画像データの組を特定する。次に、特定機能111eは、同一検査内で収集されたX線画像データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。そして、特定機能111eは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組であって、撮像の条件及び被検体の条件のうち少なくとも一方が異なるものを特定する。次に、学習用データセット生成機能111fは、特定機能111eにより特定された複数の学習用データを含む学習用データセットを生成する。 Next, the specifying function 111e selects X-ray image data in which at least one of the imaging condition and the subject condition is different from among the X-ray image data acquired by the acquiring function 111d and the imaging directions are substantially the same. Identify training data to include as a set. For example, the specifying function 111e specifies a set of X-ray image data acquired in the same examination among the X-ray image data acquired by the acquiring function 111d. Next, the specifying function 111e selects a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same among the sets of X-ray image data acquired in the same examination. Identify. The specific function 111e is a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same, and at least one of the imaging condition and the subject condition is different. Identify things. Next, the learning data set generation function 111f generates a learning data set including the plurality of learning data specified by the specifying function 111e.

次に、モデル生成機能111gは、学習用データセットに基づいて、入力されるX線画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。例えば、モデル生成機能111gは、検査情報に基づいて、収集機能111aがX線画像データの収集を行わない時間を取得し、取得した時間を、学習済みモデルを生成する時間として設定する。そして、モデル生成機能111gは、設定された時間に学習済みモデルを生成する。 Next, the model generation function 111g converts the input X-ray image data into an X-ray image corresponding to X-ray image data in which at least one of the imaging condition and the subject condition is different, based on the learning data set. Generate a trained model that is embedded in the process of transforming data. For example, the model generation function 111g acquires the time during which the acquisition function 111a does not acquire X-ray image data based on the examination information, and sets the acquired time as the time for creating the learned model. Then, the model generation function 111g generates a learned model at the set time.

モデル生成機能111gが学習済みモデルを生成した後、収集機能111aが新たにX線画像データを収集した場合、取得機能111dは、新たに収集されたX線画像データを取得する。ここで、変換機能111hは、学習済みモデルに基づいて、新たに収集されたX線画像データに対する変換処理を実行する。そして、出力機能111bは、変換処理後のX線画像データを出力する。例えば、出力機能111bは、変換処理後のX線画像データに基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ109に表示させる。また、例えば、出力機能111bは、変換処理後のX線画像データを、X線診断装置100とネットワークNWを介して接続された外部装置に出力する。 When the acquisition function 111a acquires new X-ray image data after the model generation function 111g has generated a learned model, the acquisition function 111d acquires the newly acquired X-ray image data. Here, the conversion function 111h executes conversion processing on the newly acquired X-ray image data based on the learned model. Then, the output function 111b outputs the X-ray image data after conversion processing. For example, the output function 111b generates an X-ray image for display based on the converted X-ray image data, and causes the display 109 to display the generated X-ray image. Also, for example, the output function 111b outputs the converted X-ray image data to an external device connected to the X-ray diagnostic apparatus 100 via the network NW.

上述したように、第2の実施形態によれば、X線検出器107は、X線を検出して検出信号を出力する。また、収集機能111aは、検出信号に基づくX線画像データを収集する。また、取得機能111dは、収集機能111aにより収集されるX線画像データを取得する。また、特定機能111eは、取得機能111dにより取得されるX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定する。従って、第2の実施形態に係るX線診断装置100は、学習用データ不足を解消することができる。 As described above, according to the second embodiment, the X-ray detector 107 detects X-rays and outputs detection signals. Also, the acquisition function 111a acquires X-ray image data based on the detection signal. Also, the acquisition function 111d acquires the X-ray image data acquired by the acquisition function 111a. Further, the specifying function 111e combines X-ray image data obtained by the obtaining function 111d in which at least one of the imaging conditions and the subject conditions is different and the imaging directions are substantially the same. Identify the training data that contains as . Therefore, the X-ray diagnostic apparatus 100 according to the second embodiment can solve the shortage of learning data.

なお、X線診断装置100における取得機能111dは、収集機能111aにより収集されるX線画像データのみならず、X線診断装置100以外のX線診断装置により収集されたX線画像データを取得してもよい。この場合、X線診断装置100は、より多くの学習用データを特定して、学習用データ不足を解消することができる。 Note that the acquisition function 111d in the X-ray diagnostic apparatus 100 acquires not only X-ray image data acquired by the acquisition function 111a, but also X-ray image data acquired by an X-ray diagnostic apparatus other than the X-ray diagnostic apparatus 100. may In this case, the X-ray diagnostic apparatus 100 can specify more learning data to resolve the shortage of learning data.

(第3の実施形態)
上述した第1~第2の実施形態では、医用画像診断装置10の例として、X線診断装置100について説明した。これに対し、第3の実施形態では、医用画像診断装置10の例として、X線診断装置100以外の放射線診断装置について説明する。
(Third embodiment)
In the first and second embodiments described above, the X-ray diagnostic apparatus 100 has been described as an example of the medical image diagnostic apparatus 10 . On the other hand, in the third embodiment, a radiation diagnostic apparatus other than the X-ray diagnostic apparatus 100 will be described as an example of the medical image diagnostic apparatus 10. FIG.

第3の実施形態に係る医用情報処理システム1は、図1に示した第1の実施形態に係る医用情報処理システム1と同様の構成を有し、X線診断装置100に代えて、又は、X線診断装置100に加えて、X線CT装置やSPECT装置を有する点で相異する。また、第3の実施形態に係る医用情報処理装置30は、図1に示した第1の実施形態に係る医用情報処理装置30と同様の構成を有し、出力機能34fによる処理の一部が相違する。そこで、第1の実施形態において説明した構成と同様の構成を有する点については、図1と同一の符号を付し、説明を省略する。 The medical information processing system 1 according to the third embodiment has the same configuration as the medical information processing system 1 according to the first embodiment shown in FIG. The difference is that in addition to the X-ray diagnostic apparatus 100, an X-ray CT apparatus and a SPECT apparatus are provided. The medical information processing apparatus 30 according to the third embodiment has the same configuration as the medical information processing apparatus 30 according to the first embodiment shown in FIG. differ. Therefore, the same reference numerals as in FIG. 1 are assigned to the same configurations as those described in the first embodiment, and the description thereof is omitted.

例えば、医用情報処理システム1がX線CT装置を備える場合、X線CT装置は、架台装置と、寝台装置と、コンソール装置とを有する。寝台装置は、被検体が載置される天板を含む。天板は、コンソール装置による制御の下、移動したり、傾斜したりする。架台装置は、X線管とX線検出器とを支持する回転フレームを含む。なお、架台装置は、傾斜可能に構成されてもよい。この場合、架台装置と天板との相対的な角度の変更は、天板の傾斜によって行われてもよいし、架台装置の傾斜によって行われてもよいし、これらの複合によって行われてもよい。また、架台装置は、移動可能に構成されてもよい。この場合、架台装置と天板との位置関係の相対的な変更は、天板の移動によって行われてもよいし、架台装置の走行によって行われてもよいし、これらの複合によって行われてもよい。なお、上記のX線管やX線検出器、回転フレーム、天板等は、X線CT装置の撮像部に含まれる。 For example, when the medical information processing system 1 includes an X-ray CT apparatus, the X-ray CT apparatus has a gantry device, a bed device, and a console device. The couch device includes a tabletop on which the subject is placed. The tabletop moves and tilts under the control of the console device. The gantry includes a rotating frame that supports the x-ray tube and x-ray detector. Note that the gantry device may be configured to be tiltable. In this case, the relative angle between the gantry and the top plate may be changed by tilting the top plate, by tilting the gantry device, or by combining these. good. Also, the gantry device may be configured to be movable. In this case, the relative change in the positional relationship between the gantry device and the top plate may be performed by moving the top plate, by running the gantry device, or by combining these. good too. The X-ray tube, the X-ray detector, the rotating frame, the tabletop, etc. are included in the imaging unit of the X-ray CT apparatus.

例えば、X線CT装置は、被検体を挟んで対向した状態でX線管とX線検出器とを支持する回転フレームを回転させながら、被検体に対してX線管からX線を照射させる。この際、X線検出器は、被検体を透過したX線を検出して、検出信号をデータ収集回路に対して出力する。なお、X線CT装置が備えるX線検出器は、検出器の一例である。 For example, an X-ray CT apparatus irradiates a subject with X-rays from the X-ray tube while rotating a rotating frame that supports an X-ray tube and an X-ray detector facing each other across the subject. . At this time, the X-ray detector detects X-rays that have passed through the subject and outputs a detection signal to the data acquisition circuit. Note that the X-ray detector included in the X-ray CT apparatus is an example of a detector.

データ収集回路は、検出器から入力された検出信号に対して、増幅処理及びA/D変換処理を実行することで検出データを生成するDAS(Data Acquisition System)である。更に、データ収集回路は、生成した検出データをX線CT装置の処理回路に出力する。処理回路は、検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を施したデータを生成する。 The data acquisition circuit is a DAS (Data Acquisition System) that generates detection data by performing amplification processing and A/D conversion processing on detection signals input from the detector. Furthermore, the data acquisition circuit outputs the generated detection data to the processing circuit of the X-ray CT apparatus. The processing circuit generates data obtained by performing preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detected data.

ここで、取得機能34aは、医用画像データとして、X線CT装置により生成された前処理前のデータ(検出データ)、又は、前処理後のデータを取得する。以下、前処理前のデータ(検出データ)および前処理後のデータを総称して投影データとも記載する。更に、特定機能34bは、取得機能34aにより取得される投影データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する投影データを組として含む学習用データを特定する。 Here, the acquisition function 34a acquires data before preprocessing (detection data) generated by the X-ray CT apparatus or data after preprocessing as medical image data. Hereinafter, data before preprocessing (detection data) and data after preprocessing are also collectively referred to as projection data. Further, the specifying function 34b includes, as a set, projection data in which at least one of the imaging condition and the subject condition is different from the projection data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify your data.

例えば、特定機能34bは、まず、取得機能34aにより取得された投影データのうち、同一検査内で収集された投影データの組を特定する。次に、特定機能34bは、同一検査内で収集された投影データの組のうち、撮像方向が略一致する投影データの組を特定する。例えば、特定機能34bは、撮像部の全部または一部の配置に基づいて、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組を特定する。 For example, the identifying function 34b first identifies a set of projection data acquired in the same examination among the projection data acquired by the acquiring function 34a. Next, the specifying function 34b specifies a set of projection data having substantially the same imaging direction among the sets of projection data acquired in the same examination. For example, the specifying function 34b specifies a set of projection data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same, based on the arrangement of all or part of the imaging units.

一例を挙げると、X線CT装置のコンソール装置は、各投影データの付帯情報に、撮像時におけるX線管の位置(管球位置)や、架台装置に対する天板の位置を記憶させる。この場合、特定機能34bは、付帯情報に基づいて各投影データの管球位置を比較することにより、同一検査内で収集された投影データの組の間で、撮像方向が略一致しているか否かを判定することができる。また、特定機能34bは、付帯情報に基づいて、各投影データが撮像された時点での天板位置を比較することにより、撮像方向が略一致していると判定した投影データの組の間で、撮像対象領域の少なくとも一部が重複しているか否かを判定することができる。即ち、特定機能34bは、管球位置や天板位置等、撮像部の配置に基づいて、投影データの組の特定を行なう。そして、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データを組として含む学習用データを特定する。 For example, the console device of the X-ray CT apparatus stores the position of the X-ray tube (tube position) at the time of imaging and the position of the top plate with respect to the gantry device as supplementary information of each projection data. In this case, the specifying function 34b compares the tube position of each projection data based on the incidental information to determine whether or not the imaging directions substantially match between sets of projection data acquired in the same examination. It is possible to determine whether Further, the specifying function 34b compares the positions of the tabletops at the time when each piece of projection data was captured, based on the incidental information, so that between the sets of projection data determined to have approximately the same imaging direction, , it can be determined whether or not at least a part of the imaging target regions overlap. That is, the specifying function 34b specifies a set of projection data based on the arrangement of the imaging unit, such as the position of the tube and the position of the tabletop. Then, the specifying function 34b selects an X-ray image for which at least one of the imaging condition and the subject condition is different from a set of projection data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. Identify training data that includes the data as a set.

次に、学習用データセット生成機能34cは、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。例えば、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、管電流値の条件が異なっている学習用データ(ノイズの程度が異なる投影データを組として含む学習用データ)を複数抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、ノイズの程度が異なる投影データを組として含む複数の学習用データを含む学習用データセットを、学習用データセットD4とも記載する。次に、モデル生成機能34dは、学習用データセットD4に基づいて、入力される投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM4を生成する。 Next, the learning data set generation function 34c generates a learning data set including the plurality of learning data specified by the specifying function 34b. For example, the learning data set generating function 34c generates learning data having different tube current value conditions (learning data including sets of projection data with different degrees of noise) from the learning data specified by the specifying function 34b. ) to generate a learning data set containing the extracted learning data. Note that, hereinafter, a learning data set that includes a plurality of learning data sets that include sets of projection data with different degrees of noise is also referred to as a learning data set D4. Next, the model generation function 34d generates a trained model M4 incorporated in the process of converting the input projection data into projection data corresponding to projection data with less noise, based on the learning data set D4. .

モデル生成機能34dが学習済みモデルを生成した後、X線CT装置によって新たに投影データが収集された場合、取得機能34aは、新たに収集された投影データを取得する。そして、変換機能34eは、学習済みモデルに基づいて、新たに収集された投影データに対する変換処理を実行する。例えば、変換機能34eは、学習済みモデルM4に基づいて、新たに収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する変換処理を実行する。 After the model generation function 34d has generated the learned model, when the X-ray CT apparatus acquires new projection data, the acquisition function 34a acquires the newly acquired projection data. Then, the conversion function 34e executes conversion processing on the newly acquired projection data based on the learned model. For example, the conversion function 34e performs conversion processing to convert newly acquired projection data into projection data corresponding to projection data with less noise based on the learned model M4.

次に、出力機能34fは、変換処理後の投影データを出力する。例えば、出力機能34fは、変換処理後の投影データを、X線CT装置の処理回路に出力する。また、X線CT装置の処理回路は、変換処理後の投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行なうことにより、CT画像データ(ボリュームデータ)を生成する。また、例えば、X線CT装置の処理回路は、変換処理後の投影データから複数の断層画像データを生成し、複数の断層画像データを公知の方法により変換することで、CT画像データを生成する。更に、X線CT装置の処理回路は、生成したCT画像データに基づいて、ボリュームレンダリング画像等の表示画像を生成し、生成した表示画像を表示させる。 Next, the output function 34f outputs projection data after conversion processing. For example, the output function 34f outputs the projection data after conversion processing to the processing circuit of the X-ray CT apparatus. In addition, the processing circuit of the X-ray CT apparatus performs reconstruction processing using the filtered back projection method, the iterative reconstruction method, etc. on the projection data after the conversion processing, thereby obtaining CT image data (volume data). ). Further, for example, the processing circuit of the X-ray CT apparatus generates a plurality of tomographic image data from the projection data after conversion processing, and converts the plurality of tomographic image data by a known method to generate CT image data. . Furthermore, the processing circuit of the X-ray CT apparatus generates a display image such as a volume rendering image based on the generated CT image data, and displays the generated display image.

また、例えば、医用情報処理システム1がSPECT装置を備える場合、SPECT装置は、被検体に投与され、被検体の生体組織に選択的に取り込まれた放射性医薬品(トレーサ)の核種(RI:Radio Isotope)から放射される放射線(ガンマ線)をガンマカメラにより検出し、検出信号を出力する。なお、ガンマカメラは、検出器の一例である。 Further, for example, when the medical information processing system 1 includes a SPECT device, the SPECT device is a radiopharmaceutical (tracer) nuclide (RI: Radio Isotope ) is detected by a gamma camera and a detection signal is output. A gamma camera is an example of a detector.

具体的には、ガンマカメラは、放射性医薬品から放出されたガンマ線の強度分布を2次元的に検出し、検出した強度分布を示すデータに対して、増幅処理やA/D変換処理を施すことで検出信号を生成する。例えば、ガンマカメラは、シンチレータと、光電子増倍管(PMT:Photomultiplier Tube)とを有するフォトンカウンティング方式の放射線検出器である。シンチレータは、ガンマ線を紫外領域にピークを持つ光に変換する。PMTは、シンチレータからの発光を電気信号に変換し、その電流値を増倍させる。なお、ガンマカメラには、入射方向を制限するコリメータが取り付けられている。ガンマカメラは、コリメータにより制限された入射方向で入射したガンマ線を検出する。 そして、ガンマカメラは、生成した検出信号をデータ収集回路に送信する。データ収集回路は、ガンマカメラから入力された検出信号を収集し、収集した検出信号それぞれに対して、オフセット補正、感度補正等の補正処理を行なって投影データを生成する。 Specifically, the gamma camera two-dimensionally detects the intensity distribution of gamma rays emitted from radiopharmaceuticals, and performs amplification processing and A/D conversion processing on the data showing the detected intensity distribution. Generate a detection signal. For example, a gamma camera is a photon-counting radiation detector having a scintillator and a photomultiplier tube (PMT). A scintillator converts gamma rays into light peaking in the ultraviolet region. The PMT converts light emitted from the scintillator into an electric signal and multiplies the electric current value. The gamma camera is equipped with a collimator that limits the incident direction. A gamma camera detects incoming gamma rays with incident directions limited by a collimator. The gamma camera then transmits the generated detection signal to the data acquisition circuit. The data collection circuit collects detection signals input from the gamma camera, performs correction processing such as offset correction and sensitivity correction on each of the collected detection signals, and generates projection data.

ここで、取得機能34aは、医用画像データとして、SPECT装置により生成された投影データを取得する。更に、特定機能34bは、取得機能34aにより取得される投影データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する投影データを組として含む学習用データを特定する。 Here, the acquisition function 34a acquires projection data generated by the SPECT apparatus as medical image data. Further, the specifying function 34b includes, as a set, projection data in which at least one of the imaging condition and the subject condition is different from the projection data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify your data.

例えば、特定機能34bは、まず、取得機能34aにより取得された投影データのうち、同一検査内で収集された投影データの組を特定する。次に、特定機能34bは、同一検査内で収集された投影データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組を特定する。例えば、特定機能34bは、SPECT装置の撮像部の一部または全部の配置に基づいて、投影データの組の特定を行なう。なお、SPECT装置の撮像部には、例えば、ガンマカメラや、ガンマカメラに取り付けられたコリメータ、被検体を載置する天板等が含まれる。例えば、特定機能34bは、撮像方向を、各投影データが撮像された時のガンマカメラの位置と、コリメータが制限する入射方向とに基づいて取得することができる。 For example, the identifying function 34b first identifies a set of projection data acquired in the same examination among the projection data acquired by the acquiring function 34a. Next, the specifying function 34b specifies a set of projection data whose imaging target regions at least partially overlap and whose imaging directions are substantially the same, among the sets of projection data acquired in the same examination. For example, the identification function 34b identifies projection data sets based on the placement of some or all of the imaging units of the SPECT apparatus. Note that the imaging unit of the SPECT apparatus includes, for example, a gamma camera, a collimator attached to the gamma camera, a top plate on which the subject is placed, and the like. For example, the identification function 34b can obtain the imaging direction based on the position of the gamma camera when each projection data was captured and the incident direction restricted by the collimator.

そして、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なる投影データを組として含む学習用データを特定する。 Then, the specifying function 34b selects projection data in which at least one of the imaging condition and the subject condition is different from a set of projection data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. Identify training data to include as a set.

ここで、SPECT装置が収集する投影データについて撮像の条件とは、例えば、ガンマ線の検出に関する条件等である。なお、ガンマ線の検出に関する条件の例としては、ガンマカメラが備えるPMTの数や、ガンマカメラに取り付けられたコリメータのスリット間隔等が挙げられる。SPECT装置が収集する投影データについて被検体の条件とは、例えば、ガンマ線の放射に関する条件等である。なお、ガンマ線の放射に関する条件の例としては、例えば、被検体に注入される放射性医薬品の種類や量等が挙げられる。 Here, the imaging conditions for the projection data acquired by the SPECT apparatus are, for example, conditions related to detection of gamma rays. Examples of conditions related to gamma ray detection include the number of PMTs provided in the gamma camera, the slit interval of the collimator attached to the gamma camera, and the like. Subject conditions for projection data acquired by the SPECT apparatus are, for example, conditions related to gamma ray radiation. Examples of conditions related to gamma ray emission include the type and amount of radiopharmaceuticals to be injected into the subject.

次に、学習用データセット生成機能34cは、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。例えば、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、被検体に注入された放射性医薬品の量が異なっている学習用データ(ノイズの程度が異なる投影データを組として含む学習用データ)を複数抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、ノイズの程度が異なる投影データを組として含む複数の学習用データを含む学習用データセットを、学習用データセットD5とも記載する。次に、モデル生成機能34dは、学習用データセットD5に基づいて、入力される投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM5を生成する。 Next, the learning data set generation function 34c generates a learning data set including the plurality of learning data specified by the specifying function 34b. For example, the learning data set generation function 34c combines learning data (projection data with different degrees of noise) in which the amount of radiopharmaceutical injected into the subject differs from the learning data specified by the specifying function 34b. ) are extracted, and a learning data set including the extracted plurality of learning data is generated. In the following description, a learning data set including a plurality of sets of projection data with different noise levels is also referred to as a learning data set D5. Next, the model generation function 34d generates a trained model M5 to be incorporated in the process of converting the input projection data into projection data corresponding to projection data with less noise, based on the learning data set D5. .

モデル生成機能34dが学習済みモデルを生成した後、SPECT装置によって新たに投影データが収集された場合、取得機能34aは、新たに収集された投影データを取得する。そして、変換機能34eは、学習済みモデルに基づいて、新たに収集された投影データに対する変換処理を実行する。例えば、変換機能34eは、学習済みモデルM5に基づいて、新たに収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する変換処理を実行する。 After the model generation function 34d has generated the learned model, when the SPECT apparatus newly acquires projection data, the acquisition function 34a acquires the newly acquired projection data. Then, the conversion function 34e executes conversion processing on the newly acquired projection data based on the learned model. For example, the conversion function 34e performs conversion processing to convert newly acquired projection data into projection data corresponding to projection data with less noise based on the learned model M5.

次に、出力機能34fは、変換処理後の投影データを出力する。例えば、出力機能34fは、変換処理後の投影データを、SPECT装置の処理回路に出力する。また、SPECT装置の処理回路は、変換処理後の投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行なうことにより、被検体内の放射性医薬品の分布を示すSPECT画像データを生成する。更に、SPECT装置の処理回路は、生成したSPECT画像データに対する種々の画像処理を行なって表示画像を生成し、生成した表示画像を表示させる。 Next, the output function 34f outputs projection data after conversion processing. For example, the output function 34f outputs the projection data after conversion processing to the processing circuit of the SPECT device. In addition, the processing circuit of the SPECT apparatus performs reconstruction processing using the filtered back projection method, the iterative reconstruction method, etc. on the projection data after the conversion processing, thereby obtaining the distribution of the radiopharmaceutical in the subject. generates SPECT image data indicating Furthermore, the processing circuit of the SPECT apparatus performs various image processing on the generated SPECT image data to generate a display image, and displays the generated display image.

上述したように、第3の実施形態によれば、取得機能34aは、投影データを取得する。また、特定機能34bは、取得機能34aにより取得される投影データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する投影データを組として含む学習用データを特定する。従って、第3の実施形態に係る医用情報処理装置30は、投影データに関する学習用データ不足を解消することができる。 As described above, according to the third embodiment, the acquisition function 34a acquires projection data. In addition, the specifying function 34b includes, as a set, projection data in which at least one of the imaging condition and the subject condition is different from the projection data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify your data. Therefore, the medical information processing apparatus 30 according to the third embodiment can solve the shortage of learning data for projection data.

また、上述したように、学習用データセット生成機能34cは、特定機能34bが特定した複数の学習用データを含む学習用データセットを生成する。また、モデル生成機能34dは、入力される投影データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルを生成する。 Further, as described above, the learning data set generation function 34c generates a learning data set including a plurality of learning data specified by the specifying function 34b. The model generation function 34d also generates a learned model to be incorporated in the process of converting input projection data into projection data corresponding to projection data in which at least one of the imaging conditions and the subject conditions is different.

例えば、モデル生成機能34dは、学習用データセットD4に基づいて、X線CT装置により収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM4を生成する。従って、第3の実施形態に係る医用情報処理装置30は、投影データにおけるノイズを低減することができる。ひいては、医用情報処理装置30は、CTスキャンにおいて使用するX線を低線量化して、X線管102の寿命を延長するとともに、被検体の被ばく線量を低減することができる。 For example, the model generation function 34d is a trained model incorporated in the process of converting projection data acquired by an X-ray CT apparatus into projection data corresponding to projection data with less noise, based on the learning data set D4. Generate M4. Therefore, the medical information processing apparatus 30 according to the third embodiment can reduce noise in projection data. As a result, the medical information processing apparatus 30 can reduce the dose of X-rays used in CT scanning to extend the life of the X-ray tube 102 and reduce the exposure dose of the subject.

また、例えば、モデル生成機能34dは、学習用データセットD5に基づいて、SPECT装置により収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM5を生成する。従って、第3の実施形態に係る医用情報処理装置30は、投影データにおけるノイズを低減することができる。ひいては、医用情報処理装置30は、SPECTスキャンにおいて使用するガンマ線を低線量化して、放射性医薬品に起因する被検体の被ばく線量を低減することができる。 Further, for example, the model generation function 34d is a trained model incorporated in the process of converting the projection data collected by the SPECT apparatus into projection data corresponding to projection data with less noise, based on the learning data set D5. Generate M5. Therefore, the medical information processing apparatus 30 according to the third embodiment can reduce noise in projection data. As a result, the medical information processing apparatus 30 can reduce the dose of gamma rays used in the SPECT scan to reduce the exposure dose of the subject caused by the radiopharmaceutical.

なお、処理回路34は、単一のプロセッサにより構成してもよいし、複数のプロセッサを組み合わせて構成してもよい。また、処理回路34は、異なる装置のプロセッサを組み合わせて構成されることとしてもよい。例えば、医用情報処理システム1は、複数の医用情報処理装置30を備え、医用情報処理装置30のそれぞれが有するプロセッサを組み合わせることにより、処理回路34を構成することとしてもよい。また、例えば、医用情報処理装置30が有するプロセッサと、X線CT装置が有するプロセッサや、SPECT装置が有するプロセッサとを組み合わせることにより、処理回路34を構成することとしてもよい。あるいは、X線CT装置又はSPECT装置の処理回路が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gに相当する機能を有する場合であってもよい。 The processing circuit 34 may be configured by a single processor, or may be configured by combining a plurality of processors. Also, the processing circuit 34 may be configured by combining processors of different devices. For example, the medical information processing system 1 may include a plurality of medical information processing apparatuses 30 , and the processing circuit 34 may be configured by combining the processors of the medical information processing apparatuses 30 . Further, for example, the processing circuit 34 may be configured by combining a processor included in the medical information processing apparatus 30, a processor included in the X-ray CT apparatus, or a processor included in the SPECT apparatus. Alternatively, functions corresponding to the acquisition function 34a, the specific function 34b, the learning data set generation function 34c, the model generation function 34d, the conversion function 34e, the output function 34f, and the control function 34g in the processing circuit of the X-ray CT apparatus or the SPECT apparatus. It may be a case of having

(第4の実施形態)
上述した第1~第3の実施形態では、医用画像診断装置10の例として、X線診断装置100やX線CT装置、SPECT装置等の放射線診断装置について説明した。これに対し、第4の実施形態では、医用画像診断装置10の例として、超音波診断装置について説明する。
(Fourth embodiment)
In the first to third embodiments described above, the X-ray diagnostic apparatus 100, the X-ray CT apparatus, the SPECT apparatus, and other radiological diagnostic apparatuses have been described as examples of the medical image diagnostic apparatus 10. FIG. In contrast, in the fourth embodiment, an ultrasonic diagnostic apparatus will be described as an example of the medical image diagnostic apparatus 10. FIG.

第4の実施形態に係る医用情報処理システム1は、図1に示した第1の実施形態に係る医用情報処理システム1と同様の構成を有し、放射線診断装置に代えて、又は、放射線診断装置に加えて、超音波診断装置を有する点で相異する。そこで、第1の実施形態において説明した構成と同様の構成を有する点については、図1と同一の符号を付し、説明を省略する。 The medical information processing system 1 according to the fourth embodiment has the same configuration as the medical information processing system 1 according to the first embodiment shown in FIG. It is different in that it has an ultrasonic diagnostic device in addition to the device. Therefore, the same reference numerals as in FIG. 1 are assigned to the same configurations as those described in the first embodiment, and the description thereof is omitted.

本実施形態では、処理回路34が取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d及び変換機能34eを有していてもよいし、超音波診断装置の処理回路が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d及び変換機能34eに相当する機能を有する場合であってもよい。以下では一例として、図13に示すように、超音波診断装置200の処理回路224が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d及び変換機能34eに相当する取得機能224d、特定機能224e、学習用データセット生成機能224f、モデル生成機能224g及び変換機能224hを有する場合について説明する。なお、図13は、第4の実施形態に係る超音波診断装置200の構成の一例を示すブロック図である。 In this embodiment, the processing circuit 34 may have an acquisition function 34a, a specific function 34b, a learning data set generation function 34c, a model generation function 34d, and a conversion function 34e. , an acquisition function 34a, a specific function 34b, a learning data set generation function 34c, a model generation function 34d, and a conversion function 34e. Below, as an example, as shown in FIG. 13, the processing circuit 224 of the ultrasonic diagnostic apparatus 200 corresponds to the acquisition function 34a, the specific function 34b, the learning data set generation function 34c, the model generation function 34d, and the conversion function 34e. A case of having an acquisition function 224d, a specific function 224e, a learning data set generation function 224f, a model generation function 224g, and a conversion function 224h will be described. Note that FIG. 13 is a block diagram showing an example of the configuration of the ultrasonic diagnostic apparatus 200 according to the fourth embodiment.

図13に示すように、超音波診断装置200は、超音波プローブ210と、装置本体220と、ディスプレイ230と、入力インターフェース240とを備える。超音波プローブ210、ディスプレイ230及び入力インターフェース240は、それぞれ装置本体220に接続される。 As shown in FIG. 13, the ultrasonic diagnostic apparatus 200 includes an ultrasonic probe 210, an apparatus main body 220, a display 230, and an input interface 240. The ultrasonic probe 210 , the display 230 and the input interface 240 are each connected to the device body 220 .

超音波プローブ210は、被検体P2の体表面に接触され、超音波の送受信(超音波走査)を行なう。例えば、超音波プローブ210は、複数の圧電振動子を有する。これら複数の圧電振動子は、送信回路221から供給される駆動信号に基づいて、超音波を発生させる。発生した超音波は、被検体内の音響インピーダンスの不整合面で反射され、反射波信号として複数の圧電振動子にて受信される。超音波プローブ210は、複数の圧電振動子にて受信した反射波信号を、送信回路221へ送る。なお、超音波プローブ210は、超音波診断装置200の撮像部の一例である。 The ultrasonic probe 210 is brought into contact with the body surface of the subject P2 to transmit and receive ultrasonic waves (ultrasonic scanning). For example, the ultrasound probe 210 has multiple piezoelectric transducers. These piezoelectric vibrators generate ultrasonic waves based on drive signals supplied from the transmission circuit 221 . The generated ultrasonic waves are reflected by an acoustic impedance mismatching surface in the subject, and received as reflected wave signals by a plurality of piezoelectric transducers. The ultrasonic probe 210 sends reflected wave signals received by the plurality of piezoelectric transducers to the transmission circuit 221 . Note that the ultrasonic probe 210 is an example of an imaging unit of the ultrasonic diagnostic apparatus 200 .

ディスプレイ230は、各種の情報を表示する。例えば、ディスプレイ230は、処理回路224による制御の下、操作者の指示を受け付けるためのGUIや、各種の超音波画像を表示する。例えば、ディスプレイ230は、液晶ディスプレイやCRTディスプレイである。なお、ディスプレイ230はデスクトップ型でもよいし、処理回路224と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 230 displays various information. For example, the display 230 displays a GUI for accepting operator's instructions and various ultrasound images under the control of the processing circuit 224 . For example, display 230 is a liquid crystal display or a CRT display. The display 230 may be of a desktop type, or may be configured by a tablet terminal or the like capable of wireless communication with the processing circuit 224 .

入力インターフェース240は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路224に出力する。例えば、入力インターフェース240は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース240は、処理回路224と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース240は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、超音波診断装置200とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路224へ出力する電気信号の処理回路も入力インターフェース240の例に含まれる。 The input interface 240 receives various input operations from the operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 224 . For example, the input interface 240 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad that performs input operations by touching an operation surface, a touch screen that integrates a display screen and a touch pad, and an optical sensor. It is realized by the used non-contact input circuit, voice input circuit, or the like. Note that the input interface 240 may be configured by a tablet terminal or the like capable of wireless communication with the processing circuit 224 . Also, the input interface 240 is not limited to having physical operation parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the ultrasonic diagnostic apparatus 200 and outputs this electrical signal to the processing circuit 224 is also included in the input interface 240. included in the example.

装置本体220は、超音波プローブ210が受信した反射波信号に基づいて、超音波画像データを生成する装置である。図13に示すように、装置本体220は、例えば、送信回路221と、受信回路222と、メモリ223と、処理回路224とを有する。 The device main body 220 is a device that generates ultrasonic image data based on reflected wave signals received by the ultrasonic probe 210 . As shown in FIG. 13, the device body 220 has, for example, a transmission circuit 221, a reception circuit 222, a memory 223, and a processing circuit 224. FIG.

送信回路221は、超音波プローブ210による超音波の送信を制御する。例えば、送信回路221は、処理回路224による制御の下、振動子ごとに所定の送信遅延時間が付与されたタイミングで超音波プローブ210に駆動信号(駆動パルス)を印加する。これにより、送信回路221は、超音波がビーム状に集束された超音波ビームを送信させる。 The transmission circuit 221 controls transmission of ultrasonic waves by the ultrasonic probe 210 . For example, under the control of the processing circuit 224, the transmission circuit 221 applies a driving signal (driving pulse) to the ultrasonic probe 210 at the timing when a predetermined transmission delay time is given to each transducer. Accordingly, the transmission circuit 221 transmits an ultrasonic beam in which ultrasonic waves are focused into a beam shape.

受信回路222は、送信超音波が体内組織で反射された反射波信号の受信を制御する。例えば、受信回路222は、処理回路224による制御の下、超音波プローブ210が受信した反射波信号に所定の遅延時間を与えて加算処理を行なう。これにより、反射波信号の受信指向性に応じた方向からの反射成分が強調される。そして、受信回路222は、加算処理後の反射波信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、受信回路222は、I信号及びQ信号(以下、IQ信号と記載する)を反射波データとして、処理回路224へ送る。なお、受信回路222は、加算処理後の反射波信号を、RF(Radio Frequency)信号に変換した上で、処理回路224へ送ってもよい。IQ信号や、RF信号は、位相情報が含まれる信号(反射波データ)となる。 The receiving circuit 222 controls reception of a reflected wave signal that is the transmitted ultrasonic wave reflected by internal tissue. For example, under the control of the processing circuit 224, the receiving circuit 222 gives a predetermined delay time to the reflected wave signal received by the ultrasonic probe 210 and performs addition processing. Thereby, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized. Then, the receiving circuit 222 converts the reflected wave signal after addition processing into an in-phase signal (I signal, I: In-phase) and a quadrature signal (Q signal, Q: Quadrature-phase) in the baseband band. Then, the receiving circuit 222 sends the I signal and the Q signal (hereinafter referred to as IQ signal) to the processing circuit 224 as reflected wave data. Note that the receiving circuit 222 may convert the reflected wave signal after addition processing into an RF (Radio Frequency) signal and then send the RF (Radio Frequency) signal to the processing circuit 224 . The IQ signal and RF signal are signals (reflected wave data) containing phase information.

メモリ223は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ223は、処理回路224によって収集された超音波画像データを受け付けて記憶する。また、メモリ223は、処理回路224によって読み出されて実行される各種機能に対応するプログラムを記憶する。なお、メモリ223は、超音波診断装置200とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The memory 223 is implemented by, for example, a RAM, a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. For example, memory 223 receives and stores ultrasound image data acquired by processing circuitry 224 . The memory 223 also stores programs corresponding to various functions read and executed by the processing circuit 224 . Note that the memory 223 may be realized by a server group (cloud) connected to the ultrasonic diagnostic apparatus 200 via the network NW.

処理回路224は、収集機能224a、出力機能224b、制御機能224cを実行することで、超音波診断装置200全体の動作を制御する。 The processing circuitry 224 controls the overall operation of the ultrasonic diagnostic apparatus 200 by executing an acquisition function 224a, an output function 224b, and a control function 224c.

例えば、処理回路224は、メモリ223から収集機能224aに相当するプログラムを読み出して実行することにより、超音波画像データを収集する。例えば、収集機能224aは、受信回路222が反射波信号から生成した反射波データに対して対数増幅、包絡線検波処理等を行なって、複数のサンプル点(観測点)それぞれの信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。 For example, the processing circuit 224 acquires ultrasound image data by reading a program corresponding to the acquisition function 224a from the memory 223 and executing the program. For example, the collection function 224a performs logarithmic amplification, envelope detection processing, and the like on the reflected wave data generated from the reflected wave signal by the receiving circuit 222, so that the signal strength of each of a plurality of sample points (observation points) differs from the luminance. Data (B-mode data) represented by brightness is generated.

なお、超音波プローブ210の収集モードについては、様々な収集モードを選択可能である。例えば、超音波プローブ210は、被検体P2に対する位置を固定して収集を行う2Dモードによりデータ収集を行い、2次元データを得る。この場合、収集機能224aは、収集されたデータに基づいて、2次元の超音波画像データを生成することができる。 Various acquisition modes can be selected for the acquisition mode of the ultrasonic probe 210 . For example, the ultrasonic probe 210 acquires two-dimensional data by performing data acquisition in a 2D mode in which the position with respect to the subject P2 is fixed and acquisition is performed. In this case, the acquisition function 224a can generate two-dimensional ultrasound image data based on the acquired data.

また、例えば、超音波プローブ210は、被検体P2に対する位置情報を位置センサにより検出しつつ、移動しながらデータ収集を行う3Dモードによりデータ収集を行い、3次元データを得る。この場合、収集機能224aは、収集されたデータに対して、位置センサにより検出された位置情報を用いた位置補正を実行して、3次元の超音波画像データを生成することができる。なお、超音波プローブ210が位置センサを有しない場合、収集機能224aは、フレーム(超音波走査面)間隔が一定、またはフレーム間の角度が一定であるという前提を用いることにより、3次元の超音波画像データを生成することができる。 Further, for example, the ultrasonic probe 210 acquires three-dimensional data by performing data acquisition in a 3D mode in which data is acquired while moving while detecting position information of the subject P2 with a position sensor. In this case, the acquisition function 224a can perform position correction on the collected data using position information detected by the position sensor to generate three-dimensional ultrasound image data. It should be noted that if the ultrasound probe 210 does not have a position sensor, the acquisition function 224a uses the premise that the frame (ultrasound scan plane) interval is constant, or the angle between frames is constant, so that the three-dimensional ultrasound Acoustic image data can be generated.

また、例えば、超音波プローブ210は、機械的に搖動しながらデータ収集を行うメカ4Dモードによりデータ収集を行い、3次元データを得る。また、例えば、超音波プローブ210は、2次元アレープローブを用いて電子的に3次元走査する2次元アレー3Dモードによりデータ収集を行い、3次元データを得る。この場合、収集機能224aは、収集されたデータに基づいて、3次元の超音波画像データを生成することができる。 Further, for example, the ultrasonic probe 210 acquires three-dimensional data by performing data acquisition in a mechanical 4D mode in which data is acquired while mechanically swinging. Also, for example, the ultrasonic probe 210 performs data acquisition in a two-dimensional array 3D mode in which a two-dimensional array probe is used to electronically scan three-dimensionally, and obtains three-dimensional data. In this case, the acquisition function 224a can generate three-dimensional ultrasound image data based on the acquired data.

また、例えば、処理回路224は、メモリ223から出力機能224bに相当するプログラムを読み出して実行することにより、超音波画像データを、表示用のデータ形式に変換(スキャンコンバート)することで超音波画像を生成し、生成した超音波画像をディスプレイ230に表示させる。また、例えば、処理回路224は、制御機能224cに対応するプログラムをメモリ223から読み出して実行することにより、入力インターフェース240を介して操作者から受け付けた入力操作に基づいて、処理回路224の各種機能を制御する。 Further, for example, the processing circuit 224 reads out and executes a program corresponding to the output function 224b from the memory 223, thereby converting (scan-converting) the ultrasonic image data into a data format for display. and display the generated ultrasound image on the display 230 . Further, for example, the processing circuit 224 reads out a program corresponding to the control function 224c from the memory 223 and executes it, thereby controlling various functions of the processing circuit 224 based on an input operation received from the operator via the input interface 240. to control.

更に、処理回路224は、取得機能34aに対応する取得機能224dを実行する。また、処理回路224は、特定機能34bに対応する特定機能224eを実行する。また、処理回路224は、学習用データセット生成機能34cに対応する学習用データセット生成機能224fを実行する。また、処理回路224は、モデル生成機能34dに対応するモデル生成機能224gを実行する。また、処理回路224は、変換機能34eに対応する変換機能224hを実行する。 In addition, processing circuitry 224 executes an acquisition function 224d that corresponds to acquisition function 34a. Processing circuitry 224 also performs a specific function 224e that corresponds to specific function 34b. The processing circuit 224 also executes a learning data set generation function 224f corresponding to the learning data set generation function 34c. Processing circuitry 224 also executes model generation function 224g, which corresponds to model generation function 34d. The processing circuitry 224 also executes a conversion function 224h that corresponds to the conversion function 34e.

以上、第4の実施形態に係る超音波診断装置200の構成の一例について説明した。かかる構成の下、超音波診断装置200は、超音波画像データに関する学習用データ不足を解消する。 An example of the configuration of the ultrasonic diagnostic apparatus 200 according to the fourth embodiment has been described above. With such a configuration, the ultrasonic diagnostic apparatus 200 solves the shortage of learning data related to ultrasonic image data.

具体的には、収集機能224aは、まず、2次元又は3次元の超音波画像データを収集する。例えば、収集機能224aは、送信回路221及び受信回路222を制御し、超音波プローブ210により被検体P2を走査することで、反射波データを収集する。更に、収集機能224aは、反射波データに基づいて、Bモードデータ等の超音波画像データを収集し、収集した超音波画像データをメモリ223に格納する。この際、収集機能224aは、収集した超音波画像データの付帯情報に、撮像対象領域や撮像方向、患者ID、検査種別、検査日時等を記録する。ここで、出力機能224bは、超音波画像データを画像保管装置20に出力し、記憶させることとしてもよい。なお、2次元又は3次元の超音波画像データは、医用画像データの一例である。 Specifically, the acquisition function 224a first acquires two-dimensional or three-dimensional ultrasound image data. For example, the acquisition function 224a controls the transmission circuit 221 and the reception circuit 222, scans the subject P2 with the ultrasonic probe 210, and acquires reflected wave data. Furthermore, the acquisition function 224 a acquires ultrasound image data such as B-mode data based on the reflected wave data, and stores the acquired ultrasound image data in the memory 223 . At this time, the collection function 224a records the imaging target area, imaging direction, patient ID, examination type, examination date and time, etc. as incidental information of the collected ultrasonic image data. Here, the output function 224b may output the ultrasound image data to the image storage device 20 for storage. Two-dimensional or three-dimensional ultrasound image data is an example of medical image data.

例えば、収集機能224aは、各超音波画像データの撮像時における超音波プローブ210の配置を取得する。例えば、超音波プローブ210がセンサを備える場合、収集機能224aは、センサからの出力に基づいて超音波プローブ210の配置を取得する。一例を挙げると、収集機能224aは、被検体P2の体軸方向(T方向)、被検体P2の左右方向(S方向)、及び、被検体P2の前後方向(C方向)を基準としてTSC座標系を定義し、TSC座標系における位置センサ(磁気センサ等)の位置を、超音波プローブ210の位置として取得する。また、超音波プローブ210が複数の位置センサを備える場合、収集機能224aは、TSC座標系における位置センサ間の位置関係に基づいて超音波プローブ210の配向を取得する。或いは、超音波プローブ210がジャイロセンサを備える場合、収集機能224aは、ジャイロセンサの出力に基づいてTSC座標系における超音波プローブ210の配向を取得する。 For example, the acquisition function 224a acquires the placement of the ultrasound probe 210 at the time each ultrasound image data was captured. For example, if the ultrasound probe 210 includes sensors, the acquisition function 224a obtains the placement of the ultrasound probe 210 based on the output from the sensors. For example, the acquisition function 224a uses the body axis direction (T direction) of the subject P2, the left-right direction (S direction) of the subject P2, and the front-back direction (C direction) of the subject P2 as references for the TSC coordinates. A system is defined, and the position of a position sensor (such as a magnetic sensor) in the TSC coordinate system is obtained as the position of the ultrasonic probe 210 . Also, if the ultrasound probe 210 comprises multiple position sensors, the acquisition function 224a obtains the orientation of the ultrasound probe 210 based on the positional relationship between the position sensors in the TSC coordinate system. Alternatively, if the ultrasonic probe 210 comprises a gyro sensor, the acquisition function 224a obtains the orientation of the ultrasonic probe 210 in the TSC coordinate system based on the output of the gyro sensor.

別の例を挙げると、超音波プローブ210がアームにより支持される場合、収集機能224aは、アームに関する情報から超音波プローブ210の配置を取得する。例えば、超音波プローブ210がロボットアームにより支持される場合、収集機能224aは、ロボットアームを駆動させることにより、被検体P2に対する超音波プローブ210の配置を変更する。この場合、収集機能224aは、ロボットアームの駆動情報に基づいて、TSC座標系における超音波プローブ210の配置を取得する。 As another example, if the ultrasound probe 210 is supported by an arm, the acquisition function 224a obtains the placement of the ultrasound probe 210 from information about the arm. For example, if the ultrasound probe 210 is supported by a robotic arm, the acquisition function 224a changes the placement of the ultrasound probe 210 relative to the subject P2 by driving the robotic arm. In this case, the acquisition function 224a acquires the placement of the ultrasonic probe 210 in the TSC coordinate system based on the drive information of the robot arm.

別の例を挙げると、超音波診断装置200以外の医用画像診断装置10(以下、他の装置)により超音波プローブ210が撮像される場合、収集機能224aは、他の装置により撮像された医用画像データに描出された超音波プローブ210の像に基づいて、超音波プローブ210の配置を取得する。 To give another example, when the ultrasonic probe 210 is imaged by a medical image diagnostic apparatus 10 other than the ultrasonic diagnostic apparatus 200 (hereinafter referred to as other apparatus), the acquisition function 224a performs the medical image imaged by the other apparatus. The arrangement of the ultrasonic probe 210 is acquired based on the image of the ultrasonic probe 210 depicted in the image data.

ここで、一例として、他の装置がX線診断装置であり、超音波プローブ210が食道心エコー図検査(TEE:Trans-Esophageal Echocardiograms)プローブである場合を例として説明する。この場合、X線診断装置は、まず、超音波プローブ210が挿入された状態の被検体P2からX線画像データを収集する。次に、X線診断装置は、X線画像データに描出された超音波プローブ210の像に基づいて、X線画像データにおける超音波プローブ210の配置を取得する。例えば、X線診断装置は、超音波プローブ210を示す3DモデルをX線画像データに対してマッチングすることで、X線画像データにおける超音波プローブ210の位置及び配向を取得する。また、X線診断装置は、X線診断装置の撮像部(X線管、コリメータ、天板、Cアーム、X線検出器等)の配置に基づいて、被検体P2を基準とした座標系(TSC座標系等)に対するX線画像データの撮像方向及び撮像対象領域を特定する。これにより、X線診断装置は、被検体P2を基準とした座標系とX線画像データとを位置合わせして、被検体P2を基準とした座標系に対する超音波プローブ210の配置を取得する。そして、収集機能224aは、X線診断装置から、超音波画像データの撮像時における超音波プローブ210の配置を取得する。 Here, as an example, another device is an X-ray diagnostic device, and the ultrasonic probe 210 is a TEE (Trans-Esophageal Echocardiograms) probe. In this case, the X-ray diagnostic apparatus first acquires X-ray image data from the subject P2 in which the ultrasonic probe 210 is inserted. Next, the X-ray diagnostic apparatus obtains the placement of the ultrasonic probe 210 in the X-ray image data based on the image of the ultrasonic probe 210 depicted in the X-ray image data. For example, the X-ray diagnostic apparatus acquires the position and orientation of the ultrasonic probe 210 in the X-ray image data by matching a 3D model showing the ultrasonic probe 210 to the X-ray image data. In addition, the X-ray diagnostic apparatus uses a coordinate system ( The imaging direction and imaging target area of the X-ray image data with respect to the TSC coordinate system, etc.) are specified. Thereby, the X-ray diagnostic apparatus aligns the coordinate system based on the subject P2 with the X-ray image data, and obtains the arrangement of the ultrasonic probe 210 with respect to the coordinate system based on the subject P2. Then, the acquisition function 224a acquires the arrangement of the ultrasonic probe 210 at the time of capturing the ultrasonic image data from the X-ray diagnostic apparatus.

更に、収集機能224aは、超音波プローブ210の配置に基づいて各超音波画像データの撮像方向及び撮像対象領域を特定し、超音波画像データの付帯情報に記録する。例えば、収集機能224aは、臨床角や、撮像方向を示す単位ベクトルを撮像方向として特定し、超音波画像データの付帯情報に記録する。また、例えば、収集機能224aは、撮像対象部位や、TSC座標系において特定した3次元領域を、撮像対象領域として超音波画像データの付帯情報に記録する。 Furthermore, the acquisition function 224a identifies the imaging direction and the imaging target area of each piece of ultrasonic image data based on the placement of the ultrasonic probe 210, and records them in the incidental information of the ultrasonic image data. For example, the acquisition function 224a specifies a clinical angle or a unit vector indicating the imaging direction as the imaging direction, and records them in supplementary information of the ultrasonic image data. Also, for example, the collection function 224a records the imaging target site and the three-dimensional area specified in the TSC coordinate system in the incidental information of the ultrasonic image data as the imaging target area.

次に、取得機能224dは、収集機能224aにより収集された超音波画像データを取得する。なお、取得機能224dは、メモリ223に記憶された超音波画像データを取得してもよいし、収集機能224aにより収集された超音波画像データをメモリ223を介すことなく取得してもよい。また、取得機能224dは、画像保管装置20に記憶された超音波画像データを取得する場合であってもよい。 Next, the acquisition function 224d acquires the ultrasound image data acquired by the acquisition function 224a. The acquisition function 224d may acquire ultrasound image data stored in the memory 223, or may acquire ultrasound image data acquired by the acquisition function 224a without using the memory 223. FIG. Alternatively, the acquisition function 224 d may acquire ultrasound image data stored in the image storage device 20 .

次に、特定機能224eは、取得機能224dにより取得される超音波画像データのうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する超音波画像データの組を特定する。例えば、特定機能224eは、まず、超音波画像データの付帯情報から患者ID、検査種別、検査日時等を取得して比較することにより、同一検査内で収集された超音波画像データの組を特定する。 Next, the specifying function 224e specifies a set of ultrasound image data, among the ultrasound image data acquired by the acquisition function 224d, in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. . For example, the specifying function 224e first acquires and compares the patient ID, examination type, examination date and time, etc. from the incidental information of the ultrasonic image data, thereby identifying a set of ultrasonic image data collected in the same examination. do.

次に、特定機能224eは、超音波画像データの付帯情報から撮像方向を取得し、同一検査内で収集された超音波画像データの組の間で、撮像方向が略一致しているか否かを判定する。例えば、各超音波画像データの撮像方向として臨床角が特定されていた場合、特定機能224eは、各超音波画像データの付帯情報から取得した臨床角を相互に比較し、臨床角が一致している場合、撮像方向が略一致していると判定する。別の例を挙げると、各超音波画像データの撮像方向として撮像方向を示す単位ベクトルが特定されていた場合、特定機能224eは、各超音波画像データの付帯情報から取得した単位ベクトルについて内積を算出し、内積が閾値以上である場合に、撮像方向が略一致していると判定する。 Next, the specifying function 224e acquires the imaging direction from the incidental information of the ultrasonic image data, and determines whether or not the imaging directions substantially match between sets of ultrasonic image data acquired in the same examination. judge. For example, when a clinical angle is specified as the imaging direction of each piece of ultrasound image data, the specification function 224e compares the clinical angles acquired from the incidental information of each piece of ultrasound image data, and determines if the clinical angles match. If so, it is determined that the imaging directions are substantially the same. To give another example, when a unit vector indicating the imaging direction is specified as the imaging direction of each piece of ultrasound image data, the specifying function 224e calculates the inner product of the unit vector obtained from the incidental information of each piece of ultrasound image data. If the inner product is greater than or equal to the threshold value, it is determined that the imaging directions substantially match.

上述したように、収集機能224aは、超音波プローブ210(撮像部)の配置に基づいて撮像方向を取得し、超音波画像データの付帯情報に記録する。そして、特定機能224eは、超音波画像データの付帯情報から取得した撮像方向に基づいて、撮像方向が略一致する超音波画像データの組の特定を行なう。即ち、特定機能224eは、撮像部の配置に基づいて、撮像方向が略一致する超音波画像データの組の特定を行なう。 As described above, the acquisition function 224a acquires the imaging direction based on the placement of the ultrasonic probe 210 (imaging unit) and records it in the supplementary information of the ultrasonic image data. Then, the identifying function 224e identifies a set of ultrasound image data whose imaging directions substantially match, based on the imaging directions acquired from the incidental information of the ultrasound image data. That is, the specifying function 224e specifies a set of ultrasound image data whose imaging directions are substantially the same based on the arrangement of the imaging units.

また、例えば、特定機能224eは、撮像方向が略一致していると判定した超音波画像データの組の間で、撮像対象領域の少なくとも一部が重複しているか否かを判定する。一例を挙げると、各超音波画像データについて、収集機能224aは、TSC座標系において特定した3次元領域を、撮像対象領域として超音波画像データの付帯情報に記録する。この場合、特定機能224eは、各超音波画像データの付帯情報から取得した3次元領域を相互に比較し、3次元領域の少なくとも一部が重複している場合、撮像対象領域の少なくとも一部が重複していると判定する。 Also, for example, the specifying function 224e determines whether or not at least a part of the imaging target region overlaps between sets of ultrasound image data determined to have approximately the same imaging direction. For example, for each piece of ultrasonic image data, the acquisition function 224a records the three-dimensional area specified in the TSC coordinate system in the incidental information of the ultrasonic image data as an imaging target area. In this case, the specifying function 224e compares the three-dimensional regions acquired from the incidental information of each ultrasonic image data, and if at least a part of the three-dimensional regions overlaps, at least a part of the imaging target region is determined to be duplicates.

上述したように、収集機能224aは、超音波プローブ210(撮像部)の配置に基づいて撮像対象領域を取得し、超音波画像データの付帯情報に撮像対象領域を記録する。そして、特定機能224eは、超音波画像データの付帯情報から取得した撮像対象領域に基づいて、撮像対象領域の少なくとも一部が重複する超音波画像データの組の特定を行なう。即ち、特定機能224eは、撮像部の配置に基づいて、撮像対象領域の少なくとも一部が重複する超音波画像データの組の特定を行なう。 As described above, the acquisition function 224a acquires the imaging target area based on the placement of the ultrasonic probe 210 (imaging unit) and records the imaging target area in the incidental information of the ultrasonic image data. Then, the identifying function 224e identifies a set of ultrasound image data in which at least a part of the imaging target region overlaps based on the imaging target region acquired from the incidental information of the ultrasound image data. That is, the specifying function 224e specifies a set of ultrasound image data in which at least a part of the imaging target region overlaps based on the arrangement of the imaging units.

次に、特定機能224eは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する超音波画像データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なる超音波画像データの組を、学習用データとして特定する。ここで、超音波画像データについて撮像の条件とは、例えば、走査に用いる超音波の周波数や走査線の密度等である。 Next, the specifying function 224e selects that at least one of the imaging condition and the subject condition is different among sets of ultrasound image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. A set of ultrasound image data is identified as training data. Here, the imaging conditions for the ultrasonic image data are, for example, the frequency of ultrasonic waves used for scanning, the density of scanning lines, and the like.

次に、学習用データセット生成機能224fは、特定機能224eにより特定された複数の学習用データを含む学習用データセットを生成する。一例を挙げると、学習用データセット生成機能224fは、特定機能224eにより特定された学習用データから、超音波画像データの組の間で超音波の周波数が異なっている学習用データを複数抽出する。ここで、走査に用いる超音波の周波数が大きいほど、走査可能な深度は浅くなる一方、空間分解能は向上するため、超音波画像データの解像度は高くなる。即ち、学習用データセット生成機能224fは、解像度が異なる超音波画像データを組として含む学習用データを複数抽出する。 Next, the learning data set generation function 224f generates a learning data set including the plurality of learning data specified by the specifying function 224e. For example, the learning data set generation function 224f extracts a plurality of learning data in which the ultrasonic frequencies differ between pairs of ultrasonic image data from the learning data specified by the specifying function 224e. . Here, the higher the frequency of the ultrasound used for scanning, the shallower the depth that can be scanned and the higher the spatial resolution, so the resolution of the ultrasound image data increases. That is, the learning data set generation function 224f extracts a plurality of learning data sets each including ultrasound image data having different resolutions.

別の例を挙げると、学習用データセット生成機能224fは、特定機能224eにより特定された学習用データから、超音波画像データの組の間で走査線の密度が異なっている学習用データを複数抽出する。ここで、走査に用いる超音波の周波数が大きいほど、収集可能なフレームレートは低下する一方、空間分解能は向上するため、超音波画像データの解像度は高くなる。即ち、学習用データセット生成機能224fは、解像度が異なる超音波画像データを組として含む学習用データを複数抽出する。 To give another example, the learning data set generation function 224f selects a plurality of learning data having different scanning line densities between pairs of ultrasound image data from the learning data specified by the specifying function 224e. Extract. Here, as the frequency of ultrasound used for scanning increases, the frame rate that can be acquired decreases, but the spatial resolution improves, so the resolution of the ultrasound image data increases. That is, the learning data set generation function 224f extracts a plurality of learning data sets each including ultrasound image data having different resolutions.

次に、学習用データセット生成機能224fは、抽出した複数の学習用データを含む学習用データセットを生成する。そして、学習用データセット生成機能224fは、生成した学習用データセットをメモリ223に格納する。なお、以下では、解像度が異なる超音波画像データを組として含む複数の学習用データを含む学習用データセットを、学習用データセットD6とも記載する。 Next, the learning data set generation function 224f generates a learning data set including the plurality of extracted learning data. Then, the learning data set generation function 224 f stores the generated learning data set in the memory 223 . Note that, hereinafter, a learning data set including a plurality of learning data sets including sets of ultrasound image data having different resolutions is also referred to as a learning data set D6.

次に、モデル生成機能224gは、学習用データセットに基づいて、入力される超音波画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルを生成する。例えば、モデル生成機能224gは、学習用データセットD6に基づいて、入力される超音波画像データを、より解像度が高い超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルM6を生成する。そして、モデル生成機能224gは、生成した学習済みモデルM6をメモリ223に格納する。 Next, based on the learning data set, the model generation function 224g converts the input ultrasound image data into an ultrasound image corresponding to ultrasound image data in which at least one of the imaging conditions and the subject conditions is different. Generate a trained model that is embedded in the process of transforming data. For example, the model generation function 224g is based on the training data set D6, and the learned model is incorporated in the process of converting the input ultrasound image data into ultrasound image data corresponding to higher resolution ultrasound image data. Generate model M6. Then, the model generation function 224g stores the generated learned model M6 in the memory 223. FIG.

モデル生成機能224gが学習済みモデルを生成した後、収集機能224aが新たに超音波画像データを収集した場合、取得機能224dは、新たに収集された超音波画像データを取得する。ここで、変換機能224hは、学習済みモデルに基づいて、新たに収集された超音波画像データに対する変換処理を実行する。例えば、変換機能224hは、学習済みモデルM6に基づいて、新たに収集された超音波画像データを、より解像度が高い超音波画像データに相当する超音波画像データに変換する変換処理を実行する。 After the model generation function 224g has generated a trained model, when the acquisition function 224a acquires new ultrasound image data, the acquisition function 224d acquires the newly acquired ultrasound image data. Here, the conversion function 224h executes conversion processing on the newly acquired ultrasound image data based on the learned model. For example, the conversion function 224h executes conversion processing to convert newly acquired ultrasonic image data into ultrasonic image data corresponding to higher resolution ultrasonic image data based on the learned model M6.

そして、出力機能224bは、変換処理後の超音波画像データを出力する。例えば、出力機能224bは、変換処理後の超音波画像データに基づいて表示用の超音波画像を生成し、生成した超音波画像をディスプレイ230に表示させる。また、例えば、出力機能224bは、変換処理後の超音波画像データを、超音波診断装置200とネットワークNWを介して接続された外部装置に出力する。 Then, the output function 224b outputs the ultrasound image data after conversion processing. For example, the output function 224b generates an ultrasonic image for display based on the converted ultrasonic image data, and causes the display 230 to display the generated ultrasonic image. Also, for example, the output function 224b outputs the converted ultrasound image data to an external device connected to the ultrasound diagnostic apparatus 200 via the network NW.

上述したように、第4の実施形態によれば、収集機能224aは、超音波を送受信する超音波プローブ210により被検体を走査することで、超音波画像データを収集する。また、取得機能224dは、収集機能224aにより収集される超音波画像データを取得する。また、特定機能224eは、取得機能224dにより取得される超音波画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する超音波画像データを組として含む学習用データを特定する。従って、第4の実施形態に係る超音波診断装置200は、学習用データ不足を解消することができる。 As described above, according to the fourth embodiment, the acquisition function 224a acquires ultrasonic image data by scanning the subject with the ultrasonic probe 210 that transmits and receives ultrasonic waves. Also, the acquisition function 224d acquires the ultrasound image data acquired by the acquisition function 224a. In addition, the specifying function 224e determines that at least one of the imaging conditions and the subject conditions is different from the ultrasound image data acquired by the acquiring function 224d, and at least a part of the imaging target region overlaps, and , to specify learning data that includes a set of ultrasound image data whose imaging directions are substantially the same. Therefore, the ultrasonic diagnostic apparatus 200 according to the fourth embodiment can solve the shortage of learning data.

なお、超音波診断装置200における取得機能224dは、収集機能224aにより収集される超音波画像データのみならず、超音波診断装置200以外の超音波診断装置により収集された超音波画像データを取得してもよい。この場合、超音波診断装置200は、より多くの学習用データを特定して、学習用データ不足を解消することができる。 The acquisition function 224d in the ultrasonic diagnostic apparatus 200 acquires not only ultrasonic image data acquired by the acquisition function 224a, but also ultrasonic image data acquired by an ultrasonic diagnostic apparatus other than the ultrasonic diagnostic apparatus 200. may In this case, the ultrasonic diagnostic apparatus 200 can specify more learning data to resolve the shortage of learning data.

また、上述したように、学習用データセット生成機能224fは、特定機能224eが特定した複数の学習用データを含む学習用データセットを生成する。また、モデル生成機能224gは、入力される超音波画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルを生成する。例えば、モデル生成機能224gは、学習用データセットD6に基づいて、入力される超音波画像データを、より解像度が高い超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルM6を生成する。従って、第4の実施形態に係る超音波診断装置200は、超音波画像データの解像度を向上させることができる。 Also, as described above, the learning data set generation function 224f generates a learning data set including a plurality of learning data specified by the specifying function 224e. In addition, the model generation function 224g is incorporated in the processing of converting the input ultrasound image data into ultrasound image data corresponding to ultrasound image data in which at least one of the imaging conditions and the subject conditions is different. Generate a finished model. For example, the model generation function 224g is based on the training data set D6, and the learned model is incorporated in the process of converting the input ultrasound image data into ultrasound image data corresponding to higher resolution ultrasound image data. Generate model M6. Therefore, the ultrasonic diagnostic apparatus 200 according to the fourth embodiment can improve the resolution of ultrasonic image data.

上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。即ち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the above-described embodiments is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific forms of distribution and integration of each device are not limited to those shown in the drawings, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be implemented by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.

また、上述した実施形態で説明した学習用データの生産方法は、予め用意されたプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Also, the method of producing learning data described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a work station. This program can be distributed via a network such as the Internet. In addition, this program is recorded on a computer-readable non-transitory recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and is executed by being read from the recording medium by a computer. can also

以上説明した少なくとも1つの実施形態によれば、医用画像に関する学習用データ不足を解消することができる。 According to at least one embodiment described above, it is possible to solve the shortage of data for learning regarding medical images.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1 医用情報処理システム
30 医用情報処理装置
34 処理回路
34a 取得機能
34b 特定機能
34c 学習用データセット生成機能
34d モデル生成機能
34e 変換機能
34f 出力機能
34g 制御機能
1 medical information processing system 30 medical information processing apparatus 34 processing circuit 34a acquisition function 34b specific function 34c learning data set generation function 34d model generation function 34e conversion function 34f output function 34g control function

Claims (21)

医用画像を記憶する画像保管装置と、
前記画像保管装置に記憶された医用画像を取得する取得部と、前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部とを備える医用情報処理装置とを備え
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、医用情報処理システム。
an image archiving device for storing medical images;
An acquisition unit that acquires the medical images stored in the image storage device and at least one of the imaging conditions and the subject conditions of the medical images acquired by the acquisition unit are different, and the imaging direction is approximately the same. a medical information processing apparatus comprising a specifying unit that specifies learning data that includes matching medical images as a set ;
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Medical information processing system.
前記特定部は、前記医用画像の撮像に用いられた医用画像診断装置の撮像部の一部又は全部の配置に基づいて、医用画像の組の特定を行なう、請求項1に記載の医用情報処理システム。 2. The medical information processing according to claim 1, wherein said specifying unit specifies a set of medical images based on the arrangement of part or all of an imaging unit of a medical image diagnostic apparatus used to capture said medical images. system. 前記特定部は、前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する医用画像を組として含む前記学習用データを特定する、請求項1又は2に記載の医用情報処理システム。 In the medical image acquired by the acquisition unit, the specifying unit has at least one of different imaging conditions and subject conditions, at least a part of the imaging target region overlaps, and the imaging direction is different. 3. The medical information processing system according to claim 1, wherein said learning data including a set of substantially matching medical images is specified. 前記特定部により特定された複数の前記学習用データを含む学習用データセットを生成する学習用データセット生成部を更に備える、請求項1乃至3のいずれか一項に記載の医用情報処理システム。 4. The medical information processing system according to any one of claims 1 to 3, further comprising a learning data set generation unit that generates a learning data set including the plurality of learning data specified by the specifying unit. 前記学習用データセット生成部は、被検体の部位ごとに前記学習用データセットを生成する、請求項4に記載の医用情報処理システム。 5. The medical information processing system according to claim 4, wherein said learning data set generation unit generates said learning data set for each part of the subject. 前記学習用データセットに基づいて、入力される医用画像を当該医用画像と撮像の条件及び被検体の条件のうち少なくとも一方が異なる医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成するモデル生成部を更に備える、請求項4又は5に記載の医用情報処理システム。 A trained model incorporated in a process of converting an input medical image into a medical image corresponding to a medical image different from the medical image in at least one of imaging conditions and subject conditions, based on the learning data set. 6. The medical information processing system according to claim 4, further comprising a model generator that generates 前記特定部は、ノイズの程度が異なる医用画像を組として含む前記学習用データを特定し、
前記モデル生成部は、前記学習用データセットに基づいて、入力される医用画像を当該医用画像よりもノイズが少ない医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成する、請求項6に記載の医用情報処理システム。
The specifying unit specifies the learning data including sets of medical images with different degrees of noise,
The model generation unit generates a trained model to be incorporated in a process of converting an input medical image into a medical image equivalent to a medical image with less noise than the medical image, based on the learning data set. The medical information processing system according to claim 6.
前記特定部は、解像度が異なる医用画像を組として含む前記学習用データを特定し、
前記モデル生成部は、前記学習用データセットに基づいて、入力される医用画像を当該医用画像よりも解像度が高い医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成する、請求項6に記載の医用情報処理システム。
The identifying unit identifies the learning data including a set of medical images with different resolutions,
The model generation unit generates a trained model to be incorporated in a process of converting an input medical image into a medical image corresponding to a medical image having a higher resolution than the medical image, based on the learning data set. The medical information processing system according to claim 6.
前記特定部は、コントラスト画像とマスク像とを組として含む前記学習用データを特定し、
前記モデル生成部は、前記学習用データセットに基づいて、入力される医用画像を当該医用画像から背景成分を除去した医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成する、請求項6に記載の医用情報処理システム。
The identifying unit identifies the learning data including a set of a contrast image and a mask image,
The model generation unit generates a trained model to be incorporated in a process of converting an input medical image into a medical image equivalent to a medical image from which a background component is removed from the medical image, based on the learning data set. 7. The medical information processing system according to claim 6.
前記モデル生成部は、検査情報に基づいて設定された時間に前記学習済みモデルを生成する、請求項6乃至9のいずれか一項に記載の医用情報処理システム。 The medical information processing system according to any one of claims 6 to 9, wherein said model generation unit generates said learned model at a time set based on examination information. 前記特定部は、前記取得部により取得される医用画像のうち類似する複数の医用画像については、当該複数の医用画像の一部を前記学習用データの特定に使用すると判定する、請求項1乃至10のいずれか一項に記載の医用情報処理システム。 1. The specifying unit determines that, of a plurality of similar medical images among the medical images acquired by the acquiring unit, a part of the plurality of medical images is used for specifying the learning data. 11. The medical information processing system according to any one of 10 . 前記特定部は、前記取得部により取得される医用画像のうち、時系列の複数の医用画像については、階調の安定性に関する条件及び残像に関する条件の少なくとも一方を満たす医用画像を前記学習用データの特定に使用すると判定する、請求項1乃至10のいずれか一項に記載の医用情報処理システム。 Among the medical images acquired by the acquisition unit, the specifying unit selects a plurality of time-series medical images that satisfy at least one of a condition related to tone stability and a condition related to an afterimage from the learning data. 11. The medical information processing system according to any one of claims 1 to 10 , wherein the medical information processing system is determined to be used for specifying the. 前記特定部は、前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像対象領域の一部が重複し、かつ、撮像方向が略一致する医用画像の組について医用画像間の位置合わせを行ない、位置合わせした医用画像の組を前記学習用データとして特定する、請求項1乃至12のいずれか一項に記載の医用情報処理システム。 In the medical image acquired by the acquiring unit, the specifying unit has at least one of imaging conditions and subject conditions that are different, part of the imaging target region overlaps, and the imaging direction is substantially the same. 13. The medical information processing system according to any one of claims 1 to 12 , wherein registration between medical images is performed for sets of matching medical images, and the set of registered medical images is specified as the learning data. 前記特定部は、前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致し、かつ、撮像方向が同一でない医用画像の組について医用画像間の角度補正を行ない、角度補正した医用画像の組を前記学習用データとして特定する、請求項1乃至13のいずれか一項に記載の医用情報処理システム。 In the medical image acquired by the acquisition unit, the specifying unit has at least one of different imaging conditions and subject conditions, at least a part of the imaging target region overlaps, and the imaging direction is different. 14. The method according to any one of claims 1 to 13 , wherein angle correction is performed between medical images for a set of medical images that substantially match and whose imaging directions are not the same, and the set of angle-corrected medical images is specified as the learning data. The medical information processing system according to the item. 画像保管装置に記憶された医用画像を取得する取得部と、
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
を備え
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、医用情報処理装置。
an acquisition unit for acquiring medical images stored in the image archive ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
with
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Medical information processing equipment.
医用画像を記憶する画像保管装置と第1の医用情報処理装置と第2の医用情報処理装置とを備える医用情報処理システムであって、
前記第1の医用情報処理装置は、
前記画像保管装置に記憶された医用画像を取得する取得部と、
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
前記学習用データを送信する送信部とを備え、
前記第2の医用情報処理装置は、
前記第1の医用情報処理装置により送信された前記学習用データを受信する受信部と、
受信した前記学習用データを含む学習用データセットを生成する学習用データセット生成部と、
前記学習用データセットに基づいて、入力される医用画像を当該医用画像と撮像の条件及び被検体の条件のうち少なくとも一方が異なる医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成するモデル生成部とを備え
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、
医用情報処理システム。
A medical information processing system comprising an image storage device for storing medical images, a first medical information processing device, and a second medical information processing device,
The first medical information processing apparatus is
an acquisition unit that acquires the medical images stored in the image storage device ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
A transmission unit that transmits the learning data,
The second medical information processing apparatus is
a receiving unit that receives the learning data transmitted by the first medical information processing apparatus;
a learning data set generation unit that generates a learning data set including the received learning data;
A trained model incorporated in a process of converting an input medical image into a medical image corresponding to a medical image different from the medical image in at least one of imaging conditions and subject conditions, based on the learning data set. and a model generator that generates
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used.
Medical information processing system.
前記モデル生成部は、前記受信部が受信した前記学習用データの数が閾値を超えた時に、前記学習済みモデルを生成する、請求項16に記載の医用情報処理システム。 17. The medical information processing system according to claim 16 , wherein said model generating section generates said trained model when the number of said learning data received by said receiving section exceeds a threshold. 放射線を検出して検出信号を出力する検出器と、
前記検出信号に基づく医用画像を収集する収集部と、
前記収集部により収集され、画像保管装置に記憶された医用画像を取得する取得部と、
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
を備え
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、放射線診断装置。
a detector that detects radiation and outputs a detection signal;
an acquisition unit that acquires a medical image based on the detection signal;
an acquisition unit that acquires the medical images collected by the collection unit and stored in an image storage device ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
with
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Radiological diagnostic equipment.
超音波を送受信する超音波プローブにより被検体を走査することで医用画像を収集する収集部と、
前記収集部により収集され、画像保管装置に記憶された医用画像を取得する取得部と、
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
を備え
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、超音波診断装置。
a collection unit that collects medical images by scanning a subject with an ultrasonic probe that transmits and receives ultrasonic waves;
an acquisition unit that acquires the medical images collected by the collection unit and stored in an image storage device ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
with
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Ultrasound diagnostic equipment.
画像保管装置に記憶された医用画像を取得し、
取得した医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する、
ことを含み、
前記学習用データは、取得した医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて特定される、学習用データの生産方法。
retrieving a medical image stored in an image archive ;
Identifying learning data including a set of medical images in which at least one of imaging conditions and subject conditions is different from among the acquired medical images and in which the imaging directions are substantially the same;
including
A method of producing learning data, wherein the learning data is specified by determining whether or not an acquired medical image is to be used for specifying the learning data, and using the medical image determined to be used.
画像保管装置に記憶された医用画像を取得し、
取得した医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する
各処理をコンピュータに実行させるプログラムであって、
前記学習用データは、取得した医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて特定される、プログラム。
retrieving a medical image stored in an image archive ;
A program that causes a computer to execute each process for identifying a set of medical images among acquired medical images that have at least one of different imaging conditions and subject conditions and that have approximately the same imaging direction and
A program, wherein the learning data is specified by determining whether or not an acquired medical image is used for specifying the learning data, and using the medical image determined to be used.
JP2018101025A 2018-05-25 2018-05-25 Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program Active JP7262933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018101025A JP7262933B2 (en) 2018-05-25 2018-05-25 Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018101025A JP7262933B2 (en) 2018-05-25 2018-05-25 Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program

Publications (2)

Publication Number Publication Date
JP2019202087A JP2019202087A (en) 2019-11-28
JP7262933B2 true JP7262933B2 (en) 2023-04-24

Family

ID=68725550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018101025A Active JP7262933B2 (en) 2018-05-25 2018-05-25 Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program

Country Status (1)

Country Link
JP (1) JP7262933B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7237624B2 (en) * 2019-02-07 2023-03-13 浜松ホトニクス株式会社 Image processing device and image processing method
JP7433901B2 (en) * 2019-12-26 2024-02-20 キヤノンメディカルシステムズ株式会社 Learning device and learning method
WO2021157062A1 (en) * 2020-02-07 2021-08-12 日本電信電話株式会社 Learning device for quantization bit number expansion, signal estimation device, learning method, signal estimation method, and program
JP7451239B2 (en) * 2020-03-12 2024-03-18 富士フイルムヘルスケア株式会社 Image processing device, X-ray imaging device, and image processing method
JP7332538B2 (en) 2020-06-05 2023-08-23 富士フイルム株式会社 Processing device, processing device operating method, processing device operating program
JP7100783B1 (en) 2021-09-09 2022-07-14 株式会社ツバサファクトリー Learning device and inference device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057349A (en) 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2008119195A (en) 2006-11-10 2008-05-29 Hitachi Medical Corp Fluoroscopic x-ray equipment
US20150196265A1 (en) 2014-01-15 2015-07-16 Alara Systems, Inc Converting low-dose to higher dose mammographic images through machine-learning processes
JP2017205334A (en) 2016-05-19 2017-11-24 東芝メディカルシステムズ株式会社 Medical image processing device
JP2018005841A (en) 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642591B2 (en) * 1994-11-29 2005-04-27 株式会社日立メディコ Image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057349A (en) 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2008119195A (en) 2006-11-10 2008-05-29 Hitachi Medical Corp Fluoroscopic x-ray equipment
US20150196265A1 (en) 2014-01-15 2015-07-16 Alara Systems, Inc Converting low-dose to higher dose mammographic images through machine-learning processes
JP2017205334A (en) 2016-05-19 2017-11-24 東芝メディカルシステムズ株式会社 Medical image processing device
JP2018005841A (en) 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device

Also Published As

Publication number Publication date
JP2019202087A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP7262933B2 (en) Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program
JP6985482B2 (en) X-ray computed tomography equipment, scan plan setting support equipment, medical diagnostic imaging system, control method and control program
US9717474B2 (en) Image processing apparatus, ultrasound diagnosis apparatus, and image processing method
US20180140270A1 (en) Methods and systems for patient scan setup
US9730659B2 (en) Multi-modality image acquisition
US12016722B2 (en) Medical information processing system and medical information processing method
CN111374690A (en) Medical imaging method and system
JP7233874B2 (en) Medical information processing device, X-ray diagnostic device and medical information processing program
JP2020099409A (en) Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method
JP7483361B2 (en) Medical image processing device, medical image diagnostic device, and medical image processing program
JP2022013679A (en) Medical image processing method, medical image processing apparatus and x-ray ct apparatus
JP7334034B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
JP7341667B2 (en) Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems
US11266377B2 (en) Support apparatus and support method
JP7443591B2 (en) Medical image diagnosis device and medical image diagnosis method
JP7166870B2 (en) Image processing device and medical imaging device
WO2024048374A1 (en) Image processing device, photographing system, image processing method, and program
US20240062371A1 (en) Information processing method, medical image diagnostic apparatus, and information processing system including deep learning for optimal cardiac phase selection
JP2024098862A (en) Medical image processing device, medical image processing method and program
US11404159B2 (en) Medical information processing system and medical information processing apparatus
US20240225582A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
US20220292655A1 (en) Medical image processing apparatus, x-ray diagnostic apparatus, and method of medical image processing
JP7426310B2 (en) X-ray computerized tomography imaging device
US20230153945A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
US11080898B2 (en) Adaptive processing of medical images to reduce noise magnitude

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7262933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150