JP7262933B2 - Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program - Google Patents
Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program Download PDFInfo
- Publication number
- JP7262933B2 JP7262933B2 JP2018101025A JP2018101025A JP7262933B2 JP 7262933 B2 JP7262933 B2 JP 7262933B2 JP 2018101025 A JP2018101025 A JP 2018101025A JP 2018101025 A JP2018101025 A JP 2018101025A JP 7262933 B2 JP7262933 B2 JP 7262933B2
- Authority
- JP
- Japan
- Prior art keywords
- learning data
- medical
- image data
- function
- ray image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 119
- 238000004519 manufacturing process Methods 0.000 title description 3
- 238000003384 imaging method Methods 0.000 claims description 261
- 238000002604 ultrasonography Methods 0.000 claims description 75
- 238000000034 method Methods 0.000 claims description 65
- 239000000523 sample Substances 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 49
- 238000001514 detection method Methods 0.000 claims description 31
- 238000003860 storage Methods 0.000 claims description 26
- 238000012937 correction Methods 0.000 claims description 20
- 230000005540 biological transmission Effects 0.000 claims description 13
- 206010047571 Visual impairment Diseases 0.000 claims description 10
- 230000005855 radiation Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 689
- 238000012545 processing Methods 0.000 description 234
- 238000006243 chemical reaction Methods 0.000 description 97
- 230000015654 memory Effects 0.000 description 75
- 238000010586 diagram Methods 0.000 description 30
- 238000002591 computed tomography Methods 0.000 description 25
- 239000000284 extract Substances 0.000 description 25
- 238000002603 single-photon emission computed tomography Methods 0.000 description 22
- 238000012549 training Methods 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 16
- 230000007246 mechanism Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 12
- 239000002872 contrast media Substances 0.000 description 11
- 210000004204 blood vessel Anatomy 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 8
- 229910052799 carbon Inorganic materials 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 229910052717 sulfur Inorganic materials 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 239000012217 radiopharmaceutical Substances 0.000 description 6
- 229940121896 radiopharmaceutical Drugs 0.000 description 6
- 230000002799 radiopharmaceutical effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 210000001015 abdomen Anatomy 0.000 description 3
- 230000003321 amplification Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000002594 fluoroscopy Methods 0.000 description 3
- 230000005251 gamma ray Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 2
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- TZCXTZWJZNENPQ-UHFFFAOYSA-L barium sulfate Chemical compound [Ba+2].[O-]S([O-])(=O)=O TZCXTZWJZNENPQ-UHFFFAOYSA-L 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- ZCYVEMRRCGMTRW-UHFFFAOYSA-N 7553-56-2 Chemical compound [I] ZCYVEMRRCGMTRW-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 206010036618 Premenstrual syndrome Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000003570 air Substances 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 230000002496 gastric effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910052740 iodine Inorganic materials 0.000 description 1
- 239000011630 iodine Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 229910052757 nitrogen Inorganic materials 0.000 description 1
- 210000004798 organs belonging to the digestive system Anatomy 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明の実施形態は、医用情報処理システム、医用情報処理装置、放射線診断装置、超音波診断装置、学習用データの生産方法及びプログラムに関する。 The embodiments of the present invention relate to a medical information processing system, a medical information processing apparatus, a radiological diagnostic apparatus, an ultrasonic diagnostic apparatus, a learning data production method, and a program.
機械学習を用いた画像処理技術が知られている。この技術では、例えば、ノイズの多寡が異なり、かつ、同一の領域を撮像した画像の組を学習用データとして用いることにより、画像中のノイズを除去する処理に組み込まれる学習済みモデルを生成する。ここで、機械学習を用いた画像処理技術を医用画像に適用することが考えられるが、医用画像に関する学習用データの収集は容易でない。 An image processing technique using machine learning is known. In this technique, for example, a set of images of the same area with different amounts of noise is used as learning data to generate a trained model that is incorporated in the process of removing noise in the image. Here, it is conceivable to apply image processing technology using machine learning to medical images, but it is not easy to collect data for learning about medical images.
本発明が解決しようとする課題は、医用画像に関する学習用データ不足を解消することである。 The problem to be solved by the present invention is to eliminate the shortage of learning data related to medical images.
実施形態の医用情報処理装置は、取得部と、特定部とを備える。取得部は、医用画像を取得する。特定部は、前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する。 A medical information processing apparatus according to an embodiment includes an acquisition unit and an identification unit. The acquisition unit acquires a medical image. The specifying unit specifies, among the medical images acquired by the acquiring unit, learning data including a set of medical images having at least one of different imaging conditions and subject conditions and having approximately the same imaging direction. do.
以下、図面を参照して、医用情報処理システム、医用情報処理装置、放射線診断装置、超音波診断装置、学習用データの生産方法及びプログラムの実施形態について詳細に説明する。 Hereinafter, embodiments of a medical information processing system, a medical information processing apparatus, a radiological diagnostic apparatus, an ultrasonic diagnostic apparatus, a learning data production method, and a program will be described in detail with reference to the drawings.
(第1の実施形態)
まず、第1の実施形態について説明する。第1の実施形態では、医用情報処理装置30を含んだ医用情報処理システム1を一例として説明する。
(First embodiment)
First, the first embodiment will be described. In the first embodiment, a medical
図1に示すように、第1の実施形態に係る医用情報処理システム1は、医用画像診断装置10と、画像保管装置20と、医用情報処理装置30とを備える。なお、図1は、第1の実施形態に係る医用情報処理システム1の構成の一例を示すブロック図である。図1に示すように、医用画像診断装置10、画像保管装置20及び医用情報処理装置30は、ネットワークNWを介して相互に接続される。
As shown in FIG. 1, the medical
医用画像診断装置10は、被検体から医用画像を収集する装置である。なお、データとして処理される医用画像については、医用画像データとも記載する。例えば、医用画像診断装置10は、被検体から医用画像データを収集し、収集した医用画像データを画像保管装置20及び医用情報処理装置30に送信する。例えば、医用画像診断装置10は、X線診断装置やX線CT(Computed Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT-CT装置、超音波診断装置等である。
A medical image diagnostic apparatus 10 is an apparatus that acquires medical images from a subject. Medical images processed as data are also referred to as medical image data. For example, the medical image diagnostic apparatus 10 collects medical image data from a subject and transmits the collected medical image data to the
画像保管装置20は、医用画像診断装置10によって収集された医用画像データを保管する装置である。例えば、画像保管装置20は、ネットワークNWを介して医用画像診断装置10から医用画像データを取得し、取得した医用画像データを装置内又は装置外に設けられたメモリに記憶させる。例えば、画像保管装置20は、サーバ装置等のコンピュータ機器によって実現される。
The
医用情報処理装置30は、ネットワークNWを介して医用画像データを取得し、取得した医用画像データを用いた種々の処理を実行する。例えば、医用情報処理装置30は、ネットワークNWを介して、医用画像診断装置10又は画像保管装置20から医用画像データを取得する。また、医用情報処理装置30は、取得した医用画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像データを組として含む学習用データを特定する。例えば、医用情報処理装置30は、ワークステーション等のコンピュータ機器によって実現される。
The medical
なお、ネットワークNWを介して接続可能であれば、医用画像診断装置10、画像保管装置20及び医用情報処理装置30が設置される場所は任意である。例えば、医用情報処理装置30は、医用画像診断装置10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。また、図1においては医用画像診断装置10を1つ示すが、医用情報処理システム1は、複数の医用画像診断装置10を含んでもよい。
The place where the medical image diagnostic apparatus 10, the
図1に示すように、医用情報処理装置30は、入力インターフェース31と、ディスプレイ32と、メモリ33と、処理回路34とを有する。
As shown in FIG. 1, the medical
入力インターフェース31は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インターフェース31は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース31は、医用情報処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース31は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用情報処理装置30とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路34へ出力する電気信号の処理回路も入力インターフェース31の例に含まれる。
The
ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、処理回路34による制御の下、医用画像診断装置10又は画像保管装置20から処理回路34が取得した医用画像や、処理回路34による変換処理後の医用画像を表示する。また、ディスプレイ32は、入力インターフェース31を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ32は、デスクトップ型でもよいし、医用情報処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。
The display 32 displays various information. For example, the display 32 displays medical images acquired by the processing circuit 34 from the medical image diagnostic apparatus 10 or the
メモリ33は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ33は、医用画像診断装置10又は画像保管装置20から取得した医用画像データを記憶する。また、例えば、メモリ33は、処理回路34が生成した学習用データセットや学習済みモデルを記憶する。また、例えば、メモリ33は、医用情報処理装置30に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、メモリ33は、医用情報処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。
The
処理回路34は、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gを実行することで、医用情報処理装置30全体の動作を制御する。ここで、取得機能34aは、取得部の一例である。また、特定機能34bは、特定部の一例である。また、学習用データセット生成機能34cは、学習用データセット生成部の一例である。また、モデル生成機能34dは、モデル生成部の一例である。また、変換機能34eは、変換部の一例である。また、制御機能34gは、制御部の一例である。
The processing circuit 34 executes an acquisition function 34a, a specific function 34b, a learning data
例えば、処理回路34は、取得機能34aに対応するプログラムをメモリ33から読み出して実行することにより、医用画像診断装置10又は画像保管装置20から、医用画像データを取得する。また、例えば、処理回路34は、特定機能34bに対応するプログラムをメモリ33から読み出して実行することにより、取得機能34aにより取得される医用画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像データを組として含む学習用データを特定する。
For example, the processing circuit 34 acquires medical image data from the medical image diagnostic apparatus 10 or the
また、例えば、処理回路34は、学習用データセット生成機能34cに対応するプログラムをメモリ33から読み出して実行することにより、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。また、例えば、処理回路34は、モデル生成機能34dに対応するプログラムをメモリ33から読み出して実行することにより、学習用データセットに基づいて、入力される医用画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる医用画像データに相当する医用画像データに変換する処理に組み込まれる学習済みモデルを生成する。
Further, for example, the processing circuit 34 reads a program corresponding to the learning data set
また、例えば、処理回路34は、変換機能34eに対応するプログラムをメモリ33から読み出して実行することにより、学習済みモデルに基づいて、入力される医用画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる医用画像データに相当する医用画像データに変換する変換処理を実行する。また、例えば、処理回路34は、出力機能34fに対応するプログラムをメモリ33から読み出して実行することにより、取得機能34aが取得した医用画像や変換機能34eによる変換処理後の医用画像をディスプレイ32に表示させたり、種々のデータ(学習用データ、学習用データセット、学習済みモデル、変換処理後の医用画像データ等)を外部装置に出力したりする。また、例えば、処理回路34は、制御機能34gに対応するプログラムをメモリ33から読み出して実行することにより、入力インターフェース31を介して操作者から受け付けた入力操作に基づいて、処理回路34の各種機能を制御する。
Further, for example, the processing circuit 34 reads the program corresponding to the conversion function 34e from the
図1に示す医用情報処理装置30においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ33へ記憶されている。処理回路34は、メモリ33からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路34は、読み出したプログラムに対応する機能を有することとなる。なお、図1においては単一の処理回路34にて、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路34が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。
In the medical
次に、医用画像データを収集する医用画像診断装置10について説明する。本実施形態では、医用画像診断装置10の一例として、図2に示すX線診断装置100について説明する。図2は、第1の実施形態に係るX線診断装置100の構成の一例を示すブロック図である。また、本実施形態では、医用画像データの一例として、2次元のX線画像データについて説明する。
Next, the medical image diagnostic apparatus 10 that collects medical image data will be described. In this embodiment, an X-ray
図2に示すように、X線診断装置100は、X線高電圧装置101と、X線管102と、コリメータ103と、フィルタ104と、天板105と、Cアーム106と、X線検出器107と、メモリ108と、ディスプレイ109と、入力インターフェース110と、処理回路111とを備える。
As shown in FIG. 2, the X-ray
X線高電圧装置101は、処理回路111による制御の下、X線管102に高電圧を供給する。例えば、X線高電圧装置101は、変圧器(トランス)及び整流器等の電気回路を有し、X線管102に印加する高電圧を発生する高電圧発生装置と、X線管102が照射するX線に応じた出力電圧の制御を行なうX線制御装置とを有する。なお、高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。
The X-ray high voltage device 101 supplies high voltage to the
X線管102は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管102は、X線高電圧装置101から供給される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。
The
コリメータ(X線絞り装置ともいう)103は、例えば、スライド可能な4枚の絞り羽根を有する。コリメータ103は、絞り羽根をスライドさせることで、X線管102が発生したX線を絞り込んで被検体P1に照射させる。ここで、絞り羽根は、鉛等で構成された板状部材であり、X線の照射範囲を調整するためにX線管102のX線照射口付近に設けられる。例えば、コリメータ103は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、X線の照射範囲を制御する。例えば、コリメータ103は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、絞り羽根の開度を調整して、被検体P1に対して照射されるX線の照射範囲を制御する。
A collimator (also called an X-ray diaphragm device) 103 has, for example, four slidable diaphragm blades. The
フィルタ104は、被検体P1に対する被ばく線量の低減とX線画像データの画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体P1に吸収されやすい軟線成分を低減したり、X線画像データのコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタ104は、その材質や厚み、位置等によってX線の線量及び照射範囲を変化させ、X線管102から被検体P1へ照射されるX線が予め定められた分布になるようにX線を減衰させる。例えば、フィルタ104は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、駆動機構を動作させることにより移動する。例えば、フィルタ104は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することによりその位置を調整して、被検体P1に対して照射されるX線の線量の分布を制御する。
The
天板105は、被検体P1を載せるベッドであり、図示しない寝台の上に配置される。なお、被検体P1は、X線診断装置100に含まれない。例えば、寝台は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、駆動機構を動作させることにより、天板105の移動・傾斜を制御する。例えば、寝台は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、天板105を移動させたり、傾斜させたりする。
The
Cアーム106は、X線管102、コリメータ103及びフィルタ104と、X線検出器107とを、被検体P1を挟んで対向するように保持する。例えば、Cアーム106は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路111による制御の下、駆動機構を動作させることにより、回転したり移動したりする。例えば、Cアーム106は、処理回路111から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、X線管102、コリメータ103及びフィルタ104と、X線検出器107とを被検体P1に対して回転・移動させ、X線の照射位置や照射角度を制御する。なお、図2では、X線診断装置100がシングルプレーンの場合を例に挙げて説明しているが、実施形態はこれに限定されるものではなく、バイプレーンの場合であってもよい。また、図2では、X線診断装置100が循環器診断用のX線診断装置である場合を例に挙げて説明しているが、実施形態はこれに限定されるものではない。例えば、X線診断装置100は、一般X線診断装置、消化器用X線TV装置、マンモグラフィ装置等、種々のX線診断装置であってもよい。Cアーム106は、X線管およびX線検出器のうち少なくとも一方を保持する保持部、保持機構および保持装置の一例である。
The C-
X線検出器107は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器107は、X線管102から照射されて被検体P1を透過したX線を検出して、検出したX線量に対応した検出信号を処理回路111へと出力する。なお、X線検出器107は、グリッド、シンチレータアレイ及び光センサアレイを有する間接変換型の検出器であってもよいし、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。また、X線検出器107は、検出面に垂直な軸を回転軸として、回転可能に構成されてもよい。即ち、X線検出器107は、検出面内で回転可能に構成されてもよい。以下では、検出面内でのX線検出器107の回転角を、面内回転角とも記載する。なお、X線検出器107は、検出器の一例である。
The
メモリ108は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ108は、処理回路111によって収集されたX線画像データを受け付けて記憶する。また、メモリ108は、処理回路111によって読み出されて実行される各種機能に対応するプログラムを記憶する。なお、メモリ108は、X線診断装置100とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。
The memory 108 is implemented by, for example, a RAM, a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. For example, memory 108 receives and stores x-ray image data acquired by processing circuitry 111 . The memory 108 also stores programs corresponding to various functions read and executed by the processing circuit 111 . Note that the memory 108 may be realized by a server group (cloud) connected to the X-ray
ディスプレイ109は、各種の情報を表示する。例えば、ディスプレイ109は、処理回路111による制御の下、操作者の指示を受け付けるためのGUIや、各種のX線画像を表示する。例えば、ディスプレイ109は、液晶ディスプレイやCRTディスプレイである。なお、ディスプレイ109はデスクトップ型でもよいし、処理回路111と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 109 displays various information. For example, the display 109 displays a GUI for accepting operator's instructions and various X-ray images under the control of the processing circuit 111 . For example, display 109 is a liquid crystal display or a CRT display. The display 109 may be of a desktop type, or may be configured by a tablet terminal or the like capable of wireless communication with the processing circuit 111 .
入力インターフェース110は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路111に出力する。例えば、入力インターフェース110は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース110は、処理回路111と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース110は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、X線診断装置100とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路111へ出力する電気信号の処理回路も入力インターフェース110の例に含まれる。
The input interface 110 receives various input operations from an operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 111 . For example, the input interface 110 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad that performs input operations by touching an operation surface, a touch screen that integrates a display screen and a touch pad, and an optical sensor. It is realized by the used non-contact input circuit, voice input circuit, or the like. Note that the input interface 110 may be configured by a tablet terminal or the like capable of wireless communication with the processing circuit 111 . Also, the input interface 110 is not limited to having physical operation parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the X-ray
処理回路111は、収集機能111a、出力機能111b及び制御機能111cを実行することで、X線診断装置100全体の動作を制御する。
The processing circuit 111 controls the overall operation of the X-ray
例えば、処理回路111は、メモリ108から収集機能111aに相当するプログラムを読み出して実行することにより、X線画像データを収集する。例えば、収集機能111aは、X線高電圧装置101を制御し、X線管102に供給する電圧を調整することで、被検体P1に対して照射されるX線量やオン/オフを制御する。
For example, the processing circuit 111 acquires X-ray image data by reading out a program corresponding to the acquisition function 111a from the memory 108 and executing the program. For example, the acquisition function 111a controls the X-ray high-voltage device 101 and adjusts the voltage supplied to the
また、収集機能111aは、撮像対象領域や撮像方向を制御する。ここで、本実施形態において、撮像対象領域とは、被検体P1の部位のうちX線画像により描出される部分を指し、撮像方向とは、被検体P1に対するX線照射に関する方向を指す。例えば、収集機能111aは、コリメータ103を制御し、絞り羽根の開度を調整することで、被検体P1に対して照射されるX線の照射範囲を制御する。また、収集機能111aは、フィルタ104を制御し、フィルタ104の位置を調整することで、X線の線量の分布を制御する。また、収集機能111aは、Cアーム106の動作を制御することで、Cアーム106を回転させたり、移動させたりする。また、例えば、収集機能111aは、寝台の動作を制御することで、天板105を移動させたり、傾斜させたりする。
Also, the acquisition function 111a controls an imaging target area and an imaging direction. Here, in the present embodiment, the imaging target area refers to a portion of the subject P1 that is visualized by an X-ray image, and the imaging direction refers to the direction of X-ray irradiation to the subject P1. For example, the acquisition function 111a controls the irradiation range of X-rays with which the subject P1 is irradiated by controlling the
以下では、医用画像診断装置10において撮像に用いられる機構を、撮像部とも記載する。例えば、X線診断装置100の撮像部は、X線管102、コリメータ103、フィルタ104、天板105、Cアーム106及びX線検出器107を含む。収集機能111aは、撮像部の一部又は全部を制御することにより、撮像対象領域や撮像方向を制御する。
Hereinafter, a mechanism used for imaging in the medical image diagnostic apparatus 10 is also referred to as an imaging unit. For example, the imaging unit of the X-ray
また、収集機能111aは、X線検出器107から受信した検出信号に基づいてX線画像データを生成し、生成したX線画像データをメモリ108に格納する。この際、収集機能111aは、生成したX線画像データの付帯情報に、撮像対象領域や撮像方向、患者ID、検査種別、検査日時、X線検出器107の面内回転角等を記録することとしてもよい。
The acquisition function 111 a also generates X-ray image data based on the detection signal received from the
例えば、収集機能111aは、X線管102の向きに応じて撮像方向を特定し、X線画像データの付帯情報に記録する。例えば、収集機能111aは、まず、被検体Pを基準とした方向を定義する。一例を挙げると、収集機能111aは、被検体P1の体軸方向(被検体P1の横断面に垂直な方向)をT方向として定義する。また、収集機能111aは、被検体P1の左右方向(被検体P1のサジタル面に垂直な方向)をS方向として定義する。また、収集機能111aは、被検体P1の前後方向(被検体P1のコロナル面に垂直な方向)をC方向として定義する。なお、以下では、T方向、S方向及びC方向が相互に直交するものとして説明する。
For example, the acquisition function 111a identifies the imaging direction according to the orientation of the
例えば、被検体P1は、天板105の長手方向に沿って仰向けに載置される。この場合、収集機能111aは、天板105の傾斜情報を用いて、図3の左図に示すように、天板105の長手方向をT方向として定義し、天板105の短手方向をS方向として定義し、天板105に垂直な方向をC方向として定義する。また、収集機能111aは、図3の左図に示すように、撮像方向を特定する。具体的には、収集機能111aは、T方向、S方向及びC方向を基準とし、X線管102の向きを撮像方向として特定する。なお、図3は、第1の実施形態に係る撮像方向について説明するための図である。
For example, the subject P1 is placed face up along the longitudinal direction of the
ここで、図3の左図に示すように、収集機能111aがCアーム106の回転動作を行なうことによって、被検体Pに対するX線管102の向きは変化する。即ち、Cアーム106の回転動作により、撮像方向は変化する。この場合、収集機能111aは、図3の右図に示すように、T方向、S方向及びC方向を基準として、回転動作後のX線管102の向きを撮像方向として特定する。
Here, as shown in the left diagram of FIG. 3, the orientation of the
また、収集機能111aは、天板105の傾斜(チルト)を考慮して、撮像方向を特定してもよい。即ち、図4の左図に示すように、収集機能111aが天板105を傾斜(チルト)させることによって、X線管102に対する被検体Pの向きは変化する。この場合、収集機能111aは、チルト後の天板105の傾斜情報を用いて、T方向、S方向及びC方向を再度定義する。そして、収集機能111aは、図4の右図に示すように、再度定義したT方向、S方向及びC方向を基準とし、X線管102の向きを撮像方向として特定する。なお、図4は、第1の実施形態に係る撮像方向について説明するための図である。
Also, the collection function 111a may specify the imaging direction in consideration of the tilt of the
なお、収集機能111aは、撮像方向として、臨床角を特定してもよいし、撮像方向を示す値を特定してもよい。例えば、心臓の検査において収集されたX線画像データについて、収集機能111aは、CRA、CAU、LAO、RAO等の臨床角を撮像方向として特定し、X線画像データの付帯情報に記録する。また、例えば、収集機能111aは、T方向、S方向及びC方向から成るTSC座標系を定義し、この座標系における単位ベクトルを撮像方向として特定する。一例を挙げると、撮像方向がC方向に一致する場合、収集機能111aは、TSC座標系において(0,0,1)を撮像方向として特定し、X線画像データの付帯情報に記録する。 Note that the acquisition function 111a may specify the clinical angle as the imaging direction, or may specify a value indicating the imaging direction. For example, for X-ray image data acquired in heart examination, the acquisition function 111a identifies clinical angles such as CRA, CAU, LAO, and RAO as imaging directions, and records them in supplementary information of the X-ray image data. Also, for example, the acquisition function 111a defines a TSC coordinate system consisting of the T, S, and C directions, and specifies a unit vector in this coordinate system as the imaging direction. For example, when the imaging direction coincides with the C direction, the acquisition function 111a specifies (0, 0, 1) as the imaging direction in the TSC coordinate system and records it in the incidental information of the X-ray image data.
また、収集機能111aは、Cアーム106の位置やコリメータ103における絞り羽根の開度等に応じて撮像対象領域を特定し、X線画像データの付帯情報に記録する。例えば、収集機能111aは、まず、被検体Pを基準とした方向及び基準位置を定義する。一例を挙げると、収集機能111aは、T方向、S方向及びC方向から成るTSC座標系を定義し、T座標、S座標及びC座標を用いて、撮像対象領域を特定する。
In addition, the acquisition function 111a specifies an imaging target area according to the position of the C-
例えば、収集機能111aは、まず、Cアーム106の位置に基づいて、アイソセンタ(Cアーム106の回転中心)を特定する。次に、収集機能111aは、アイソセンタを通り、かつ、撮像方向に平行な直線を特定する。そして、収集機能111aは、コリメータ103における絞り羽根の開度に基づき、特定した直線を軸とする柱状領域又は錐状領域として、撮像対象領域を特定する。一例を挙げると、コリメータ103が4枚の絞り羽根を有する場合、収集機能111aは、X線焦点を頂点とし、特定した直線を軸とする四角錐状の領域を、撮像対象領域として特定する。
For example, the acquisition function 111a first identifies the isocenter (the center of rotation of the C-arm 106) based on the position of the C-
以下では、+T方向が被検体Pの上側(頭側)の方向であり、-T方向が被検体Pの下側(足側)の方向であるものとして説明する。例えば、Cアーム106が+T方向に平行移動する場合、撮像対象領域は、+T方向に平行移動する。また、コリメータ103における絞り羽根の動作を制御する場合、撮像対象領域は、絞り羽根の開度に応じて、拡大または縮小する。例えば、収集機能111aは、Cアーム106の位置、及び、コリメータ103における絞り羽根の開度に基づいて、撮像対象領域を特定することができる。
In the following description, the +T direction is the upper side (head side) of the subject P, and the −T direction is the lower side (foot side) of the subject P. For example, when the C-
また、収集機能111aは、天板105の平行移動(スライド)を考慮して、撮像対象領域を特定してもよい。即ち、収集機能111aが天板105をスライドさせることによって、天板105とCアーム106との相対的な位置関係は変化し、撮像対象領域も変化する。例えば、天板105が+T方向に平行移動する場合、撮像対象領域は、-T方向に平行移動する。この場合、収集機能111aは、例えば、天板105とCアーム106との相対的な位置関係、及び、コリメータ103における絞り羽根の開度に基づいて、撮像対象領域を特定する。
In addition, the collection function 111a may specify the imaging target area in consideration of parallel movement (sliding) of the
なお、収集機能111aは、撮像対象領域として、撮像対象部位を特定してもよいし、撮像対象領域を示す値を特定してもよい。例えば、収集機能111aは、「心臓」、「右肺」、「頭部」等の撮像対象部位を撮像対象領域として特定し、X線画像データの付帯情報に記録する。また、例えば、収集機能111aは、T方向、S方向及びC方向から成るTSC座標系を定義し、この座標系における3次元領域を撮像対象領域として特定して、X線画像データの付帯情報に記録する。 Note that the collection function 111a may specify an imaging target region as the imaging target region, or may specify a value indicating the imaging target region. For example, the acquisition function 111a specifies imaging target regions such as "heart", "right lung", and "head" as imaging target regions, and records them in the supplementary information of the X-ray image data. Also, for example, the acquisition function 111a defines a TSC coordinate system consisting of the T, S, and C directions, specifies a three-dimensional area in this coordinate system as an imaging target area, and uses the incidental information of the X-ray image data. Record.
また、収集機能111aは、メモリ108が記憶するX線画像データに対して各種画像処理を行なってもよい。例えば、収集機能111aは、X線画像データに対して、画像処理フィルタによるノイズ低減処理や、散乱線補正を実行する。 The acquisition function 111a may also perform various image processing on the X-ray image data stored in the memory 108. FIG. For example, the acquisition function 111a performs noise reduction processing using an image processing filter and scattered radiation correction on X-ray image data.
また、処理回路111は、メモリ108から出力機能111bに相当するプログラムを読み出して実行することにより、ディスプレイ109にGUIやX線画像を表示させる。また、出力機能111bは、X線画像データを、画像保管装置20や医用情報処理装置30に出力する。また、処理回路111は、メモリ108から制御機能111cに相当するプログラムを読み出して実行することにより、入力インターフェース110を介して操作者から受け付けた入力操作に基づいて、処理回路111の各種機能を制御する。
In addition, the processing circuit 111 reads a program corresponding to the output function 111b from the memory 108 and executes it to display a GUI and an X-ray image on the display 109 . The output function 111b also outputs the X-ray image data to the
図2に示すX線診断装置100においては、各処理機能がコンピュータによって実行可能なプログラムの形態でメモリ108へ記憶されている。処理回路111は、メモリ108からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路111は、読み出したプログラムに対応する機能を有することとなる。なお、図2においては、収集機能111a、出力機能111b及び制御機能111cの各処理機能が単一の処理回路111によって実現される場合を示したが、実施形態はこれに限られるものではない。例えば、処理回路111は、複数の独立したプロセッサを組み合わせて構成され、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路111が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。
In the X-ray
上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ33又はメモリ108に保存されたプログラムを読み出し実行することで機能を実現する。
The term "processor" used in the above description includes, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., a simple programmable logic device ( Circuits such as Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). The processor implements its functions by reading and executing programs stored in the
なお、図1及び図2においては、単一のメモリ33又はメモリ108が各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、複数のメモリ33を分散して配置し、処理回路34は、個別のメモリ33から対応するプログラムを読み出す構成としても構わない。同様に、複数のメモリ108を分散して配置し、処理回路111は、個別のメモリ108から対応するプログラムを読み出す構成としても構わない。また、メモリ33及びメモリ108にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
1 and 2, it is assumed that the
また、処理回路34及び処理回路111は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路34は、メモリ33から各機能に対応するプログラムを読み出して実行するとともに、医用情報処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。また、例えば、処理回路34は、メモリ33から各機能に対応するプログラムを読み出して実行するとともに、処理回路111を計算資源として利用することにより、図1に示す各機能を実現する。
Also, the processing circuit 34 and the processing circuit 111 may realize their functions using a processor of an external device connected via the network NW. For example, the processing circuit 34 reads and executes a program corresponding to each function from the
以上、医用情報処理システム1の構成の一例について説明した。かかる構成の下、医用情報処理システム1における医用情報処理装置30は、医用画像に関する学習用データ不足を解消する。具体的には、医用情報処理装置30は、以下詳細に説明する処理回路34による処理によってX線画像データを取得し、取得したX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定することで、医用画像に関する学習用データ不足を解消する。以下、第1の実施形態に係る医用情報処理装置30が行なう処理について詳細に説明する。
An example of the configuration of the medical
まず、取得機能34aは、X線診断装置100又は画像保管装置20からX線画像データを取得する。例えば、取得機能34aは、図5に示すように、X線診断装置100から、X線画像データI1及びX線画像データI2を含む複数のX線画像データを取得する。なお、図5は、第1の実施形態に係る処理回路34による処理について説明するための図である。
First, the acquisition function 34 a acquires X-ray image data from the X-ray
ここで、取得機能34aは、メモリ108に記憶されたX線画像データを取得してもよいし、収集機能111aにより収集されたX線画像データをメモリ108を介すことなく取得してもよい。また、取得機能34aは、画像保管装置20に記憶されたX線画像データを取得する場合であってもよい。また、取得機能34aは、取得したX線画像データをメモリ33に記憶させることとしてもよい。
Here, the acquisition function 34a may acquire X-ray image data stored in the memory 108, or may acquire X-ray image data acquired by the acquisition function 111a without using the memory 108. . Alternatively, the acquisition function 34 a may acquire X-ray image data stored in the
次に、特定機能34bは、取得機能34aにより取得されたX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定する。 Next, the specifying function 34b selects X-ray image data in which at least one of the imaging condition and the subject condition is different from the X-ray image data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify training data to include as a set.
例えば、特定機能34bは、まず、取得機能34aにより取得されたX線画像データのうち、同一検査内で収集されたX線画像データの組を特定する。一例を挙げると、特定機能34bは、撮像対象となった被検体及び検査種別が同一であり、かつ、同日に収集されたX線画像データの組を特定する。 For example, the specifying function 34b first specifies a set of X-ray image data acquired in the same examination among the X-ray image data acquired by the acquiring function 34a. To give an example, the specifying function 34b specifies a set of X-ray image data acquired on the same day and having the same imaging subject and examination type.
例えば、特定機能34bは、各X線画像データの付帯情報に基づいて、各X線画像データの撮像対象となった被検体の情報を取得し、撮像対象となった被検体が同一であるX線画像データの組を特定する。一例を挙げると、X線画像データがDICOM(Digital Imaging and Communications in Medicine)形式である場合、特定機能34bは、タグ「(0010,0020) Patient ID」に記録された患者IDに基づいて、撮像対象となった被検体が同一であるX線画像データの組を特定する。 For example, the specifying function 34b acquires information on the subject that is the imaging target of each X-ray image data based on the incidental information of each X-ray image data, Identify a set of line image data. For example, if the X-ray image data is in DICOM (Digital Imaging and Communications in Medicine) format, the specific function 34b performs imaging based on the patient ID recorded in the tag "(0010,0020) Patient ID". A set of X-ray image data in which the object of interest is the same is identified.
次に、特定機能34bは、撮像対象となった被検体が同一であるX線画像データの組のうち、検査種別が同一であるX線画像データの組を特定する。一例を挙げると、特定機能34bは、各X線画像データの付帯情報に基づいて、各X線画像データに関する検査が通常検査であるか緊急検査であるか等の検査種別を取得する。そして、特定機能34bは、各X線画像データの検査種別を比較することで、検査種別が同一であるX線画像データの組を特定する。 Next, the specifying function 34b specifies a set of X-ray image data of the same examination type among the sets of X-ray image data of the same subject that is the imaging target. For example, the specifying function 34b acquires an examination type such as whether the examination for each X-ray image data is a normal examination or an emergency examination based on the incidental information of each X-ray image data. Then, the identifying function 34b identifies a set of X-ray image data having the same examination type by comparing the examination type of each X-ray image data.
更に、特定機能34bは、撮像対象となった被検体及び検査種別が同一であるX線画像データの組のうち、同日に収集されたX線画像データの組を特定する。一例を挙げると、特定機能34bは、各X線画像データの付帯情報に基づいて、各X線画像データに関する検査が実行された検査日時を取得する。そして、特定機能34bは、各X線画像データの検査日時を比較することで、同日に収集されたX線画像データの組を特定する。即ち、特定機能34bは、撮像対象となった被検体及び検査種別が同一であるX線画像データの組のうち、同日に収集されたX線画像データの組を、同一検査内で収集されたX線画像データの組として特定する。 Furthermore, the specifying function 34b specifies a set of X-ray image data acquired on the same day, among sets of X-ray image data having the same subject to be imaged and examination type. For example, the specifying function 34b acquires the examination date and time when the examination for each X-ray image data was performed based on the incidental information of each X-ray image data. Then, the specifying function 34b specifies a set of X-ray image data acquired on the same day by comparing the examination date and time of each X-ray image data. That is, the specifying function 34b selects a set of X-ray image data acquired on the same day, among sets of X-ray image data having the same subject to be imaged and the same examination type, as a set of X-ray image data acquired in the same examination. It is specified as a set of X-ray image data.
次に、特定機能34bは、同一検査内で収集されたX線画像データの組のうち、撮像方向が略一致するX線画像データの組を特定する。例えば、特定機能34bは、同一検査内で収集されたX線画像データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。ここで、特定機能34bは、各X線画像データの撮像対象領域及び撮像方向を、各X線画像データの付帯情報に基づいて取得することができる。 Next, the specifying function 34b specifies a set of X-ray image data whose imaging directions are substantially the same among the sets of X-ray image data acquired in the same examination. For example, the identifying function 34b identifies, among sets of X-ray image data acquired in the same examination, sets of X-ray image data in which at least a part of the imaging target region overlaps and whose imaging directions are substantially the same. do. Here, the specifying function 34b can acquire the imaging target region and the imaging direction of each X-ray image data based on the incidental information of each X-ray image data.
例えば、特定機能34bは、まず、同一検査内で収集されたX線画像データの組の間で、撮像方向が略一致しているか否かを判定する。一例を挙げると、心臓の検査において収集された各X線画像データについて、収集機能111aは、CRA、CAU、LAO、RAO等の臨床角を撮像方向として特定し、各X線画像データの付帯情報に記録する。この場合、特定機能34bは、各X線画像データの付帯情報から取得した臨床角を相互に比較し、臨床角が一致している場合、撮像方向が略一致していると判定する。別の例を挙げると、収集機能111aは、各X線画像データの撮像方向として、撮像方向を示す単位ベクトルを特定する。この場合、特定機能34bは、各X線画像データの付帯情報から取得した単位ベクトルについて内積を算出し、内積が閾値以上である場合に、撮像方向が略一致していると判定する。 For example, the specifying function 34b first determines whether or not the imaging directions of sets of X-ray image data acquired in the same examination substantially match. For example, the acquisition function 111a specifies clinical angles such as CRA, CAU, LAO, and RAO for each X-ray image data acquired in a heart examination as an imaging direction, and to record. In this case, the specifying function 34b compares the clinical angles acquired from the supplementary information of each X-ray image data, and determines that the imaging directions substantially match when the clinical angles match. To give another example, the acquisition function 111a identifies a unit vector indicating the imaging direction as the imaging direction of each piece of X-ray image data. In this case, the specifying function 34b calculates the inner product of the unit vectors acquired from the incidental information of each X-ray image data, and determines that the imaging directions substantially match when the inner product is equal to or greater than the threshold.
上述したように、収集機能111aは、X線管102の向きや天板105の傾斜情報等、撮像部の配置に基づいて撮像方向を特定し、X線画像データの付帯情報に撮像方向を記録する。そして、特定機能34bは、X線画像データの付帯情報から取得した撮像方向に基づいて、撮像方向が略一致するX線画像データの組の特定を行なう。即ち、特定機能34bは、撮像部の配置に基づいて、撮像方向が略一致するX線画像データの組の特定を行なう。
As described above, the acquisition function 111a identifies the imaging direction based on the arrangement of the imaging unit such as the orientation of the
また、例えば、特定機能34bは、撮像方向が略一致していると判定したX線画像データの組の間で、撮像対象領域の少なくとも一部が重複しているか否かを判定する。一例を挙げると、各X線画像データについて、収集機能111aは、TSC座標系において特定した3次元領域を、撮像対象領域としてX線画像データの付帯情報に記録する。この場合、特定機能34bは、各X線画像データの付帯情報から取得した3次元領域を相互に比較し、3次元領域の少なくとも一部が重複している場合、撮像対象領域の少なくとも一部が重複していると判定する。別の例を挙げると、収集機能111aは、各X線画像データについて、アイソセンタの位置情報をX線画像データの付帯情報に記録する。この場合、特定機能34bは、各X線画像データの付帯情報から取得したアイソセンタの位置間の距離が閾値以下である場合に、撮像対象領域の少なくとも一部が重複していると判定する。 Also, for example, the specifying function 34b determines whether or not at least a part of the imaging target region overlaps between sets of X-ray image data determined to have approximately the same imaging direction. For example, for each piece of X-ray image data, the acquisition function 111a records the three-dimensional area specified in the TSC coordinate system in the incidental information of the X-ray image data as an imaging target area. In this case, the specifying function 34b mutually compares the three-dimensional regions acquired from the incidental information of each X-ray image data, and if at least a part of the three-dimensional regions overlaps, at least a part of the imaging target region is determined to be duplicates. To give another example, the acquisition function 111a records the position information of the isocenter in the supplementary information of the X-ray image data for each X-ray image data. In this case, the specifying function 34b determines that at least a part of the imaging target regions overlap when the distance between the isocenter positions obtained from the incidental information of each X-ray image data is equal to or less than the threshold.
上述したように、収集機能111aは、天板105とCアーム106との位置関係や、コリメータ103における絞り羽根の開度等、撮像部の配置に基づいて撮像対象領域を取得し、X線画像データの付帯情報に記録する。或いは、収集機能111aは、天板105とCアーム106との位置関係等、撮像部の配置に基づいてアイソセンタの位置情報を取得し、X線画像データの付帯情報に記録する。そして、特定機能34bは、X線画像データの付帯情報から取得した撮像対象領域、又は、アイソセンタの位置情報に基づいて、撮像対象領域の少なくとも一部が重複するX線画像データの組の特定を行なう。即ち、特定機能34bは、撮像部の配置に基づいて、撮像対象領域の少なくとも一部が重複するX線画像データの組の特定を行なう。
As described above, the acquisition function 111a acquires an imaging target region based on the positional relationship between the
ここで、特定機能34bは、撮像対象領域の一部が重複し、かつ、撮像対象領域の全部が重複していないX線画像データの組について、X線画像データ間の位置合わせを行なうこととしてもよい。例えば、特定機能34bは、撮像対象領域の一部が重複するX線画像データの組において、各X線画像データから解剖学的特徴点(ランドマーク)を抽出する。次に、特定機能34bは、平行移動、拡大/縮小等の処理によって、X線画像データ間の解剖学的特徴点が重なるように位置合わせを行なう。そして、特定機能34bは、位置合わせしたX線画像データの組を学習用データとして特定する。なお、特定機能34bは、撮像対象領域の全部が重複するX線画像データの組については、位置合わせを実行せず、そのまま学習用データとして特定する。 Here, the specifying function 34b performs alignment between X-ray image data for a set of X-ray image data in which a part of the imaging target region overlaps and the entire imaging target region does not overlap. good too. For example, the specifying function 34b extracts anatomical feature points (landmarks) from each piece of X-ray image data in a set of X-ray image data in which part of the imaging target region overlaps. Next, the specifying function 34b carries out registration such that the anatomical feature points of the X-ray image data are overlapped by processing such as translation and enlargement/reduction. Then, the identifying function 34b identifies a set of aligned X-ray image data as learning data. Note that the specifying function 34b specifies a set of X-ray image data in which the entire imaging target region overlaps as learning data without performing alignment.
また、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でないX線画像データの組について、X線画像データ間の角度補正を行なうこととしてもよい。例えば、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でないX線画像データの組において、X線画像データ間の撮像方向の差に基づく台形補正や、各X線画像データから抽出した解剖学的特徴点に基づく変形処理等の角度補正を行なう。そして、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。なお、特定機能34bは、撮像方向が同一であるX線画像データの組については、角度補正を実行せず、そのまま学習用データとして特定する。 Further, the specifying function 34b may perform angle correction between X-ray image data for a set of X-ray image data whose imaging directions are substantially the same and which are not the same. For example, the specific function 34b performs trapezoidal correction based on the difference in imaging direction between X-ray image data sets in a set of X-ray image data whose imaging directions are substantially the same but are not the same. Angle correction such as deformation processing is performed based on the anatomical feature points extracted from . Then, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. Note that the identifying function 34b identifies sets of X-ray image data having the same imaging direction as learning data without executing angle correction.
また、特定機能34bは、X線画像データの撮像時におけるX線検出器107の面内回転角に基づいて、X線画像データの回転補正を行なうこととしてもよい。例えば、収集機能111aは、X線検出器107の基準状態(面内回転角が0°である状態)を定義し、基準状態からのX線検出器107の回転量を面内回転角として取得し、X線画像データの付帯情報に記録する。一例を挙げると、X線画像データがDICOM形式である場合、収集機能111aは、DICOMのプライベートタグに面内回転角を記録する。
Further, the specifying function 34b may correct the rotation of the X-ray image data based on the in-plane rotation angle of the
例えば、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組における少なくとも一方のX線画像データについて、回転補正を実行する。一例を挙げると、特定機能34bは、面内回転角(基準状態からのX線検出器107の回転量)を相殺するように、各X線画像データの回転補正を実行する。
これにより、特定機能34bは、各X線画像データの向きを揃えることができる。そして、特定機能34bは、向きが揃った状態のX線画像データの組を、学習用データとして特定する。
For example, the specifying function 34b performs rotation correction on at least one piece of X-ray image data in a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. For example, the specific function 34b executes rotation correction of each X-ray image data so as to offset the in-plane rotation angle (rotation amount of the
Thereby, the specific function 34b can align the orientation of each X-ray image data. Then, the specifying function 34b specifies a set of X-ray image data with aligned orientations as learning data.
或いは、特定機能34bは、まず、同一検査内で収集されたX線画像データの組における少なくとも一方のX線画像データについて、回転補正を実行する。次に、特定機能34bは、回転補正後のX線画像データの組から、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。これにより、特定機能34bは、向きが揃った状態のX線画像データの組を、学習用データとして特定する。 Alternatively, the specification function 34b first performs rotational correction on at least one piece of X-ray image data in a set of X-ray image data acquired within the same examination. Next, the specifying function 34b specifies, from the sets of X-ray image data after rotation correction, sets of X-ray image data in which at least a part of the imaging target region overlaps and in which the imaging directions are substantially the same. As a result, the identifying function 34b identifies a set of X-ray image data with aligned orientations as learning data.
次に、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データの組から成る学習用データを特定する。 Next, the specifying function 34b selects a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same, and at least one of the imaging condition and the subject condition is different. Identify training data consisting of a set of X-ray image data.
ここで、X線画像データについて撮像の条件とは、例えば、X線の照射に関する条件やX線の検出に関する条件等である。なお、X線の照射に関する条件の例としては、管電流値、管電圧値、照射時間等が挙げられる。また、X線の検出に関する条件の例としては、X線検出器107が備える検出素子の数、X線検出器107のビニング数、X線検出器107の種類(間接変換型/直接変換型)等が挙げられる。
Here, the imaging conditions for the X-ray image data are, for example, conditions related to irradiation of X-rays, conditions related to detection of X-rays, and the like. Incidentally, examples of conditions related to X-ray irradiation include a tube current value, a tube voltage value, an irradiation time, and the like. Examples of conditions related to X-ray detection include the number of detection elements included in the
また、X線画像データについて被検体の条件とは、例えば、造影条件等である。なお、造影条件の例としては、被検体の血管や消化器等に注入された造影剤の種類及び量、造影剤注入後の経過時間等が挙げられる。例えば、被検体の血管に注入される造影剤の種類には、被検体の周辺組織よりX線減弱係数の大きな陽性造影剤(ヨードや硫酸バリウムを主成分とする造影剤等)と、被検体の周辺組織よりX線減弱係数の小さな陰性造影剤(二酸化炭素や酸素、窒素、空気を主成分とする気体造影剤等)とがある。 In addition, the condition of the subject for the X-ray image data is, for example, the contrast condition. Examples of contrast conditions include the type and amount of the contrast medium injected into the subject's blood vessels, digestive organs, and the like, and the elapsed time after injection of the contrast medium. For example, the types of contrast agents injected into the blood vessels of the subject include positive contrast agents (contrast agents mainly composed of iodine and barium sulfate, etc.) that have larger X-ray attenuation coefficients than the surrounding tissue of the subject, and There are negative contrast agents (gas contrast agents mainly composed of carbon dioxide, oxygen, nitrogen, air, etc.) that have a smaller X-ray attenuation coefficient than the surrounding tissue.
以下では一例として、図5に示すX線画像データI1に係る管電流値が、X線画像データI2に係る管電流値よりも小さい場合について説明する。即ち、以下では、X線画像データI1とX線画像データI2との撮像の条件が異なる場合について説明する。また、図5に示すように、X線画像データI1とX線画像データI2とは、撮像対象領域が略重複し、かつ、撮像方向が略一致するX線画像データの組である。従って、特定機能34bは、撮像の条件が異なるX線画像データI1とX線画像データI2との組を、学習用データとして特定する。 As an example, a case where the tube current value related to the X-ray image data I1 shown in FIG. 5 is smaller than the tube current value related to the X-ray image data I2 will be described below. That is, the case where the imaging conditions of the X-ray image data I1 and the X-ray image data I2 are different will be described below. Further, as shown in FIG. 5, the X-ray image data I1 and the X-ray image data I2 are a set of X-ray image data having substantially overlapping imaging target regions and substantially matching imaging directions. Therefore, the specifying function 34b specifies a set of X-ray image data I1 and X-ray image data I2 with different imaging conditions as learning data.
ここで、X線画像データI2よりも小さい管電流値(低線量)で撮像されたX線画像データI1は、X線画像データI2よりも多くのノイズを含んでいる。即ち、X線画像データI1とX線画像データI2との組は、ノイズの程度が異なる医用画像の組の一例である。 Here, the X-ray image data I1 imaged with a smaller tube current value (low dose) than the X-ray image data I2 contains more noise than the X-ray image data I2. That is, the set of the X-ray image data I1 and the X-ray image data I2 is an example of a set of medical images having different degrees of noise.
なお、特定機能34bは、X線画像データの組について、学習用データとして特定するか否かを判定してもよい。例えば、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でないX線画像データの組についてX線画像データ間の角度補正を行なった場合に、角度補正したX線画像データの組を学習用データとして特定するか否かを判定してもよい。例えば、特定機能34bは、まず、角度補正したX線画像データの組について、画像間の比較を行なう。 Note that the specifying function 34b may determine whether or not to specify a set of X-ray image data as learning data. For example, when performing angle correction between X-ray image data for a set of X-ray image data whose imaging directions are substantially the same but whose imaging directions are not the same, the specifying function 34b performs angle correction of the angle-corrected X-ray image data. It may be determined whether or not to specify a set as learning data. For example, the specification function 34b first performs an image-to-image comparison for sets of angle-corrected X-ray image data.
例えば、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴点を抽出し、画像間で特徴点の位置が一致するか否かを判定する。一例を挙げると、特定機能34bは、メモリ33から、被検体P1の年齢、成人/子供、男性/女性、体重、身長等の種々のパラメータに応じて、仮想患者画像データを取得する。ここで、仮想患者画像データは、複数の解剖学的特徴点の位置が、それぞれの解剖学的特徴の識別コードとともに定義されたデータである。例えば、特定機能34bは、パターン認識等の画像処理によりX線画像データから複数の特徴点を抽出するとともに、仮想患者画像データに基づいて、抽出した複数の特徴点それぞれの識別コードを特定する。そして、特定機能34bは、識別コードごとに、各X線画像データから抽出した特徴点の位置が画像間で一致するか否かを判定する。ここで、特徴点の位置が一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、特徴点の位置が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。
For example, the specifying function 34b extracts feature points from each set of angle-corrected X-ray image data, and determines whether or not the positions of the feature points match between the images. As an example, the identification function 34b acquires virtual patient image data from the
別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴領域を抽出し、画像間で特徴領域が一致するか否かを判定する。例えば、特定機能34bは、各X線画像データにおいて骨や臓器等を特徴領域として抽出し、抽出した領域の輪郭線を抽出する。ここで、輪郭線が画像間で一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、輪郭線が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 To give another example, the specifying function 34b extracts a characteristic region from each piece of X-ray image data for a set of angle-corrected X-ray image data, and determines whether or not the characteristic regions match between the images. For example, the specifying function 34b extracts a bone, an organ, or the like as a characteristic region from each X-ray image data, and extracts a contour line of the extracted region. Here, if the contour lines match between the images, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. On the other hand, if the contour lines do not match, the specifying function 34b determines not to specify the set of angle-corrected X-ray image data as learning data.
別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、画像間の類似度を算出する。例えば、特定機能34bは、画素ごとに、画像間での画素値の差を算出する。次に、特定機能34bは、画素ごとに算出した差をそれぞれ二乗した後、合算する。そして、特定機能34bは、算出した合算値に基づいて、類似度を算出する。また、例えば、特定機能34bは、各X線画像データをハッシュ関数に入力して、ハッシュ値を算出する。そして、特定機能34bは、画像間でのハッシュ値の差に基づいて、類似度を算出する。 To give another example, the specifying function 34b calculates the degree of similarity between images for sets of angle-corrected X-ray image data. For example, the specifying function 34b calculates the pixel value difference between the images for each pixel. Next, the specific function 34b squares the differences calculated for each pixel, and then sums them up. Then, the specifying function 34b calculates the degree of similarity based on the calculated total value. Also, for example, the specifying function 34b inputs each X-ray image data to a hash function to calculate a hash value. Then, the specifying function 34b calculates the degree of similarity based on the hash value difference between the images.
なお、特定機能34bは、各X線画像データのSN比(信号対雑音比)が異なる場合、コントラストを補正してから、類似度を算出してもよい。例えば、特定機能34bは、角度補正したX線画像データの組のうちSN比が低い方のX線画像データについて、平滑化フィルタを用いた画像処理を実行する。これにより、特定機能34bは、SN比が低い方のX線画像データについて、他方のX線画像データと同程度までSN比を上昇させる。そして、特定機能34bは、同程度のSN比を有するX線画像データの組について、画像間の類似度を算出する。 Note that when the SN ratio (signal-to-noise ratio) of each X-ray image data is different, the specifying function 34b may calculate the degree of similarity after correcting the contrast. For example, the specifying function 34b performs image processing using a smoothing filter on X-ray image data having a lower SN ratio among the set of angle-corrected X-ray image data. As a result, the specifying function 34b increases the SN ratio of the X-ray image data with the lower SN ratio to the same extent as the other X-ray image data. Then, the specifying function 34b calculates the degree of similarity between images for sets of X-ray image data having similar SN ratios.
ここで、類似度が閾値よりも高い場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。なお、SN比が低い方のX線画像データについて画像処理を実行していた場合、特定機能34bは、画像処理を実行する前のX線画像データと他方のX線画像データとの組を、学習用データとして特定する。一方で、類似度が閾値よりも低い場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 Here, if the similarity is higher than the threshold, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. Note that when image processing is performed on the X-ray image data with a lower SN ratio, the specific function 34b sets the X-ray image data before performing the image processing and the other X-ray image data to Identify as training data. On the other hand, if the degree of similarity is lower than the threshold, the identifying function 34b determines not to identify the set of angle-corrected X-ray image data as learning data.
また、特定機能34bは、学習用データの特定に先立って、X線画像データの各々を学習用データの特定に使用するか否か判定してもよい。即ち、特定機能34bは、取得機能34aにより取得されたX線画像データについて、学習用データの特定に使用するか否かを判定し、使用すると判定したX線画像データを用いて、学習用データを特定することとしてもよい。 In addition, the specifying function 34b may determine whether or not to use each piece of X-ray image data to specify learning data prior to specifying learning data. That is, the specifying function 34b determines whether or not to use the X-ray image data acquired by the acquiring function 34a to specify learning data, and uses the X-ray image data determined to be used to acquire learning data. may be specified.
例えば、特定機能34bは、取得機能34aにより取得されたX線画像データのうち、類似するX線画像データが複数ある場合、その一部のみを使用すると判定する。ここで、類似するX線画像データが複数ある場合とは、例えば、X線透視が実行された場合や、撮像対象領域及び撮像方向を変更することなく、条件を微調整しながらX線画像データの撮像が繰り返し行われた場合等である。なお、X線透視は、リアルタイムでの観察に用いられる撮像及び観察の方法であり、例えば、比較的低線量のX線を用いて時系列の複数のX線画像データの撮像を行ない、撮像と並行してディスプレイ109に表示する方法である。X線透視によって得られるX線画像を透視画像ともいう。 For example, if there is a plurality of similar X-ray image data among the X-ray image data acquired by the acquisition function 34a, the specifying function 34b determines to use only a part of them. Here, the case where there are a plurality of similar X-ray image data means, for example, when X-ray fluoroscopy is performed, or when the X-ray image data is acquired while finely adjusting the conditions without changing the imaging target area and imaging direction. is repeatedly performed. X-ray fluoroscopy is a method of imaging and observation used for real-time observation. This is a method of displaying on the display 109 in parallel. An X-ray image obtained by X-ray fluoroscopy is also called a fluoroscopic image.
一例を挙げると、特定機能34bは、まず、取得機能34aにより取得されたX線画像データの各々について、撮像の条件及び被検体の条件が略一致し、かつ、撮像対象領域及び撮像方向が略一致する他のX線画像データ(類似するX線画像データ)があるか否かを判定する。そして、特定機能34bは、類似するX線画像データがないX線画像データについては、学習用データの特定に使用すると判定する。 For example, for each piece of X-ray image data acquired by the acquisition function 34a, the specifying function 34b first determines that the imaging conditions and subject conditions are substantially the same, and the imaging target region and imaging direction are substantially the same. It is determined whether or not there is other matching X-ray image data (similar X-ray image data). Then, the specifying function 34b determines that X-ray image data for which there is no similar X-ray image data is used for specifying learning data.
一方で、特定機能34bは、撮像の条件及び被検体の条件が略一致し、かつ、撮像対象領域及び撮像方向が略一致する複数のX線画像データについては、その一部を学習用データの特定に使用すると判定する。即ち、特定機能34bは、類似する複数のX線画像データについては、その一部を学習用データの特定に使用すると判定する。例えば、特定機能34bは、類似する複数のX線画像データのうち、画質の良いX線画像データを学習用データの特定に使用すると判定する。一例を挙げると、特定機能34bは、複数のX線画像データの各々についてSN比を算出し、SN比が最も高いX線画像データを、学習用データの特定に使用すると判定する。 On the other hand, for a plurality of X-ray image data whose imaging conditions and subject conditions substantially match and whose imaging target regions and imaging directions substantially match, the specifying function 34b converts some of them into learning data. Determined to be used specifically. That is, the specifying function 34b determines that a part of a plurality of similar X-ray image data should be used for specifying learning data. For example, the specifying function 34b determines to use X-ray image data with good image quality among a plurality of similar X-ray image data to specify learning data. For example, the specifying function 34b calculates the SN ratio for each of the plurality of X-ray image data, and determines that the X-ray image data with the highest SN ratio is used for specifying learning data.
また、例えば、特定機能34bは、取得機能34aにより取得されたX線画像データのうち、時系列の複数のX線画像データについては、階調の安定性に関する条件及び残像に関する条件の少なくとも一方を満たすX線画像データを学習用データの特定に使用すると判定する。 Further, for example, the specifying function 34b sets at least one of the condition regarding the stability of gradation and the condition regarding afterimage for a plurality of pieces of time-series X-ray image data among the X-ray image data obtained by the obtaining function 34a. X-ray image data that satisfies the criteria is determined to be used for specifying learning data.
例えば、特定機能34bは、時系列の複数のX線画像データのうち、連続するX線画像データの間で画素値の平均値の差を算出する。そして、特定機能34bは、算出した差が閾値よりも小さい場合は階調の安定性に関する条件を満たすと判定し、算出した差が閾値以上である場合は階調の安定性に関する条件を満たさないと判定する。なお、階調の安定性に関する条件を満たさない場合としては、例えば、X線管102がX線の発生を開始した後、X線強度が安定するまでの間にX線画像データが収集された場合等が該当する。
For example, the specifying function 34b calculates the difference in the average value of the pixel values between successive pieces of X-ray image data among a plurality of pieces of time-series X-ray image data. Then, the specific function 34b determines that the condition regarding tone stability is met when the calculated difference is smaller than the threshold, and the condition regarding tone stability is not satisfied when the calculated difference is greater than or equal to the threshold. I judge. As a case where the condition regarding gradation stability is not satisfied, for example, X-ray image data is collected after the
また、例えば、特定機能34bは、時系列の複数のX線画像データについて、リカーシブフィルタや加算平均処理等の画像処理を実行し、処理後のX線画像データと処理前のX線画像データとを差分することで残像成分を抽出する。そして、特定機能34bは、残像成分の抽出量が閾値よりも小さい場合は残像に関する条件を満たすと判定し、残像成分の抽出量が閾値以上である場合は残像に関する条件を満たさないと判定する。なお、残像に関する条件を満たさない場合としては、例えば、撮像時に被検体の体動があった場合等が該当する。 Further, for example, the specific function 34b executes image processing such as recursive filtering and averaging processing on a plurality of time-series X-ray image data, and converts the processed X-ray image data and the unprocessed X-ray image data into Afterimage components are extracted by subtracting . Then, the specifying function 34b determines that the afterimage condition is satisfied when the afterimage component extraction amount is smaller than the threshold, and determines that the afterimage condition is not satisfied when the afterimage component extraction amount is equal to or greater than the threshold. It should be noted that, for example, the case where the condition regarding the afterimage is not satisfied corresponds to the case where there is body movement of the subject at the time of imaging.
次に、学習用データセット生成機能34cは、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。例えば、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、X線画像データの組の間で異なっている条件(撮像の条件及び被検体の条件)が共通する学習用データを抽出する。
Next, the learning data set
一例を挙げると、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、X線画像データの組の間で管電流値の条件が異なっている学習用データ(X線画像データI1とX線画像データI2との組から成る学習用データ等)を複数抽出する。即ち、学習用データセット生成機能34cは、ノイズの程度が異なるX線画像データの組から成る学習用データを複数抽出する。次に、学習用データセット生成機能34cは、抽出した複数の学習用データを含む学習用データセットを生成する。そして、学習用データセット生成機能34cは、生成した学習用データセットをメモリ33に格納する。なお、以下では、ノイズの程度が異なるX線画像データの組から成る複数の学習用データを含む学習用データセットを、学習用データセットD1とも記載する。
For example, the learning data set
ここで、学習用データセット生成機能34cは、被検体の部位ごとに学習用データセットを生成することとしてもよい。例えば、学習用データセット生成機能34cは、まず、特定機能34bにより特定された学習用データから、ノイズの程度が異なるX線画像データの組から成る学習用データを複数抽出する。次に、学習用データセット生成機能34cは、抽出した学習用データから、被検体の部位ごとに学習用データを抽出する。
Here, the learning data set
例えば、学習用データセット生成機能34cは、「腹部」のX線画像データの組から成る学習用データを抽出し、「腹部」についての学習用データセットD11を生成する。また、例えば、学習用データセット生成機能34cは、「肝臓」のX線画像データの組から成る学習用データを抽出し、「肝臓」についての学習用データセットD12を生成する。ここで、学習用データセット生成機能34cは、同一の学習用データを、「腹部」のX線画像データの組から成る学習用データとして抽出するとともに、「肝臓」のX線画像データの組から成る学習用データとして抽出しても構わない。そして、学習用データセット生成機能34cは、生成した学習用データセットD11及び学習用データセットD12をメモリ33に格納する。なお、学習用データセットD11及び学習用データセットD12は、学習用データセットD1の一例である。
For example, the learning data set
次に、モデル生成機能34dは、図5に示すように、メモリ33から学習用データセットを読み出して、学習済みモデルを生成する。具体的には、モデル生成機能34dは、入力されるX線画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。ここで、本実施形態における学習済みモデルは、例えば、多層のニューラルネットワークにより構成することができる。
Next, the model generation function 34d reads the learning data set from the
本実施形態に係る多層のニューラルネットワークの典型的な構成について、以下説明する。ここで、多層のニューラルネットワークとは、層状に並べた隣接層間のみ結合した構造を持ち、情報が入力層側から出力層側に一方向に伝播するネットワークである。本実施形態に係る多層のニューラルネットワークは、図6に示す様に、入力層(l=1)、中間層(l=2,3,・・・,L-1)、出力層(l=L)のL個の層から構成されるものとする。なお、図6は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。以下の説明は一例であり、多層のニューラルネットワークの構成は以下の説明に限定されない。 A typical configuration of the multilayer neural network according to this embodiment will be described below. Here, a multilayer neural network is a network that has a structure in which only adjacent layers arranged in layers are connected, and information propagates in one direction from the input layer side to the output layer side. As shown in FIG. 6, the multi-layer neural network according to this embodiment includes an input layer (l=1), an intermediate layer (l=2, 3, . . . , L−1), an output layer (l=L ) are composed of L layers. FIG. 6 is a diagram for explaining the process of generating a trained model according to the first embodiment. The following description is an example, and the configuration of the multilayer neural network is not limited to the following description.
第l層でのユニット数をI個とし、第l層への入力u(l)を下記の式(1-1)、第l層からの出力z(l)を下記の式(l-2)の様にそれぞれ表記すると、第l層への入力と第l層からの出力との関係は、下記の式(1-3)によって表すことができる。 The number of units in the l-th layer is I, the input u (l) to the l-th layer is the following formula (1-1), and the output z (l) from the l-th layer is the following formula (l-2 ), the relationship between the input to the l-th layer and the output from the l-th layer can be expressed by the following equation (1-3).
式(1-1)、式(1-2)及び式(1-3)において、右上の添字(l)は層の番号を示す。また、式(1-3)におけるf(u)は、活性化関数であり、ロジスティックシグモイド関数(ロジスティック関数)、双曲線正接関数、正規化線形関数(ReLU:Rectified Liner Unit)、線形写像、恒等写像、マックスアウト関数等、目的に応じて種々の関数を選択することができる。 In formulas (1-1), (1-2) and (1-3), the upper right subscript (l) indicates the layer number. In addition, f (u) in formula (1-3) is an activation function, logistic sigmoid function (logistic function), hyperbolic tangent function, normalized linear function (ReLU: Rectified Liner Unit), linear mapping, identity Various functions such as mapping, maxout function, etc. can be selected according to the purpose.
第l+1層でのユニット数をJ個とし、第l層と第l+1層との間の重み付行列W(l+1)を下記の式(2-1)、第l+1層におけるバイアスb(l+1)を下記の式(2-2)の様にそれぞれ表記すると、第l+1層への入力u(l+1)、第l+1層からの出力z(l+1)は、それぞれ、下記の式(2-3)、式(2-4)によって表すことができる。 Let the number of units in the l+1-th layer be J, the weighting matrix W (l+1) between the l-th layer and the l+1-th layer is expressed by the following formula (2-1), and the bias b (l +1) is expressed as in the following equation (2-2), the input u (l+1) to the l+1th layer and the output z (l+1) from the l+1th layer are as follows: It can be represented by equations (2-3) and (2-4).
本実施形態に係る多層のニューラルネットワークにおいて、入力層(l=1)には、下記の式(3-1)で表現される信号が入力される。また、当該入力層においては、入力データxがそのまま出力データz(1)となるため、下記の式(3-2)の関係が成立する。 In the multi-layer neural network according to this embodiment, a signal represented by the following equation (3-1) is input to the input layer (l=1). Also, in the input layer, the input data x becomes the output data z (1) as it is, so the following formula (3-2) holds.
ここで、入力信号xについては、例えば、各成分xp(p=1,2,・・・,N)を、入力側の医用画像を構成する画素の画素値とする。 Here, for the input signal x, for example, each component x p (p=1, 2, .
入力層に続く中間層(l=2,3,・・・,L-1)層においては、上記の式(2-3)、式(2-4)に従う計算を順次実行することで、各層の出力z(2),・・・z(L-1)を計算することができる。 In the intermediate layers (l=2, 3, . can be calculated for the outputs z ( 2 ) , .
出力層(第L層)の出力z(L)を以下の式(4-1)の様に表記する。本実施形態に係る多層のニューラルネットワークは、入力層に入力された画像データxが、入力層側から出力層側に向かって隣接層間でのみ結合しながら伝播する順伝播型ネットワークである。この様な順伝播型ネットワークは、以下の式(4-2)の様な合成関数として表現することができる。 The output z (L) of the output layer (L-th layer) is expressed as in Equation (4-1) below. The multi-layer neural network according to this embodiment is a forward propagation network in which image data x input to an input layer propagates from the input layer side to the output layer side while connecting only between adjacent layers. Such a forward propagating network can be expressed as a composite function such as the following equation (4-2).
式(4-2)によって定義される合成関数は、式(2-3)、式(2-4)より、重み付行列W(l+1)を用いた各層間の線形関係、各層における活性化関数f(u(l+1))を用いた非線形関係(又は線形関係)、バイアスb(l+1)の組み合わせとして定義される。特に、重み付行列W(l+1)、バイアスb(l+1)はネットワークのパラメータpと呼ばれる。式(4-2)によって定義される合成関数は、パラメータpをどのように選ぶかで、関数としての形を変える。従って、本実施形態に係る多層のニューラルネットワークは、式(4-2)を構成するパラメータpを適切に選ぶことで、出力層が好ましい結果yを出力することができる関数として、定義することができる。 The composite function defined by equation (4-2) is obtained from equations (2-3) and (2-4) using the weighting matrix W (l+1) to obtain the linear relationship between layers, the activity defined as a combination of a non-linear relationship (or linear relationship) using a function f(u (l+1) ) and a bias b (l+1) . In particular, the weighting matrix W (l+1) and the bias b (l+1) are called parameters p of the network. The composite function defined by equation (4-2) changes its form as a function depending on how the parameter p is selected. Therefore, the multi-layer neural network according to this embodiment can be defined as a function that allows the output layer to output a preferable result y by appropriately selecting the parameter p that constitutes equation (4-2). can.
パラメータpを適切に選ぶためには、学習用データセットと誤差関数を用いた学習を実行する。ここで、学習用データセットとは、入力xnに対する望ましい出力(正解出力)をdnとすると、下記の式(5-1)のように表現される学習用データ(xn,dn)の集合D(n=1,・・・,S)である。即ち、学習用データセットとは、下記の式(5-2)のように表現される学習用データの集合Dである。 In order to properly select the parameter p, learning is performed using a training data set and an error function. Here, the learning data set is the learning data (x n , d n ) represented by the following equation (5-1) where d n is the desired output (correct output) for the input x n is a set D (n=1, . . . , S). That is, the learning data set is a set D of learning data represented by the following equation (5-2).
また、誤差関数とは、xnを入力した多層のニューラルネットワークからの出力と学習用データdnとの近さを表す関数である。誤差関数の代表例としては、二乗誤差関数、最尤度推定関数、交差エントロピー関数等を挙げることができる。どのような関数を誤差関数に選択するかは、多層化ネットワークが取り扱う問題(例えば、回帰問題、二値問題、多クラス分類問題等)に依存する。 The error function is a function that expresses the closeness between the output from the multilayer neural network to which xn is input and the learning data dn . Typical examples of error functions include a squared error function, a maximum likelihood estimation function, a cross entropy function, and the like. What kind of function is selected as the error function depends on the problem (eg, regression problem, binary problem, multi-class classification problem, etc.) to be handled by the multi-layered network.
誤差関数をE(p)と表記し、一つの学習用データ(xn,dn)のみを使用して計算される誤差関数をEn(p)と表記する。現在のパラメータp(t)は、勾配降下法に従う場合には誤差関数E(p)の勾配ベクトルを用いた式(6-1)、確率的勾配降下法に従う場合には誤差関数En(p)の勾配ベクトルを用いた式(6-3)によって、新たなパラメータp(t+1)に更新される。 An error function is denoted by E(p), and an error function calculated using only one learning data (x n , d n ) is denoted by E n (p). The current parameter p (t) is the formula (6-1) using the gradient vector of the error function E (p) when following the gradient descent method, and the error function E n (p ) is updated to the new parameter p (t+1) by equation (6-3) using the gradient vector of .
ここで、εはパラメータpの更新量の大きさを定める学習係数である。式(6-1)又は式(6-3)に従って、現在のpを負の勾配方向に少し動かし、これを逐次繰り返すことで、誤差関数E(p)を極小にするパラメータpを決定することができる。 Here, ε is a learning coefficient that determines the magnitude of the update amount of the parameter p. Determining the parameter p that minimizes the error function E(p) by moving the current p slightly in the direction of the negative gradient according to formula (6-1) or formula (6-3) and repeating this step by step can be done.
なお、式(6-1)又は式(6-3)を計算するためには、式(6-2)で示されるE(p)の勾配ベクトル、又は式(6-4)で示されるEn(p)の勾配ベクトルを計算する必要がある。誤差関数が二乗誤差関数である場合を例とすれば、下記の式(7-1)に示される誤差関数について、各層の重み係数と各ユニットのバイアスとで微分する必要がある。 In addition, in order to calculate the formula (6-1) or formula (6-3), the gradient vector of E(p) represented by formula (6-2) or E We need to compute the n (p) gradient vectors. Taking the case where the error function is a squared error function as an example, it is necessary to differentiate the error function shown in the following equation (7-1) with the weight coefficient of each layer and the bias of each unit.
一方、最終出力yが式(4-2)で表される合成関数であることから、E(p)又はEn(p)の勾配ベクトルの計算は複雑であり、その計算量も膨大なものとなる。 On the other hand, since the final output y is a composite function represented by equation (4-2), the calculation of the gradient vector of E(p) or E n (p) is complicated and the amount of calculation is enormous. becomes.
この様な勾配計算における不具合は、誤差逆伝播法によって解決することができる。例えば、第l-1層の第iユニットと第l層の第jユニットとを繋ぐ重みwji (l)についての誤差関数の微分は、以下の式(8-1)の様に表すことができる。 Such glitches in gradient computation can be overcome by error backpropagation. For example, the differentiation of the error function with respect to the weight w ji (l) connecting the i-th unit of the (l−1)-th layer and the j-th unit of the l-th layer can be expressed as in the following equation (8-1). can.
l層の第jユニットへの入力uj (l)がEnに与える変化量は、当該第jユニットからの出力zj (l)を通じて第l+1層の各ユニットkへの各入力uk (l+1)を変化させることのみを介して生じるものである。このことから、式(8-1)の右辺第1項は、微分の連鎖則を用いて、次の式(9-1)の様に表すことができる。 The amount of change given to E n by the input u j (l) to the j-th unit of the l layer is expressed by each input u k ( l+1) only through changing. From this, the first term on the right side of the equation (8-1) can be expressed as the following equation (9-1) using the chain rule of differentiation.
ここで、式(9-1)の左辺をδj (l)とおくと、下記の式(10-1)、式(10-2)の関係を使って、式(9-1)は式(10-3)の様に書き直すことができる。 Here, if the left side of equation (9-1) is δ j (l) , equation (9-1) can be expressed by equation (10-1) and equation (10-2) below (10-3) can be rewritten.
式(10-3)より、左辺のδj (l)は、δk (l+1)(k=1,2,・・・・)から計算できることがわかる。すなわち、一つ上位の出力層側に存在する第l+1層の第kユニットに関するδk (l+1)が与えられれば、第l層についてのδj (l)を計算することができる。さらに、第l+1層の第kユニットに関するδk (l+1)についても、その一つ上位の出力層側に存在する第l+2層の第kユニットに関するδk (l+2)が与えられれば、計算することができる。このことを逐次繰り返して最上位層である出力層まで辿ることができる。 From equation (10-3), it can be seen that δ j (l) on the left side can be calculated from δ k (l+1) (k=1, 2, . . . ). That is, given δ k (l+1) for the k-th unit of the l+1-th layer existing in the output layer one level higher, δ j (l) for the l-th layer can be calculated. Furthermore, if δ k (l+1) related to the k-th unit of the l+1-th layer is also given δ k (l+2) related to the k-th unit of the l+2-th layer existing on the output layer side one level higher, , can be calculated. This process can be repeated successively to reach the output layer, which is the highest layer.
最初に第L層である出力層の第kユニットに関するδk (L)が取得されていれば、式(10-3)を用いて下位側(すなわち入力層側)に向かって逐次計算を繰り返すことにより(逆伝播)、任意層におけるδk (l+1)を計算することができる。 First, if δ k (L) for the k-th unit of the output layer, which is the L-th layer, is obtained, the calculation is repeated successively toward the lower side (that is, the input layer side) using equation (10-3). (backpropagation), δ k (l+1) at any layer can be calculated.
一方、式(8-1)の右辺第2項については、式(2-3)を第l層について成分で表現した式(11-1)を用いて、式(11-2)の様に計算することができる。 On the other hand, for the second term on the right side of formula (8-1), using formula (11-1) that expresses formula (2-3) with components for the l-th layer, as in formula (11-2) can be calculated.
従って、第l-1層の第iユニットと第l層の第jユニットとを繋ぐ重みwji (l)についての誤差関数の微分は、式(8-1)、式(10-3)によるδj (l)、式(11-2)を用いて、以下の式(12-1)の様に表現することができる。 Therefore, the differentiation of the error function with respect to the weight w ji (l) connecting the i-th unit of the l−1-th layer and the j-th unit of the l-th layer is obtained by equations (8-1) and (10-3). Using δ j (l) and equation (11-2), it can be expressed as in equation (12-1) below.
式(12-1)から、第l-1層の第iユニットと第l層の第jユニットとを繋ぐ重みwji (l)についての誤差関数の微分は、第jユニットに関するδj (l)と、第iユニットからの出力であるzi (l-1)との積で与えらえることがわかる。なお、δj (l)についての計算は、上述した様に、式(10-3)を用いて逆伝播により求めることができ、また、逆伝播の最初の値、すなわち、第L層である出力層に関するδj (L)は、以下の式(13-1)の様に計算することができる。 From equation (12-1), the differential of the error function with respect to the weight w ji (l) connecting the i-th unit of the l−1-th layer and the j-th unit of the l-th layer is δ j (l ) and z i (l-1) which is the output from the i-th unit. Note that the calculation of δ j (l) can be obtained by backpropagation using equation (10-3) as described above, and the first value of backpropagation, that is, the Lth layer δ j (L) for the output layer can be calculated as shown in Equation (13-1) below.
以上の手順により、本実施形態に係る多層化ネットワークについて、ある学習サンプル(xn,dn)を用いた学習を実現することができる。なお、複数の学習サンプルに対する誤差の総和E=ΣnEnに関する勾配ベクトルについては、上述した手順を学習サンプル(xn,dn)毎に並列的に繰り返し、以下の式(14-1)に示す和を計算することで、取得することができる。 Through the above procedure, learning using a certain learning sample (x n , d n ) can be realized for the multi-layered network according to this embodiment. Regarding the gradient vector related to the sum of errors E=Σ n E n for a plurality of learning samples, the above-described procedure is repeated for each learning sample (x n , d n ) in parallel, and the following equation (14-1) can be obtained by calculating the sum shown in
例えば、モデル生成機能34dは、まず、メモリ33から学習用データセットD1を読み出す。次に、モデル生成機能34dは、学習用データセットD1に基づいて、ノイズの多いX線画像データ(X線画像データI1等)から、ノイズの少ないX線画像データ(X線画像データI2等)を復元するように、モデルを学習させる。例えば、モデル生成機能34dは、ノイズの多いX線画像データを入力側データ、ノイズの少ないX線画像データを出力側データとしてモデルのパラメータを調整することにより、ノイズを除去する関数を近似した学習済みモデルを生成する。生成する学習済みモデルがニューラルネットワークによる学習済みモデルである場合、調整するパラメータは、例えば、重みとバイアスとのうち少なくとも一方である。なお、以下では、学習用データセットD1に基づいて生成された学習済みモデルを、学習済みモデルM1とも記載する。そして、モデル生成機能34dは、生成した学習済みモデルM1をメモリ33に格納する。
For example, the model generation function 34d first reads the learning data set D1 from the
なお、モデル生成機能34dは、学習用データを入力側データとして用いてもよいし、学習用データに基づくデータを入力側データとして用いてもよい。例えば、モデル生成機能34dは、図7に示すように、ノイズの多いX線画像データ(X線画像データI1等)に対する前処理(例えば、空間フィルタやコンボリューションフィルタを用いた画像処理等)を実行し、前処理後の画像データを入力側データとする。なお、図7は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。 Note that the model generation function 34d may use learning data as input data, or may use data based on learning data as input data. For example, as shown in FIG. 7, the model generation function 34d performs preprocessing (for example, image processing using a spatial filter or a convolution filter) for X-ray image data with much noise (such as X-ray image data I1). and the image data after preprocessing is used as the input side data. FIG. 7 is a diagram for explaining the process of generating a trained model according to the first embodiment.
また、モデル生成機能34dは、学習用データを出力側データとして用いてもよいし、学習用データに基づくデータを出力側データとして用いてもよい。例えば、図7に示すように、モデル生成機能34dは、ノイズの少ないX線画像データ(X線画像データI2等)に対する後処理の実行前の画像データを、出力側データとする。例えば、モデル生成機能34dは、出力側データに対する後処理後の画像データとノイズの少ないX線画像データとが近似するようにモデルのパラメータを調整して、ノイズを除去する関数を近似した学習済みモデルM1を生成する。この場合、学習済みモデルM1は、ノイズの多いX線画像データをノイズの少ないX線画像データに変換する処理に対して、他の処理(前処理、後処理等)と共に組み込まれて使用される。即ち、モデル生成機能34dは、X線画像データの変換処理に他の処理と共に組み込まれる学習済みモデルM1を生成することができる。 Also, the model generation function 34d may use the learning data as the output side data, or may use data based on the learning data as the output side data. For example, as shown in FIG. 7, the model generating function 34d uses image data before post-processing of X-ray image data with little noise (such as X-ray image data I2) as output data. For example, the model generation function 34d adjusts the parameters of the model so that the image data after post-processing for the output side data and the X-ray image data with less noise are approximated, and has learned an approximation function that removes noise. Generate model M1. In this case, the trained model M1 is incorporated and used together with other processes (pre-processing, post-processing, etc.) for the process of converting X-ray image data with much noise into X-ray image data with less noise. . That is, the model generation function 34d can generate a trained model M1 that is incorporated in the X-ray image data conversion process together with other processes.
また、モデル生成機能34dによって生成される学習済みモデルにおけるニューラルネットワークの出力は、画像データの画素値そのものでなくても良い。例えば、モデル生成機能34dは、ニューラルネットワークの出力を、各種画像処理フィルタのパラメータ(強度等)の組み合わせとしてもよい。 Also, the output of the neural network in the trained model generated by the model generation function 34d may not be the pixel values of the image data. For example, the model generation function 34d may make the output of the neural network a combination of parameters (intensity, etc.) of various image processing filters.
この場合において、モデル生成機能34dは、画像処理フィルタのパラメータの組み合わせごとに、X線画像データの組のうちのノイズの多いX線画像データ(X線画像データI1等)に対するフィルタ処理を実行する。また、モデル生成機能34dは、図8に示すように、ノイズの多いX線画像データに対するフィルタ処理後の画像データと、ノイズの少ないX線画像データ(X線画像データI2等)との類似度をパラメータの組み合わせごとに算出し、類似度が高くなるパラメータの組み合わせ(k1, k2・・・, kM)を特定する。そして、モデル生成機能34dは、図8に示すように、ノイズの多いX線画像データを入力側のデータとし、特定したパラメータの組み合わせを出力側のデータとして、ニューラルネットワークを学習させる。なお、図8は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。 In this case, the model generation function 34d performs filtering on X-ray image data with a lot of noise (X-ray image data I1, etc.) in the set of X-ray image data for each combination of image processing filter parameters. . In addition, as shown in FIG. 8, the model generating function 34d calculates the degree of similarity between the image data after filtering X-ray image data with much noise and the X-ray image data with little noise (such as X-ray image data I2). is calculated for each combination of parameters, and a combination of parameters (k 1 , k 2 . . . , k M ) with high similarity is specified. Then, as shown in FIG. 8, the model generation function 34d makes the neural network learn by using X-ray image data with a lot of noise as data on the input side and using the specified combination of parameters as data on the output side. FIG. 8 is a diagram for explaining the process of generating a trained model according to the first embodiment.
これにより、ノイズの多いX線画像データを入力画像として、ノイズの少ないX線画像データに変換するための画像処理フィルタのパラメータの組み合わせ(k1, k2・・・, kM)を出力するニューラルネットワークを得ることができる。従って、図9のように、当該ニューラルネットワークにより得られるフィルタのパラメータの組み合わせ(k1, k2・・・, kM)でノイズの多いX線画像データに対してフィルタ処理を行うようにすることにより、ノイズの多いX線画像データをノイズの少ないX線画像データに変換する学習済みモデルM1を構成することができる。なお、図9は、第1の実施形態に係る学習済みモデルの生成処理について説明するための図である。 As a result, X-ray image data with much noise is used as an input image, and a combination of image processing filter parameters (k 1 , k 2 . A neural network can be obtained. Therefore, as shown in FIG. 9, filter processing is performed on noisy X-ray image data with a combination of filter parameters (k 1 , k 2 . . . , k M ) obtained by the neural network. Thus, it is possible to construct a trained model M1 that converts X-ray image data with much noise into X-ray image data with less noise. Note that FIG. 9 is a diagram for explaining the process of generating a learned model according to the first embodiment.
なお、画像処理フィルタの種類としては、例えば、移動平均(平滑化)フィルタ、ガウシアンフィルタ、メディアンフィルタ、リカーシブフィルタ、バンドパスフィルタ等が挙げられる。また、画像処理フィルタのパラメータとしては、例えば、各フィルタの強度、移動平均(平滑化)フィルタ、ガウシアンフィルタ及びメディアンフィルタの縦方向及び横方向のサイズ、リカーシブフィルタにおいて使用するフレーム数及び各フレームに対する重み、バンドパスフィルタにおける周波数の設定等が挙げられる。 Note that types of image processing filters include, for example, a moving average (smoothing) filter, a Gaussian filter, a median filter, a recursive filter, a bandpass filter, and the like. In addition, as the parameters of the image processing filter, for example, the strength of each filter, the moving average (smoothing) filter, the vertical and horizontal sizes of the Gaussian filter and median filter, the number of frames used in the recursive filter, and the Weighting, frequency setting in a band-pass filter, and the like can be mentioned.
また、多層のニューラルネットワーク以外の機械学習手法による学習済みモデルを生成してもよい。例えば、SVM(サポートベクターマシン)等のデータの分類を行う機械学習手法によって、入力された医用画像データに対して適切な画像処理フィルタを選択する学習済みモデルを生成してもよい。具体的な手法としては、例えば、分類先のクラスを画像処理フィルタの種類とし、入力された医用画像データの特徴量をモデルの入力データとし、そして、学習用データの入力側データに対する出力結果と学習用データの出力側データとの類似度が高くなるフィルタを選択するように、モデルの学習を行えばよい。 Also, a learned model may be generated by a machine learning method other than a multi-layer neural network. For example, a machine learning method for classifying data such as SVM (support vector machine) may be used to generate a trained model that selects an appropriate image processing filter for input medical image data. As a specific method, for example, the classification destination class is the type of the image processing filter, the feature amount of the input medical image data is the input data of the model, and the output result for the input side data of the learning data is used. Model learning may be performed so as to select a filter that increases the degree of similarity between the learning data and the output side data.
また、モデル生成機能34dが学習済みモデルを生成する処理を実行する時間については、検査情報に基づいて設定されることとしてもよい。例えば、モデル生成機能34dは、検査情報に基づいて、X線診断装置100によるX線画像データの収集が行われない時間(深夜等)を取得し、取得した時間を、学習済みモデルを生成する時間として設定する。このように設定された時間において、X線診断装置100のプロセッサ(処理回路111等)は使用されないことが多く、モデル生成機能34dは、X線診断装置100のプロセッサを計算資源として利用することができる。特に、X線診断装置100はGPUを有している場合も多いため、モデル生成機能34dは、設定された時間において、学習済みモデルを生成する処理を高速で実現することができる。
Also, the time during which the model generation function 34d executes the process of generating the learned model may be set based on the inspection information. For example, the model generation function 34d acquires a time (midnight, etc.) during which X-ray image data is not collected by the X-ray
モデル生成機能34dが学習済みモデルを生成した後、新たにX線画像データが収集された場合、取得機能34aは、新たに収集されたX線画像データを取得する。例えば、図10に示すように、X線診断装置100によって新たにX線画像データI3が収集された場合、取得機能34aは、新たに収集されたX線画像データI3を取得する。なお、図10は、第1の実施形態に係る変換処理について説明するための図である。
When new X-ray image data is acquired after the model generation function 34d has generated a learned model, the acquisition function 34a acquires the newly acquired X-ray image data. For example, as shown in FIG. 10, when X-ray image data I3 is newly acquired by the X-ray
そして、変換機能34eは、学習済みモデルに基づいて、X線画像データI3に対する変換処理を実行する。具体的には、変換機能34eは、学習済みモデルに基づいて、入力されるX線画像データI3を、X線画像データI3と撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する変換処理を実行する。 Then, the conversion function 34e executes conversion processing on the X-ray image data I3 based on the learned model. Specifically, the conversion function 34e converts the input X-ray image data I3 into an X-ray image that differs from the X-ray image data I3 in at least one of imaging conditions and subject conditions based on the learned model. A conversion process is executed to convert the data into X-ray image data.
一例を挙げると、変換機能34eは、まず、メモリ33から学習済みモデルM1を読み出す。次に、変換機能34eは、X線画像データI3を学習済みモデルM1に入力し、X線画像データI3よりもノイズが少ないX線画像データに相当するX線画像データI3’に変換する変換処理を実行する。換言すると、変換機能34eは、X線画像データI3を、X線画像データI3よりも大きい管電流値(高線量)で撮像されたX線画像データに相当するX線画像データI3’に変換して、X線画像データI3のノイズを除去する。
For example, the conversion function 34e first reads out the learned model M1 from the
そして、出力機能34fは、変換処理後のX線画像データI3’ を出力する。例えば、出力機能34fは、X線画像データI3’に基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ32に表示させる。これにより、出力機能34fは、医用情報処理装置30の操作者に、ノイズが低減されたX線画像を提供することができる。また、例えば、出力機能34fは、X線画像データI3’ を、医用情報処理装置30とネットワークNWを介して接続された外部装置に出力する。この場合、外部装置は、X線画像データI3’に基づく表示用のX線画像を、外部装置が有するディスプレイに表示させることができる。即ち、出力機能34fは、外部装置の操作者に、ノイズが低減されたX線画像を提供することができる。
The output function 34f outputs the converted X-ray image data I3'. For example, the output function 34f generates an X-ray image for display based on the X-ray image data I3' and causes the display 32 to display the generated X-ray image. As a result, the output function 34f can provide the operator of the medical
ここで、特定機能34bは、新たに取得されたX線画像データの組、又は、新たに取得されたX線画像データとメモリ33に記憶されたX線画像データとの組であって、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するものを、学習用データとして新たに特定することができる。また、新たに学習用データが特定された場合、学習用データセット生成機能34cは、新たに特定された学習用データを含む学習用データセットを新たに生成し、モデル生成機能34dは、新たに生成された学習用データセットに基づいて学習済みモデルを新たに生成する。
Here, the specific function 34b is a set of newly acquired X-ray image data, or a set of newly acquired X-ray image data and X-ray image data stored in the
なお、制御機能34gは、変換機能34eが変換処理を実行するか否かを切り替える入力操作を受け付けることとしてもよい。例えば、制御機能34gは、入力インターフェース31を介して操作者からの入力操作を受け付けることにより、変換機能34eが変換処理を実行するモードと、変換機能34eが変換処理を実行しないモードとを切り替える。
Note that the control function 34g may receive an input operation for switching whether or not the conversion function 34e executes the conversion process. For example, the control function 34g receives an input operation from the operator via the
例えば、変換機能34eが変換処理を実行しないモードにおいてX線診断装置100がX線画像データの収集を行なった場合、取得機能34aは、収集されたX線画像データを取得し、特定機能34bは、学習用データを特定する。一方で、変換機能34eが変換処理を実行するモードにおいてX線診断装置100がX線画像データの収集を行なった場合、取得機能34aは、新たに収集されたX線画像データを取得してメモリ33に記憶させ、変換機能34eは、メモリ33から読み出したX線画像データに対する変換処理を実行する。その後、特定機能34bは、変換機能34eが変換処理を実行しないモードに切り替えられた際、メモリ33からX線画像データを読み出して学習用データを特定する。
For example, when the X-ray
これまで、学習用データの例として、ノイズの程度が異なるX線画像データの組から成る学習用データについて説明した。しかしながら、実施形態はこれに限定されるものではない。 So far, as an example of learning data, learning data composed of sets of X-ray image data with different degrees of noise has been described. However, embodiments are not so limited.
一例を挙げると、特定機能34bは、解像度が異なるX線画像データの組から成る学習用データを特定する。具体的には、特定機能34bは、取得機能34aが取得したX線画像データのうち、撮像方向が略一致するX線画像データの組であって、解像度が異なるものを特定する。例えば、特定機能34bは、取得機能34aが取得したX線画像データのうち、同一検査内で収集されたX線画像データの組を特定する。次に、特定機能34bは、同一検査内で収集されたX線画像データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。そして、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組であって、解像度が異なるものを特定する。 For example, the specifying function 34b specifies learning data consisting of sets of X-ray image data with different resolutions. Specifically, the specifying function 34b specifies a set of X-ray image data having substantially the same imaging direction and having different resolutions among the X-ray image data acquired by the acquiring function 34a. For example, the specifying function 34b specifies a set of X-ray image data acquired in the same examination among the X-ray image data acquired by the acquiring function 34a. Next, the specifying function 34b selects a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same among the sets of X-ray image data acquired in the same examination. Identify. Then, the specifying function 34b specifies a set of X-ray image data in which at least a part of the imaging target region overlaps, the imaging directions are substantially the same, and the resolutions are different.
ここで、解像度が異なるX線画像データの組とは、例えば、検出素子の数(密度)が異なるX線検出器107を用いて撮像されたことにより、画素数(ピクセル数)が異なっているX線画像データの組である。また、例えば、解像度が異なるX線画像データの組とは、少なくとも一方のX線画像データを撮像する際に、検出信号の束ね処理が行われたことにより、画素数が異なっているX線画像データの組である。
Here, the sets of X-ray image data with different resolutions are imaged using the
なお、特定機能34bは、解像度が異なるX線画像データの組について学習用データとして特定するか否かを判定してもよい。例えば、特定機能34bは、撮像方向が略一致し、かつ、撮像方向が同一でなく、かつ、解像度が異なるX線画像データの組についてX線画像データ間の角度補正を行なった場合に、角度補正したX線画像データの組を学習用データとして特定するか否かを判定する。例えば、特定機能34bは、まず、角度補正したX線画像データの組について、画像間の比較を行なう。 Note that the specifying function 34b may determine whether or not to specify sets of X-ray image data with different resolutions as learning data. For example, the specifying function 34b performs angle correction between sets of X-ray image data having substantially the same imaging direction, different imaging directions, and different resolutions. It is determined whether or not to specify the set of corrected X-ray image data as learning data. For example, the specification function 34b first performs an image-to-image comparison for sets of angle-corrected X-ray image data.
例えば、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴点を抽出し、画像間で特徴点の位置が一致するか否かを判定する。一例を挙げると、特定機能34bは、パターン認識等の画像処理によりX線画像データから複数の特徴点を抽出するとともに、仮想患者画像データに基づいて、抽出した複数の特徴点それぞれの識別コードを特定する。そして、特定機能34bは、識別コードごとに、各X線画像データから抽出した特徴点の位置が一致するか否かを判定する。ここで、特徴点の位置が一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、特徴点の位置が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 For example, the specifying function 34b extracts feature points from each set of angle-corrected X-ray image data, and determines whether or not the positions of the feature points match between the images. For example, the specifying function 34b extracts a plurality of feature points from the X-ray image data by image processing such as pattern recognition, and generates an identification code for each of the extracted feature points based on the virtual patient image data. Identify. Then, the specifying function 34b determines whether or not the positions of the feature points extracted from each X-ray image data match for each identification code. Here, when the positions of the feature points match, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. On the other hand, if the positions of the feature points do not match, the identifying function 34b determines not to identify the set of angle-corrected X-ray image data as learning data.
別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、各X線画像データから特徴領域を抽出し、画像間で特徴領域が一致するか否かを判定する。例えば、特定機能34bは、各X線画像データにおいて骨や臓器等を特徴領域として抽出し、抽出した領域の輪郭線を抽出する。ここで、輪郭線が画像間で一致する場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。一方で、輪郭線が一致しない場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 To give another example, the specifying function 34b extracts a characteristic region from each piece of X-ray image data for a set of angle-corrected X-ray image data, and determines whether or not the characteristic regions match between the images. For example, the specifying function 34b extracts a bone, an organ, or the like as a characteristic region from each X-ray image data, and extracts a contour line of the extracted region. Here, if the contour lines match between the images, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. On the other hand, if the contour lines do not match, the specifying function 34b determines not to specify the set of angle-corrected X-ray image data as learning data.
別の例を挙げると、特定機能34bは、角度補正したX線画像データの組について、画像間の類似度を算出する。例えば、特定機能34bは、画素ごとに画像間での画素値の差を算出し、算出した差をそれぞれ二乗した後に合算する。そして、特定機能34bは、算出した合算値に基づいて、類似度を算出する。また、例えば、特定機能34bは、各X線画像データをハッシュ関数に入力してハッシュ値を算出し、画像間でのハッシュ値の差に基づいて、類似度を算出する。 To give another example, the specifying function 34b calculates the degree of similarity between images for sets of angle-corrected X-ray image data. For example, the specific function 34b calculates the pixel value difference between the images for each pixel, squares each of the calculated differences, and then sums them. Then, the specifying function 34b calculates the degree of similarity based on the calculated total value. Also, for example, the specifying function 34b inputs each X-ray image data to a hash function to calculate a hash value, and calculates a degree of similarity based on the difference in hash value between images.
なお、特定機能34bは、X線画像データの解像度を補正してから、類似度を算出してもよい。例えば、特定機能34bは、角度補正したX線画像データの組において解像度が高い方のX線画像データについて、画素の束ね処理を実行する。これにより、特定機能34bは、解像度が高い方のX線画像データについて、他方のX線画像データと同程度まで解像度を低下させる。そして、特定機能34bは、同程度の解像度を有するX線画像データの組について、画像間の類似度を算出する。 Note that the specifying function 34b may calculate the degree of similarity after correcting the resolution of the X-ray image data. For example, the specifying function 34b executes the pixel bundling process for the X-ray image data having the higher resolution in the set of angle-corrected X-ray image data. As a result, the specifying function 34b reduces the resolution of the X-ray image data with the higher resolution to the same extent as the other X-ray image data. Then, the specifying function 34b calculates the degree of similarity between images for sets of X-ray image data having similar resolutions.
また、特定機能34bは、各X線画像データのSN比が異なる場合、コントラストを補正してから、類似度を算出してもよい。例えば、特定機能34bは、角度補正したX線画像データの組のうちSN比が低い方のX線画像データについて、平滑化フィルタを用いた画像処理を実行する。これにより、特定機能34bは、SN比が低い方のX線画像データについて、他方のX線画像データと同程度までSN比を上昇させる。そして、特定機能34bは、同程度のSN比を有するX線画像データの組について、画像間の類似度を算出する。 Further, when the SN ratio of each X-ray image data is different, the specifying function 34b may calculate the degree of similarity after correcting the contrast. For example, the specifying function 34b performs image processing using a smoothing filter on X-ray image data having a lower SN ratio among the set of angle-corrected X-ray image data. As a result, the specifying function 34b increases the SN ratio of the X-ray image data with the lower SN ratio to the same extent as the other X-ray image data. Then, the specifying function 34b calculates the degree of similarity between images for sets of X-ray image data having similar SN ratios.
ここで、類似度が閾値よりも高い場合、特定機能34bは、角度補正したX線画像データの組を学習用データとして特定する。なお、解像度が高い方のX線画像データについて画素の束ね処理を実行していた場合、特定機能34bは、画素の束ね処理を実行する前のX線画像データと他方のX線画像データとの組を学習用データとして特定する。また、SN比が低い方のX線画像データについて画像処理を実行していた場合、特定機能34bは、画像処理を実行する前のX線画像データと他方のX線画像データとの組を学習用データとして特定する。一方で、類似度が閾値よりも低い場合、特定機能34bは、角度補正したX線画像データの組を、学習用データとして特定しないと判定する。 Here, if the similarity is higher than the threshold, the specifying function 34b specifies a set of angle-corrected X-ray image data as learning data. Note that when the pixel bundling process has been executed for the X-ray image data with the higher resolution, the specific function 34b selects the X-ray image data before executing the pixel bundling process and the other X-ray image data. A set is specified as training data. Further, when image processing is performed on X-ray image data with a lower SN ratio, the specific function 34b learns a set of X-ray image data before image processing and the other X-ray image data. data for use. On the other hand, if the degree of similarity is lower than the threshold, the identifying function 34b determines not to identify the set of angle-corrected X-ray image data as learning data.
次に、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、解像度が異なるX線画像データの組から成る学習用データを抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、解像度が異なるX線画像データの組から成る複数の学習用データを含む学習用データセットを、学習用データセットD2とも記載する。
Next, the learning data set
次に、モデル生成機能34dは、学習用データセットD2に基づいて、入力されるX線画像データを、より解像度が高いX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。なお、以下では、学習用データセットD2に基づいて生成された学習済みモデルを、学習済みモデルM2とも記載する。 Next, the model generation function 34d is based on the learning data set D2, and the learning incorporated in the process of converting the input X-ray image data into X-ray image data corresponding to X-ray image data with higher resolution. Generate a finished model. In addition, below, the trained model generated based on the data set D2 for learning is also described as the trained model M2.
モデル生成機能34dが学習済みモデルM2を生成した後、新たにX線画像データI4が収集された場合、取得機能34aは、X線画像データI4を取得する。そして、変換機能34eは、学習済みモデルM2に基づいて、X線画像データI4に対する変換処理を実行する。具体的には、変換機能34eは、学習済みモデルM2に基づいて、入力されるX線画像データI4を、より解像度が高いX線画像データに相当するX線画像データI4’に変換する変換処理を実行する。例えば、変換機能34eは、新たに収集されたX線画像データI4を、より高精細なX線検出器107を用いて撮像されたX線画像データに相当するX線画像データI4’に変換して、高解像度化する。
When X-ray image data I4 is newly acquired after the model generation function 34d has generated the learned model M2, the acquisition function 34a acquires the X-ray image data I4. Then, the conversion function 34e executes conversion processing on the X-ray image data I4 based on the learned model M2. Specifically, the conversion function 34e converts the input X-ray image data I4 into X-ray image data I4' corresponding to higher resolution X-ray image data based on the learned model M2. to run. For example, the conversion function 34e converts the newly acquired X-ray image data I4 into X-ray image data I4' corresponding to the X-ray image data captured using the higher-
そして、出力機能34fは、変換処理後のX線画像データI4’ を出力する。例えば、出力機能34fは、X線画像データI4’に基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ32に表示させる。これにより、出力機能34fは、医用情報処理装置30の操作者に、高解像度のX線画像を提供することができる。また、例えば、出力機能34fは、X線画像データI4’を、医用情報処理装置30とネットワークNWを介して接続された外部装置に出力する。この場合、外部装置は、X線画像データI4’に基づく表示用のX線画像を、外部装置が有するディスプレイに表示させることができる。即ち、出力機能34fは、外部装置の操作者に、高解像度のX線画像を提供することができる。
The output function 34f outputs the converted X-ray image data I4'. For example, the output function 34f generates an X-ray image for display based on the X-ray image data I4' and causes the display 32 to display the generated X-ray image. Thereby, the output function 34f can provide the operator of the medical
別の例を挙げると、特定機能34bは、コントラスト画像とマスク像との組から成る学習用データを特定する。具体的には、特定機能34bは、取得機能34aが取得したX線画像データのうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組であって、コントラスト画像とマスク像との組を特定する。 To give another example, the specifying function 34b specifies learning data consisting of a pair of a contrast image and a mask image. Specifically, among the X-ray image data acquired by the acquisition function 34a, the specifying function 34b is a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. to identify pairs of contrast and mask images.
ここで、コントラスト画像は、例えば、被検体P1の血管内に造影剤が注入された状態で撮像されたX線画像データである。コントラスト画像においては、血管内に注入された造影剤と、背景成分(被検体P1の骨や軟組織等)とが描出される。即ち、コントラスト画像には血管と背景成分とが描出される。また、マスク像は、例えば、被検体P1の血管内に造影剤が注入されていない状態で撮像されたX線画像データ(非造影画像)と、コントラスト画像との差分画像である。即ち、マスク像は、コントラスト画像から背景成分を除去した血管像である。 Here, the contrast image is, for example, X-ray image data captured with a contrast agent injected into the blood vessel of the subject P1. In the contrast image, a contrast agent injected into blood vessels and background components (bone, soft tissue, etc. of subject P1) are depicted. That is, the contrast image depicts blood vessels and background components. Also, the mask image is, for example, a difference image between the X-ray image data (non-contrast image) captured with no contrast agent injected into the blood vessel of the subject P1 and the contrast image. That is, the mask image is a blood vessel image obtained by removing the background component from the contrast image.
次に、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、コントラスト画像とマスク像との組から成る学習用データを抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、コントラスト画像とマスク像との組から成る複数の学習用データを含む学習用データセットを、学習用データセットD3とも記載する。
Next, the learning data set
次に、モデル生成機能34dは、学習用データセットD3に基づいて、入力されるX線画像データを、背景成分を除去したX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。即ち、モデル生成機能34dは、学習用データセットD3に基づいて、入力されるコントラスト画像を、マスク像に相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。なお、以下では、学習用データセットD3に基づいて生成された学習済みモデルを、学習済みモデルM3とも記載する。 Next, the model generation function 34d is incorporated in the process of converting the input X-ray image data into X-ray image data corresponding to X-ray image data from which background components have been removed, based on the learning data set D3. Generate a trained model. That is, the model generation function 34d generates a trained model to be incorporated in the process of converting an input contrast image into X-ray image data corresponding to a mask image, based on the learning data set D3. In addition, below, the trained model generated based on the data set D3 for learning is also described as the trained model M3.
モデル生成機能34dが学習済みモデルM3を生成した後、血管内に造影剤が注入された状態の被検体P1からX線画像データI5(コントラスト画像)が収集された場合、取得機能34aは、X線画像データI5を取得する。そして、変換機能34eは、学習済みモデルM3に基づいて、X線画像データI5に対する変換処理を実行する。具体的には、変換機能34eは、学習済みモデルM3に基づいて、コントラスト画像であるX線画像データI5を、マスク像に相当するX線画像データI5’に変換する変換処理を実行する。即ち、変換機能34eは、X線画像データI5における背景成分を除去し、血管像を生成する。 After the model generation function 34d has generated the learned model M3, when the X-ray image data I5 (contrast image) is acquired from the subject P1 in which the contrast agent is injected into the blood vessel, the acquisition function 34a Acquire the line image data I5. Then, the conversion function 34e executes conversion processing on the X-ray image data I5 based on the learned model M3. Specifically, the conversion function 34e executes conversion processing for converting the X-ray image data I5, which is a contrast image, into X-ray image data I5', which corresponds to a mask image, based on the learned model M3. That is, the conversion function 34e removes the background component in the X-ray image data I5 to generate a blood vessel image.
そして、出力機能34fは、変換処理後のX線画像データI5’ を出力する。例えば、出力機能34fは、X線画像データI5’に基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ32に表示させる。また、例えば、出力機能34fは、X線画像データI5’ を、医用情報処理装置30とネットワークNWを介して接続された外部装置に出力する。この場合、外部装置は、X線画像データI5’に基づく表示用のX線画像を、外部装置が有するディスプレイに表示させることができる。
The output function 34f outputs the converted X-ray image data I5'. For example, the output function 34f generates an X-ray image for display based on the X-ray image data I5' and causes the display 32 to display the generated X-ray image. Also, for example, the output function 34f outputs the X-ray image data I5' to an external device connected to the medical
次に、医用情報処理装置30による処理の手順の一例を、図11を用いて説明する。図11は、第1の実施形態に係る医用情報処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS101及びステップS108は、取得機能34aに対応するステップである。ステップS102及びステップS103は、特定機能34bに対応するステップである。ステップS104及びステップS105は、学習用データセット生成機能34cに対応するステップである。ステップS106及びステップS107は、モデル生成機能34dに対応するステップである。ステップS109及びステップS110は、変換機能34eに対応するステップである。ステップS111は、出力機能34fに対応するステップである。
Next, an example of the procedure of processing by the medical
まず、処理回路34は、X線診断装置100又は画像保管装置20から、X線画像データを取得する(ステップS101)。次に、処理回路34は、取得したX線画像データについて、学習用データの特定に使用するか否かを判定し(ステップS102)、使用すると判定したX線画像データから学習用データを特定する(ステップS103)。次に、処理回路34は、特定した複数の学習用データを含む学習用データセットを生成し(ステップS104)、生成した学習用データセットをメモリ33に格納する(ステップS105)。
First, the processing circuit 34 acquires X-ray image data from the X-ray
ここで、処理回路34は、検査情報に基づいて設定された時間であるか否かを判定する(ステップS106)。設定された時間である場合(ステップS106肯定)、処理回路34は、学習用データセットに基づいて学習済みモデルを生成する(ステップS107)。一方で、設定された時間でない場合(ステップS106否定)、又は、ステップS107の後、処理回路34は、新たにX線画像データを取得したか否かを判定する(ステップS108)。 Here, the processing circuit 34 determines whether or not it is the time set based on the inspection information (step S106). If it is the set time (Yes at step S106), the processing circuitry 34 generates a trained model based on the learning data set (step S107). On the other hand, if it is not the set time (No at step S106), or after step S107, the processing circuit 34 determines whether or not new X-ray image data has been acquired (step S108).
新たにX線画像データを取得した場合(ステップS108肯定)、処理回路34は、変換処理を実行するか否かを判定する(ステップS109)。ここで、変換処理を実行すると判定した場合(ステップS109肯定)、処理回路34は、ステップS108において新たに取得したX線画像データに対して変換処理を実行し(ステップS110)、変換処理後のX線画像データを出力する(ステップS111)。なお、処理回路34は、ステップS110において、最後に生成された学習済みモデルに基づいて変換処理を実行する。 When new X-ray image data is acquired (Yes at step S108), the processing circuit 34 determines whether or not to execute conversion processing (step S109). Here, if it is determined that the conversion process is to be executed (Yes at step S109), the processing circuit 34 executes the conversion process on the X-ray image data newly acquired at step S108 (step S110). X-ray image data is output (step S111). In step S110, the processing circuit 34 executes conversion processing based on the last generated learned model.
変換処理を実行しないと判定した場合(ステップS109否定)、又は、ステップS111の後、処理回路34は、再度ステップS102に移行する。また、新たにX線画像データを取得しない場合(ステップS108否定)、処理回路34は、処理を終了する。 If it is determined not to execute the conversion process (No at step S109), or after step S111, the processing circuit 34 proceeds to step S102 again. If no new X-ray image data is acquired (No at step S108), the processing circuit 34 terminates the process.
上述したように、第1の実施形態によれば、取得機能34aは、X線画像データを取得する。また、特定機能34bは、取得機能34aにより取得されるX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データの組から成る学習用データを特定する。従って、第1の実施形態に係る医用情報処理装置30は、学習用データ不足を解消することができる。
As described above, according to the first embodiment, the acquisition function 34a acquires X-ray image data. Further, the specifying function 34b provides a set of X-ray image data obtained by the obtaining function 34a, in which at least one of the imaging conditions and the subject conditions is different and the imaging directions are substantially the same. Identify training data consisting of Therefore, the medical
また、上述したように、学習用データセット生成機能34cは、特定機能34bが特定した複数の学習用データを含む学習用データセットを生成する。また、モデル生成機能34dは、入力されるX線画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。
Further, as described above, the learning data set
例えば、モデル生成機能34dは、学習用データセットD1に基づいて、入力されるX線画像データを、よりノイズが少ないX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルM1を生成する。従って、第1の実施形態に係る医用情報処理装置30は、X線画像データにおけるノイズを低減することができる。これにより、医用情報処理装置30は、撮像に使用されるX線を低線量化して、X線管102の寿命を延長するとともに、被検体の被ばく線量を低減することもできる。
For example, the model generation function 34d is based on the learning data set D1, and the learned model incorporated in the process of converting the input X-ray image data into X-ray image data corresponding to X-ray image data with less noise. Generate model M1. Therefore, the medical
また、例えば、モデル生成機能34dは、学習用データセットD2に基づいて、入力されるX線画像データを、より解像度が高いX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルM2を生成する。従って、第1の実施形態に係る医用情報処理装置30は、X線画像データの解像度を向上させることができる。これにより、医用情報処理装置30は、撮像に使用されるX線を低線量化して、X線管102の寿命を延長するとともに、被検体の被ばく線量を低減することもできる。
Further, for example, the model generation function 34d is incorporated in a process of converting input X-ray image data into X-ray image data corresponding to higher resolution X-ray image data based on the learning data set D2. Generate a trained model M2. Therefore, the medical
また、例えば、モデル生成機能34dは、学習用データセットD3に基づいて、入力されるコントラスト画像を、マスク像に相当するX線画像データに変換する処理に組み込まれる学習済みモデルM3を生成する。従って、第1の実施形態に係る医用情報処理装置30は、非造影画像を用いずともコントラスト画像の背景成分を除去し、血管像を生成することができる。ひいては、医用情報処理装置30は、非造影画像の撮像を省略し、被検体P1の被爆量を低減することができる。
Also, for example, the model generation function 34d generates a learned model M3 to be incorporated in the process of converting an input contrast image into X-ray image data corresponding to a mask image, based on the learning data set D3. Therefore, the medical
また、上述したように、第1の実施形態に係る医用情報処理装置30は、新たにX線画像データが撮像される度に学習用データを自動的に特定する。従って、医用情報処理装置30は、撮像が行われるほど多くの学習用データを蓄積し、学習用データ不足を解消することができる。ひいては、医用情報処理装置30は、次第に蓄積される学習用データから学習用データセットを生成し、生成した学習用データセットに基づいて学習済みモデルを生成することで、変換処理の精度を次第に向上させることができる。
Further, as described above, the medical
また、上述したように、第1の実施形態に係る特定機能34bは、取得機能34aにより取得されるX線画像データについて、学習用データの特定に使用するか否かを判定し、使用すると判定したX線画像データから学習用データを特定する。従って、第1の実施形態に係る医用情報処理装置30は、学習用データの質を向上させることができる。
Further, as described above, the specifying function 34b according to the first embodiment determines whether or not the X-ray image data acquired by the acquiring function 34a is used for specifying learning data, and determines that it is to be used. Learning data is specified from the obtained X-ray image data. Therefore, the medical
例えば、特定機能34bは、取得機能34aにより取得されるX線画像データのうち、撮像の条件及び被検体の条件が略一致し、かつ、撮像対象領域及び撮像方向が略一致する複数のX線画像データについては、その一部を学習用データの特定に使用すると判定する。これにより、特定機能34bは、略同一の学習用データが大量に登録されるといった事態を防止し、データの偏りを防ぐことができる。 For example, the specifying function 34b selects a plurality of X-ray image data obtained by the obtaining function 34a that have substantially the same imaging conditions and subject conditions, and have substantially the same imaging target region and imaging direction. As for the image data, it is determined that part of it is used to identify the learning data. As a result, the specific function 34b can prevent a situation in which a large amount of substantially identical learning data are registered, and data bias can be prevented.
また、例えば、特定機能34bは、取得機能34aにより取得されるX線画像データのうち、時系列の複数のX線画像データについては、階調の安定性に関する条件及び残像に関する条件の少なくとも一方を満たすX線画像データを学習用データの特定に使用すると判定する。これにより、特定機能34bは、階調が不安定なX線画像データや、残像の多いX線画像データから成る学習用データが登録される事態を防止し、学習用データの質を向上させることができる。 Further, for example, the specifying function 34b sets at least one of the condition regarding the stability of gradation and the condition regarding afterimage for a plurality of pieces of time-series X-ray image data among the X-ray image data obtained by the obtaining function 34a. X-ray image data that satisfies the criteria is determined to be used for specifying learning data. As a result, the specific function 34b prevents the registration of learning data composed of X-ray image data with unstable gradation and X-ray image data with many afterimages, thereby improving the quality of the learning data. can be done.
また、上述したように、第1の実施形態に係る制御機能34gは、変換機能34eが変換処理を実行するか否かを切り替える入力操作を受け付ける。これにより、医用情報処理装置30は、変換機能34eによる変換処理と、特定機能34bによる学習用データの特定処理とを異なるタイミングで実行し、処理負荷を時間的に分散させることができる。ひいては、医用情報処理装置30は、各処理について十分な計算資源を担保し、各処理を高速化することができる。
Further, as described above, the control function 34g according to the first embodiment receives an input operation for switching whether or not the conversion function 34e executes conversion processing. As a result, the medical
なお、図1においては、医用情報処理装置30の処理回路34にて、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gが実現するものとして説明したが、複数のプロセッサを組み合わせて処理回路34を構成し、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても構わない。また、処理回路34は、異なる装置のプロセッサを組み合わせて構成されることとしてもよい。
In FIG. 1, the processing circuit 34 of the medical
例えば、医用情報処理システム1は、複数の医用情報処理装置30を備え、医用情報処理装置30のそれぞれが有するプロセッサを組み合わせることにより、処理回路34を構成することとしてもよい。一例を挙げると、医用情報処理システム1は、取得機能34a及び特定機能34bを実現するプロセッサを有する医用情報処理装置30(第1の医用情報処理装置)と、学習用データセット生成機能34c及びモデル生成機能34dを実現するプロセッサを有する医用情報処理装置30(第2の医用情報処理装置)とを備える。また、例えば、医用情報処理装置30が有するプロセッサ(処理回路34等)と、医用画像診断装置10のプロセッサ(処理回路111等)とを組み合わせることにより、処理回路34を構成することとしてもよい。
For example, the medical
一例を挙げると、第1の医用情報処理装置の処理回路は、取得機能34aと、特定機能34bと、送信機能34h(図示せず)とを有する。また、第2の医用情報処理装置の処理回路は、学習用データセット生成機能34cと、モデル生成機能34dと、受信機能34i(図示せず)とを有する。なお、送信機能34hは、送信部の一例である。また、受信機能34iは、受信部の一例である。この場合、第1の医用情報処理装置における送信機能34hは、第2の医用情報処理装置に対して、特定機能34bにより特定された学習用データを送信する。また、第2の医用情報処理装置における受信機能34iは、第1の医用情報処理装置により送信された学習用データを受信する。また、学習用データセット生成機能34cは、受信機能34iが受信した学習用データを含む学習用データセットを生成する。そして、モデル生成機能34dは、学習用データセット生成機能34cが生成した学習用データセットに基づいて、学習済みモデルを生成する。
As an example, the processing circuitry of the first medical information processing apparatus has an acquisition function 34a, a specification function 34b, and a transmission function 34h (not shown). The processing circuit of the second medical information processing apparatus has a learning data
例えば、第2の医用情報処理装置におけるモデル生成機能34dは、受信機能34iが受信した学習用データの数が閾値を超えた時に、学習済みモデルを生成する。或いは、モデル生成機能34dは、検査情報に基づいてX線診断装置100によるX線画像データの収集が行われない時間を取得し、取得した時間において、X線診断装置100が有するGPU等を利用して、学習済みモデルを生成する。或いは、モデル生成機能34dは、学習用データセット生成機能34cが学習用データセットを生成し次第、学習済みモデルを生成する。
For example, the model generating function 34d in the second medical information processing apparatus generates a trained model when the number of learning data received by the receiving function 34i exceeds a threshold. Alternatively, the model generation function 34d acquires a time during which the X-ray
また、上述した実施形態では、学習用データの例として、X線画像データの組から成る学習用データについて説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、特定機能34bは、X線画像データの組と、他のデータとから成る学習用データを特定してもよい。ここで、他のデータの例としては、例えば、特定機能34bが学習用データを特定した日時の情報が挙げられる。即ち、特定機能34bは、少なくともX線画像データを組として含む学習用データを特定する。 Further, in the above-described embodiment, learning data made up of sets of X-ray image data has been described as an example of learning data. However, embodiments are not so limited. For example, the identification function 34b may identify training data consisting of X-ray image data sets and other data. Here, examples of other data include information on the date and time when the specifying function 34b specified the learning data. That is, the specifying function 34b specifies learning data that includes at least X-ray image data as a set.
同様に、学習用データセット生成機能34cは、複数の学習用データと、他のデータとを含む学習用データセットを生成してもよい。ここで、他のデータの例としては、例えば、学習用データセット生成機能34cが学習用データセットを生成した日時の情報が挙げられる。即ち、学習用データセット生成機能34cは、少なくとも複数の学習用データを含む学習用データセットを生成する。
Similarly, the learning data set
(第2の実施形態)
上述した第1の実施形態では、処理回路34が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gを有する場合について説明した。これに対し、第2の実施形態では、処理回路111が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gに相当する機能を有する場合について説明する。
(Second embodiment)
In the above-described first embodiment, the processing circuit 34 has the acquisition function 34a, the specific function 34b, the learning data set
第2の実施形態に係るX線診断装置100は、図2に示した第1の実施形態に係るX線診断装置100と同様の構成を有し、処理回路111が、取得機能111d、特定機能111e、学習用データセット生成機能111f、モデル生成機能111g及び変換機能111hを更に有する点で相異する。そこで、第1の実施形態において説明した構成と同様の構成を有する点については、図2と同一の符号を付し、説明を省略する。
The X-ray
以下、図12を用いて、第2の実施形態に係るX線診断装置100について説明する。図12は、第2の実施形態に係るX線診断装置100の構成の一例を示すブロック図である。図12に示すように、X線診断装置100は、X線高電圧装置101と、X線管102と、コリメータ103と、フィルタ104と、天板105と、Cアーム106と、X線検出器107と、メモリ108と、ディスプレイ109と、入力インターフェース110と、処理回路111とを備える。
An X-ray
また、処理回路111は、収集機能111a、出力機能111b、制御機能111cを実行することで、X線診断装置100全体の動作を制御する。更に、処理回路111は、取得機能34aに対応する取得機能111dを実行する。また、処理回路111は、特定機能34bに対応する特定機能111eを実行する。また、処理回路111は、学習用データセット生成機能34cに対応する学習用データセット生成機能111fを実行する。また、処理回路111は、モデル生成機能34dに対応するモデル生成機能111gを実行する。また、処理回路111は、変換機能34eに対応する変換機能111hを実行する。
The processing circuit 111 also controls the overall operation of the X-ray
以上、第2の実施形態に係るX線診断装置100の構成の一例について説明した。かかる構成の下、X線診断装置100は、X線画像データに関する学習用データ不足を解消する。
An example of the configuration of the X-ray
具体的には、収集機能111aは、まず、X線画像データを収集する。例えば、収集機能111aは、X線高電圧装置101を制御することで、X線管102から被検体P1に対してX線を照射させる。この際、X線検出器107は、被検体P1を透過したX線を検出して検出信号を出力する。そして、収集機能111aは、X線検出器107から受信した検出信号に基づいてX線画像データを生成し、生成したX線画像データをメモリ108に格納する。ここで、出力機能111bは、X線画像データを画像保管装置20に出力し、記憶させることとしてもよい。
Specifically, the acquisition function 111a first acquires X-ray image data. For example, the acquisition function 111a controls the X-ray high-voltage device 101 so that the
次に、取得機能111dは、収集機能111aにより収集されたX線画像データを取得する。なお、取得機能111dは、メモリ108に記憶されたX線画像データを取得してもよいし、収集機能111aにより収集されたX線画像データをメモリ108を介すことなく取得してもよい。また、取得機能111dは、画像保管装置20に記憶されたX線画像データを取得する場合であってもよい。
Next, the acquisition function 111d acquires the X-ray image data acquired by the acquisition function 111a. The acquisition function 111d may acquire the X-ray image data stored in the memory 108, or may acquire the X-ray image data acquired by the acquisition function 111a without using the memory 108. Also, the acquisition function 111d may acquire X-ray image data stored in the
次に、特定機能111eは、取得機能111dにより取得されるX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定する。例えば、特定機能111eは、取得機能111dにより取得されるX線画像データのうち、同一検査内で収集されたX線画像データの組を特定する。次に、特定機能111eは、同一検査内で収集されたX線画像データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組を特定する。そして、特定機能111eは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致するX線画像データの組であって、撮像の条件及び被検体の条件のうち少なくとも一方が異なるものを特定する。次に、学習用データセット生成機能111fは、特定機能111eにより特定された複数の学習用データを含む学習用データセットを生成する。 Next, the specifying function 111e selects X-ray image data in which at least one of the imaging condition and the subject condition is different from among the X-ray image data acquired by the acquiring function 111d and the imaging directions are substantially the same. Identify training data to include as a set. For example, the specifying function 111e specifies a set of X-ray image data acquired in the same examination among the X-ray image data acquired by the acquiring function 111d. Next, the specifying function 111e selects a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same among the sets of X-ray image data acquired in the same examination. Identify. The specific function 111e is a set of X-ray image data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same, and at least one of the imaging condition and the subject condition is different. Identify things. Next, the learning data set generation function 111f generates a learning data set including the plurality of learning data specified by the specifying function 111e.
次に、モデル生成機能111gは、学習用データセットに基づいて、入力されるX線画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データに相当するX線画像データに変換する処理に組み込まれる学習済みモデルを生成する。例えば、モデル生成機能111gは、検査情報に基づいて、収集機能111aがX線画像データの収集を行わない時間を取得し、取得した時間を、学習済みモデルを生成する時間として設定する。そして、モデル生成機能111gは、設定された時間に学習済みモデルを生成する。 Next, the model generation function 111g converts the input X-ray image data into an X-ray image corresponding to X-ray image data in which at least one of the imaging condition and the subject condition is different, based on the learning data set. Generate a trained model that is embedded in the process of transforming data. For example, the model generation function 111g acquires the time during which the acquisition function 111a does not acquire X-ray image data based on the examination information, and sets the acquired time as the time for creating the learned model. Then, the model generation function 111g generates a learned model at the set time.
モデル生成機能111gが学習済みモデルを生成した後、収集機能111aが新たにX線画像データを収集した場合、取得機能111dは、新たに収集されたX線画像データを取得する。ここで、変換機能111hは、学習済みモデルに基づいて、新たに収集されたX線画像データに対する変換処理を実行する。そして、出力機能111bは、変換処理後のX線画像データを出力する。例えば、出力機能111bは、変換処理後のX線画像データに基づいて表示用のX線画像を生成し、生成したX線画像をディスプレイ109に表示させる。また、例えば、出力機能111bは、変換処理後のX線画像データを、X線診断装置100とネットワークNWを介して接続された外部装置に出力する。
When the acquisition function 111a acquires new X-ray image data after the model generation function 111g has generated a learned model, the acquisition function 111d acquires the newly acquired X-ray image data. Here, the conversion function 111h executes conversion processing on the newly acquired X-ray image data based on the learned model. Then, the output function 111b outputs the X-ray image data after conversion processing. For example, the output function 111b generates an X-ray image for display based on the converted X-ray image data, and causes the display 109 to display the generated X-ray image. Also, for example, the output function 111b outputs the converted X-ray image data to an external device connected to the X-ray
上述したように、第2の実施形態によれば、X線検出器107は、X線を検出して検出信号を出力する。また、収集機能111aは、検出信号に基づくX線画像データを収集する。また、取得機能111dは、収集機能111aにより収集されるX線画像データを取得する。また、特定機能111eは、取得機能111dにより取得されるX線画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致するX線画像データを組として含む学習用データを特定する。従って、第2の実施形態に係るX線診断装置100は、学習用データ不足を解消することができる。
As described above, according to the second embodiment, the
なお、X線診断装置100における取得機能111dは、収集機能111aにより収集されるX線画像データのみならず、X線診断装置100以外のX線診断装置により収集されたX線画像データを取得してもよい。この場合、X線診断装置100は、より多くの学習用データを特定して、学習用データ不足を解消することができる。
Note that the acquisition function 111d in the X-ray
(第3の実施形態)
上述した第1~第2の実施形態では、医用画像診断装置10の例として、X線診断装置100について説明した。これに対し、第3の実施形態では、医用画像診断装置10の例として、X線診断装置100以外の放射線診断装置について説明する。
(Third embodiment)
In the first and second embodiments described above, the X-ray
第3の実施形態に係る医用情報処理システム1は、図1に示した第1の実施形態に係る医用情報処理システム1と同様の構成を有し、X線診断装置100に代えて、又は、X線診断装置100に加えて、X線CT装置やSPECT装置を有する点で相異する。また、第3の実施形態に係る医用情報処理装置30は、図1に示した第1の実施形態に係る医用情報処理装置30と同様の構成を有し、出力機能34fによる処理の一部が相違する。そこで、第1の実施形態において説明した構成と同様の構成を有する点については、図1と同一の符号を付し、説明を省略する。
The medical
例えば、医用情報処理システム1がX線CT装置を備える場合、X線CT装置は、架台装置と、寝台装置と、コンソール装置とを有する。寝台装置は、被検体が載置される天板を含む。天板は、コンソール装置による制御の下、移動したり、傾斜したりする。架台装置は、X線管とX線検出器とを支持する回転フレームを含む。なお、架台装置は、傾斜可能に構成されてもよい。この場合、架台装置と天板との相対的な角度の変更は、天板の傾斜によって行われてもよいし、架台装置の傾斜によって行われてもよいし、これらの複合によって行われてもよい。また、架台装置は、移動可能に構成されてもよい。この場合、架台装置と天板との位置関係の相対的な変更は、天板の移動によって行われてもよいし、架台装置の走行によって行われてもよいし、これらの複合によって行われてもよい。なお、上記のX線管やX線検出器、回転フレーム、天板等は、X線CT装置の撮像部に含まれる。
For example, when the medical
例えば、X線CT装置は、被検体を挟んで対向した状態でX線管とX線検出器とを支持する回転フレームを回転させながら、被検体に対してX線管からX線を照射させる。この際、X線検出器は、被検体を透過したX線を検出して、検出信号をデータ収集回路に対して出力する。なお、X線CT装置が備えるX線検出器は、検出器の一例である。 For example, an X-ray CT apparatus irradiates a subject with X-rays from the X-ray tube while rotating a rotating frame that supports an X-ray tube and an X-ray detector facing each other across the subject. . At this time, the X-ray detector detects X-rays that have passed through the subject and outputs a detection signal to the data acquisition circuit. Note that the X-ray detector included in the X-ray CT apparatus is an example of a detector.
データ収集回路は、検出器から入力された検出信号に対して、増幅処理及びA/D変換処理を実行することで検出データを生成するDAS(Data Acquisition System)である。更に、データ収集回路は、生成した検出データをX線CT装置の処理回路に出力する。処理回路は、検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を施したデータを生成する。 The data acquisition circuit is a DAS (Data Acquisition System) that generates detection data by performing amplification processing and A/D conversion processing on detection signals input from the detector. Furthermore, the data acquisition circuit outputs the generated detection data to the processing circuit of the X-ray CT apparatus. The processing circuit generates data obtained by performing preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detected data.
ここで、取得機能34aは、医用画像データとして、X線CT装置により生成された前処理前のデータ(検出データ)、又は、前処理後のデータを取得する。以下、前処理前のデータ(検出データ)および前処理後のデータを総称して投影データとも記載する。更に、特定機能34bは、取得機能34aにより取得される投影データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する投影データを組として含む学習用データを特定する。 Here, the acquisition function 34a acquires data before preprocessing (detection data) generated by the X-ray CT apparatus or data after preprocessing as medical image data. Hereinafter, data before preprocessing (detection data) and data after preprocessing are also collectively referred to as projection data. Further, the specifying function 34b includes, as a set, projection data in which at least one of the imaging condition and the subject condition is different from the projection data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify your data.
例えば、特定機能34bは、まず、取得機能34aにより取得された投影データのうち、同一検査内で収集された投影データの組を特定する。次に、特定機能34bは、同一検査内で収集された投影データの組のうち、撮像方向が略一致する投影データの組を特定する。例えば、特定機能34bは、撮像部の全部または一部の配置に基づいて、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組を特定する。 For example, the identifying function 34b first identifies a set of projection data acquired in the same examination among the projection data acquired by the acquiring function 34a. Next, the specifying function 34b specifies a set of projection data having substantially the same imaging direction among the sets of projection data acquired in the same examination. For example, the specifying function 34b specifies a set of projection data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same, based on the arrangement of all or part of the imaging units.
一例を挙げると、X線CT装置のコンソール装置は、各投影データの付帯情報に、撮像時におけるX線管の位置(管球位置)や、架台装置に対する天板の位置を記憶させる。この場合、特定機能34bは、付帯情報に基づいて各投影データの管球位置を比較することにより、同一検査内で収集された投影データの組の間で、撮像方向が略一致しているか否かを判定することができる。また、特定機能34bは、付帯情報に基づいて、各投影データが撮像された時点での天板位置を比較することにより、撮像方向が略一致していると判定した投影データの組の間で、撮像対象領域の少なくとも一部が重複しているか否かを判定することができる。即ち、特定機能34bは、管球位置や天板位置等、撮像部の配置に基づいて、投影データの組の特定を行なう。そして、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なるX線画像データを組として含む学習用データを特定する。 For example, the console device of the X-ray CT apparatus stores the position of the X-ray tube (tube position) at the time of imaging and the position of the top plate with respect to the gantry device as supplementary information of each projection data. In this case, the specifying function 34b compares the tube position of each projection data based on the incidental information to determine whether or not the imaging directions substantially match between sets of projection data acquired in the same examination. It is possible to determine whether Further, the specifying function 34b compares the positions of the tabletops at the time when each piece of projection data was captured, based on the incidental information, so that between the sets of projection data determined to have approximately the same imaging direction, , it can be determined whether or not at least a part of the imaging target regions overlap. That is, the specifying function 34b specifies a set of projection data based on the arrangement of the imaging unit, such as the position of the tube and the position of the tabletop. Then, the specifying function 34b selects an X-ray image for which at least one of the imaging condition and the subject condition is different from a set of projection data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. Identify training data that includes the data as a set.
次に、学習用データセット生成機能34cは、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。例えば、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、管電流値の条件が異なっている学習用データ(ノイズの程度が異なる投影データを組として含む学習用データ)を複数抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、ノイズの程度が異なる投影データを組として含む複数の学習用データを含む学習用データセットを、学習用データセットD4とも記載する。次に、モデル生成機能34dは、学習用データセットD4に基づいて、入力される投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM4を生成する。
Next, the learning data set
モデル生成機能34dが学習済みモデルを生成した後、X線CT装置によって新たに投影データが収集された場合、取得機能34aは、新たに収集された投影データを取得する。そして、変換機能34eは、学習済みモデルに基づいて、新たに収集された投影データに対する変換処理を実行する。例えば、変換機能34eは、学習済みモデルM4に基づいて、新たに収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する変換処理を実行する。 After the model generation function 34d has generated the learned model, when the X-ray CT apparatus acquires new projection data, the acquisition function 34a acquires the newly acquired projection data. Then, the conversion function 34e executes conversion processing on the newly acquired projection data based on the learned model. For example, the conversion function 34e performs conversion processing to convert newly acquired projection data into projection data corresponding to projection data with less noise based on the learned model M4.
次に、出力機能34fは、変換処理後の投影データを出力する。例えば、出力機能34fは、変換処理後の投影データを、X線CT装置の処理回路に出力する。また、X線CT装置の処理回路は、変換処理後の投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行なうことにより、CT画像データ(ボリュームデータ)を生成する。また、例えば、X線CT装置の処理回路は、変換処理後の投影データから複数の断層画像データを生成し、複数の断層画像データを公知の方法により変換することで、CT画像データを生成する。更に、X線CT装置の処理回路は、生成したCT画像データに基づいて、ボリュームレンダリング画像等の表示画像を生成し、生成した表示画像を表示させる。 Next, the output function 34f outputs projection data after conversion processing. For example, the output function 34f outputs the projection data after conversion processing to the processing circuit of the X-ray CT apparatus. In addition, the processing circuit of the X-ray CT apparatus performs reconstruction processing using the filtered back projection method, the iterative reconstruction method, etc. on the projection data after the conversion processing, thereby obtaining CT image data (volume data). ). Further, for example, the processing circuit of the X-ray CT apparatus generates a plurality of tomographic image data from the projection data after conversion processing, and converts the plurality of tomographic image data by a known method to generate CT image data. . Furthermore, the processing circuit of the X-ray CT apparatus generates a display image such as a volume rendering image based on the generated CT image data, and displays the generated display image.
また、例えば、医用情報処理システム1がSPECT装置を備える場合、SPECT装置は、被検体に投与され、被検体の生体組織に選択的に取り込まれた放射性医薬品(トレーサ)の核種(RI:Radio Isotope)から放射される放射線(ガンマ線)をガンマカメラにより検出し、検出信号を出力する。なお、ガンマカメラは、検出器の一例である。
Further, for example, when the medical
具体的には、ガンマカメラは、放射性医薬品から放出されたガンマ線の強度分布を2次元的に検出し、検出した強度分布を示すデータに対して、増幅処理やA/D変換処理を施すことで検出信号を生成する。例えば、ガンマカメラは、シンチレータと、光電子増倍管(PMT:Photomultiplier Tube)とを有するフォトンカウンティング方式の放射線検出器である。シンチレータは、ガンマ線を紫外領域にピークを持つ光に変換する。PMTは、シンチレータからの発光を電気信号に変換し、その電流値を増倍させる。なお、ガンマカメラには、入射方向を制限するコリメータが取り付けられている。ガンマカメラは、コリメータにより制限された入射方向で入射したガンマ線を検出する。 そして、ガンマカメラは、生成した検出信号をデータ収集回路に送信する。データ収集回路は、ガンマカメラから入力された検出信号を収集し、収集した検出信号それぞれに対して、オフセット補正、感度補正等の補正処理を行なって投影データを生成する。 Specifically, the gamma camera two-dimensionally detects the intensity distribution of gamma rays emitted from radiopharmaceuticals, and performs amplification processing and A/D conversion processing on the data showing the detected intensity distribution. Generate a detection signal. For example, a gamma camera is a photon-counting radiation detector having a scintillator and a photomultiplier tube (PMT). A scintillator converts gamma rays into light peaking in the ultraviolet region. The PMT converts light emitted from the scintillator into an electric signal and multiplies the electric current value. The gamma camera is equipped with a collimator that limits the incident direction. A gamma camera detects incoming gamma rays with incident directions limited by a collimator. The gamma camera then transmits the generated detection signal to the data acquisition circuit. The data collection circuit collects detection signals input from the gamma camera, performs correction processing such as offset correction and sensitivity correction on each of the collected detection signals, and generates projection data.
ここで、取得機能34aは、医用画像データとして、SPECT装置により生成された投影データを取得する。更に、特定機能34bは、取得機能34aにより取得される投影データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する投影データを組として含む学習用データを特定する。 Here, the acquisition function 34a acquires projection data generated by the SPECT apparatus as medical image data. Further, the specifying function 34b includes, as a set, projection data in which at least one of the imaging condition and the subject condition is different from the projection data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify your data.
例えば、特定機能34bは、まず、取得機能34aにより取得された投影データのうち、同一検査内で収集された投影データの組を特定する。次に、特定機能34bは、同一検査内で収集された投影データの組のうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組を特定する。例えば、特定機能34bは、SPECT装置の撮像部の一部または全部の配置に基づいて、投影データの組の特定を行なう。なお、SPECT装置の撮像部には、例えば、ガンマカメラや、ガンマカメラに取り付けられたコリメータ、被検体を載置する天板等が含まれる。例えば、特定機能34bは、撮像方向を、各投影データが撮像された時のガンマカメラの位置と、コリメータが制限する入射方向とに基づいて取得することができる。 For example, the identifying function 34b first identifies a set of projection data acquired in the same examination among the projection data acquired by the acquiring function 34a. Next, the specifying function 34b specifies a set of projection data whose imaging target regions at least partially overlap and whose imaging directions are substantially the same, among the sets of projection data acquired in the same examination. For example, the identification function 34b identifies projection data sets based on the placement of some or all of the imaging units of the SPECT apparatus. Note that the imaging unit of the SPECT apparatus includes, for example, a gamma camera, a collimator attached to the gamma camera, a top plate on which the subject is placed, and the like. For example, the identification function 34b can obtain the imaging direction based on the position of the gamma camera when each projection data was captured and the incident direction restricted by the collimator.
そして、特定機能34bは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する投影データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なる投影データを組として含む学習用データを特定する。 Then, the specifying function 34b selects projection data in which at least one of the imaging condition and the subject condition is different from a set of projection data in which at least a part of the imaging target region overlaps and the imaging directions are substantially the same. Identify training data to include as a set.
ここで、SPECT装置が収集する投影データについて撮像の条件とは、例えば、ガンマ線の検出に関する条件等である。なお、ガンマ線の検出に関する条件の例としては、ガンマカメラが備えるPMTの数や、ガンマカメラに取り付けられたコリメータのスリット間隔等が挙げられる。SPECT装置が収集する投影データについて被検体の条件とは、例えば、ガンマ線の放射に関する条件等である。なお、ガンマ線の放射に関する条件の例としては、例えば、被検体に注入される放射性医薬品の種類や量等が挙げられる。 Here, the imaging conditions for the projection data acquired by the SPECT apparatus are, for example, conditions related to detection of gamma rays. Examples of conditions related to gamma ray detection include the number of PMTs provided in the gamma camera, the slit interval of the collimator attached to the gamma camera, and the like. Subject conditions for projection data acquired by the SPECT apparatus are, for example, conditions related to gamma ray radiation. Examples of conditions related to gamma ray emission include the type and amount of radiopharmaceuticals to be injected into the subject.
次に、学習用データセット生成機能34cは、特定機能34bにより特定された複数の学習用データを含む学習用データセットを生成する。例えば、学習用データセット生成機能34cは、特定機能34bにより特定された学習用データから、被検体に注入された放射性医薬品の量が異なっている学習用データ(ノイズの程度が異なる投影データを組として含む学習用データ)を複数抽出し、抽出した複数の学習用データを含む学習用データセットを生成する。なお、以下では、ノイズの程度が異なる投影データを組として含む複数の学習用データを含む学習用データセットを、学習用データセットD5とも記載する。次に、モデル生成機能34dは、学習用データセットD5に基づいて、入力される投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM5を生成する。
Next, the learning data set
モデル生成機能34dが学習済みモデルを生成した後、SPECT装置によって新たに投影データが収集された場合、取得機能34aは、新たに収集された投影データを取得する。そして、変換機能34eは、学習済みモデルに基づいて、新たに収集された投影データに対する変換処理を実行する。例えば、変換機能34eは、学習済みモデルM5に基づいて、新たに収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する変換処理を実行する。 After the model generation function 34d has generated the learned model, when the SPECT apparatus newly acquires projection data, the acquisition function 34a acquires the newly acquired projection data. Then, the conversion function 34e executes conversion processing on the newly acquired projection data based on the learned model. For example, the conversion function 34e performs conversion processing to convert newly acquired projection data into projection data corresponding to projection data with less noise based on the learned model M5.
次に、出力機能34fは、変換処理後の投影データを出力する。例えば、出力機能34fは、変換処理後の投影データを、SPECT装置の処理回路に出力する。また、SPECT装置の処理回路は、変換処理後の投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行なうことにより、被検体内の放射性医薬品の分布を示すSPECT画像データを生成する。更に、SPECT装置の処理回路は、生成したSPECT画像データに対する種々の画像処理を行なって表示画像を生成し、生成した表示画像を表示させる。 Next, the output function 34f outputs projection data after conversion processing. For example, the output function 34f outputs the projection data after conversion processing to the processing circuit of the SPECT device. In addition, the processing circuit of the SPECT apparatus performs reconstruction processing using the filtered back projection method, the iterative reconstruction method, etc. on the projection data after the conversion processing, thereby obtaining the distribution of the radiopharmaceutical in the subject. generates SPECT image data indicating Furthermore, the processing circuit of the SPECT apparatus performs various image processing on the generated SPECT image data to generate a display image, and displays the generated display image.
上述したように、第3の実施形態によれば、取得機能34aは、投影データを取得する。また、特定機能34bは、取得機能34aにより取得される投影データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する投影データを組として含む学習用データを特定する。従って、第3の実施形態に係る医用情報処理装置30は、投影データに関する学習用データ不足を解消することができる。
As described above, according to the third embodiment, the acquisition function 34a acquires projection data. In addition, the specifying function 34b includes, as a set, projection data in which at least one of the imaging condition and the subject condition is different from the projection data acquired by the acquiring function 34a and the imaging directions are substantially the same. Identify your data. Therefore, the medical
また、上述したように、学習用データセット生成機能34cは、特定機能34bが特定した複数の学習用データを含む学習用データセットを生成する。また、モデル生成機能34dは、入力される投影データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルを生成する。
Further, as described above, the learning data set
例えば、モデル生成機能34dは、学習用データセットD4に基づいて、X線CT装置により収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM4を生成する。従って、第3の実施形態に係る医用情報処理装置30は、投影データにおけるノイズを低減することができる。ひいては、医用情報処理装置30は、CTスキャンにおいて使用するX線を低線量化して、X線管102の寿命を延長するとともに、被検体の被ばく線量を低減することができる。
For example, the model generation function 34d is a trained model incorporated in the process of converting projection data acquired by an X-ray CT apparatus into projection data corresponding to projection data with less noise, based on the learning data set D4. Generate M4. Therefore, the medical
また、例えば、モデル生成機能34dは、学習用データセットD5に基づいて、SPECT装置により収集された投影データを、よりノイズが少ない投影データに相当する投影データに変換する処理に組み込まれる学習済みモデルM5を生成する。従って、第3の実施形態に係る医用情報処理装置30は、投影データにおけるノイズを低減することができる。ひいては、医用情報処理装置30は、SPECTスキャンにおいて使用するガンマ線を低線量化して、放射性医薬品に起因する被検体の被ばく線量を低減することができる。
Further, for example, the model generation function 34d is a trained model incorporated in the process of converting the projection data collected by the SPECT apparatus into projection data corresponding to projection data with less noise, based on the learning data set D5. Generate M5. Therefore, the medical
なお、処理回路34は、単一のプロセッサにより構成してもよいし、複数のプロセッサを組み合わせて構成してもよい。また、処理回路34は、異なる装置のプロセッサを組み合わせて構成されることとしてもよい。例えば、医用情報処理システム1は、複数の医用情報処理装置30を備え、医用情報処理装置30のそれぞれが有するプロセッサを組み合わせることにより、処理回路34を構成することとしてもよい。また、例えば、医用情報処理装置30が有するプロセッサと、X線CT装置が有するプロセッサや、SPECT装置が有するプロセッサとを組み合わせることにより、処理回路34を構成することとしてもよい。あるいは、X線CT装置又はSPECT装置の処理回路が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d、変換機能34e、出力機能34f及び制御機能34gに相当する機能を有する場合であってもよい。
The processing circuit 34 may be configured by a single processor, or may be configured by combining a plurality of processors. Also, the processing circuit 34 may be configured by combining processors of different devices. For example, the medical
(第4の実施形態)
上述した第1~第3の実施形態では、医用画像診断装置10の例として、X線診断装置100やX線CT装置、SPECT装置等の放射線診断装置について説明した。これに対し、第4の実施形態では、医用画像診断装置10の例として、超音波診断装置について説明する。
(Fourth embodiment)
In the first to third embodiments described above, the X-ray
第4の実施形態に係る医用情報処理システム1は、図1に示した第1の実施形態に係る医用情報処理システム1と同様の構成を有し、放射線診断装置に代えて、又は、放射線診断装置に加えて、超音波診断装置を有する点で相異する。そこで、第1の実施形態において説明した構成と同様の構成を有する点については、図1と同一の符号を付し、説明を省略する。
The medical
本実施形態では、処理回路34が取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d及び変換機能34eを有していてもよいし、超音波診断装置の処理回路が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d及び変換機能34eに相当する機能を有する場合であってもよい。以下では一例として、図13に示すように、超音波診断装置200の処理回路224が、取得機能34a、特定機能34b、学習用データセット生成機能34c、モデル生成機能34d及び変換機能34eに相当する取得機能224d、特定機能224e、学習用データセット生成機能224f、モデル生成機能224g及び変換機能224hを有する場合について説明する。なお、図13は、第4の実施形態に係る超音波診断装置200の構成の一例を示すブロック図である。
In this embodiment, the processing circuit 34 may have an acquisition function 34a, a specific function 34b, a learning data
図13に示すように、超音波診断装置200は、超音波プローブ210と、装置本体220と、ディスプレイ230と、入力インターフェース240とを備える。超音波プローブ210、ディスプレイ230及び入力インターフェース240は、それぞれ装置本体220に接続される。
As shown in FIG. 13, the ultrasonic
超音波プローブ210は、被検体P2の体表面に接触され、超音波の送受信(超音波走査)を行なう。例えば、超音波プローブ210は、複数の圧電振動子を有する。これら複数の圧電振動子は、送信回路221から供給される駆動信号に基づいて、超音波を発生させる。発生した超音波は、被検体内の音響インピーダンスの不整合面で反射され、反射波信号として複数の圧電振動子にて受信される。超音波プローブ210は、複数の圧電振動子にて受信した反射波信号を、送信回路221へ送る。なお、超音波プローブ210は、超音波診断装置200の撮像部の一例である。
The ultrasonic probe 210 is brought into contact with the body surface of the subject P2 to transmit and receive ultrasonic waves (ultrasonic scanning). For example, the ultrasound probe 210 has multiple piezoelectric transducers. These piezoelectric vibrators generate ultrasonic waves based on drive signals supplied from the transmission circuit 221 . The generated ultrasonic waves are reflected by an acoustic impedance mismatching surface in the subject, and received as reflected wave signals by a plurality of piezoelectric transducers. The ultrasonic probe 210 sends reflected wave signals received by the plurality of piezoelectric transducers to the transmission circuit 221 . Note that the ultrasonic probe 210 is an example of an imaging unit of the ultrasonic
ディスプレイ230は、各種の情報を表示する。例えば、ディスプレイ230は、処理回路224による制御の下、操作者の指示を受け付けるためのGUIや、各種の超音波画像を表示する。例えば、ディスプレイ230は、液晶ディスプレイやCRTディスプレイである。なお、ディスプレイ230はデスクトップ型でもよいし、処理回路224と無線通信可能なタブレット端末等で構成されることにしても構わない。
The display 230 displays various information. For example, the display 230 displays a GUI for accepting operator's instructions and various ultrasound images under the control of the
入力インターフェース240は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路224に出力する。例えば、入力インターフェース240は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース240は、処理回路224と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース240は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、超音波診断装置200とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路224へ出力する電気信号の処理回路も入力インターフェース240の例に含まれる。
The
装置本体220は、超音波プローブ210が受信した反射波信号に基づいて、超音波画像データを生成する装置である。図13に示すように、装置本体220は、例えば、送信回路221と、受信回路222と、メモリ223と、処理回路224とを有する。
The device
送信回路221は、超音波プローブ210による超音波の送信を制御する。例えば、送信回路221は、処理回路224による制御の下、振動子ごとに所定の送信遅延時間が付与されたタイミングで超音波プローブ210に駆動信号(駆動パルス)を印加する。これにより、送信回路221は、超音波がビーム状に集束された超音波ビームを送信させる。
The transmission circuit 221 controls transmission of ultrasonic waves by the ultrasonic probe 210 . For example, under the control of the
受信回路222は、送信超音波が体内組織で反射された反射波信号の受信を制御する。例えば、受信回路222は、処理回路224による制御の下、超音波プローブ210が受信した反射波信号に所定の遅延時間を与えて加算処理を行なう。これにより、反射波信号の受信指向性に応じた方向からの反射成分が強調される。そして、受信回路222は、加算処理後の反射波信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、受信回路222は、I信号及びQ信号(以下、IQ信号と記載する)を反射波データとして、処理回路224へ送る。なお、受信回路222は、加算処理後の反射波信号を、RF(Radio Frequency)信号に変換した上で、処理回路224へ送ってもよい。IQ信号や、RF信号は、位相情報が含まれる信号(反射波データ)となる。
The receiving circuit 222 controls reception of a reflected wave signal that is the transmitted ultrasonic wave reflected by internal tissue. For example, under the control of the
メモリ223は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、メモリ223は、処理回路224によって収集された超音波画像データを受け付けて記憶する。また、メモリ223は、処理回路224によって読み出されて実行される各種機能に対応するプログラムを記憶する。なお、メモリ223は、超音波診断装置200とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。
The
処理回路224は、収集機能224a、出力機能224b、制御機能224cを実行することで、超音波診断装置200全体の動作を制御する。
The
例えば、処理回路224は、メモリ223から収集機能224aに相当するプログラムを読み出して実行することにより、超音波画像データを収集する。例えば、収集機能224aは、受信回路222が反射波信号から生成した反射波データに対して対数増幅、包絡線検波処理等を行なって、複数のサンプル点(観測点)それぞれの信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
For example, the
なお、超音波プローブ210の収集モードについては、様々な収集モードを選択可能である。例えば、超音波プローブ210は、被検体P2に対する位置を固定して収集を行う2Dモードによりデータ収集を行い、2次元データを得る。この場合、収集機能224aは、収集されたデータに基づいて、2次元の超音波画像データを生成することができる。
Various acquisition modes can be selected for the acquisition mode of the ultrasonic probe 210 . For example, the ultrasonic probe 210 acquires two-dimensional data by performing data acquisition in a 2D mode in which the position with respect to the subject P2 is fixed and acquisition is performed. In this case, the
また、例えば、超音波プローブ210は、被検体P2に対する位置情報を位置センサにより検出しつつ、移動しながらデータ収集を行う3Dモードによりデータ収集を行い、3次元データを得る。この場合、収集機能224aは、収集されたデータに対して、位置センサにより検出された位置情報を用いた位置補正を実行して、3次元の超音波画像データを生成することができる。なお、超音波プローブ210が位置センサを有しない場合、収集機能224aは、フレーム(超音波走査面)間隔が一定、またはフレーム間の角度が一定であるという前提を用いることにより、3次元の超音波画像データを生成することができる。
Further, for example, the ultrasonic probe 210 acquires three-dimensional data by performing data acquisition in a 3D mode in which data is acquired while moving while detecting position information of the subject P2 with a position sensor. In this case, the
また、例えば、超音波プローブ210は、機械的に搖動しながらデータ収集を行うメカ4Dモードによりデータ収集を行い、3次元データを得る。また、例えば、超音波プローブ210は、2次元アレープローブを用いて電子的に3次元走査する2次元アレー3Dモードによりデータ収集を行い、3次元データを得る。この場合、収集機能224aは、収集されたデータに基づいて、3次元の超音波画像データを生成することができる。
Further, for example, the ultrasonic probe 210 acquires three-dimensional data by performing data acquisition in a mechanical 4D mode in which data is acquired while mechanically swinging. Also, for example, the ultrasonic probe 210 performs data acquisition in a two-dimensional array 3D mode in which a two-dimensional array probe is used to electronically scan three-dimensionally, and obtains three-dimensional data. In this case, the
また、例えば、処理回路224は、メモリ223から出力機能224bに相当するプログラムを読み出して実行することにより、超音波画像データを、表示用のデータ形式に変換(スキャンコンバート)することで超音波画像を生成し、生成した超音波画像をディスプレイ230に表示させる。また、例えば、処理回路224は、制御機能224cに対応するプログラムをメモリ223から読み出して実行することにより、入力インターフェース240を介して操作者から受け付けた入力操作に基づいて、処理回路224の各種機能を制御する。
Further, for example, the
更に、処理回路224は、取得機能34aに対応する取得機能224dを実行する。また、処理回路224は、特定機能34bに対応する特定機能224eを実行する。また、処理回路224は、学習用データセット生成機能34cに対応する学習用データセット生成機能224fを実行する。また、処理回路224は、モデル生成機能34dに対応するモデル生成機能224gを実行する。また、処理回路224は、変換機能34eに対応する変換機能224hを実行する。
In addition,
以上、第4の実施形態に係る超音波診断装置200の構成の一例について説明した。かかる構成の下、超音波診断装置200は、超音波画像データに関する学習用データ不足を解消する。
An example of the configuration of the ultrasonic
具体的には、収集機能224aは、まず、2次元又は3次元の超音波画像データを収集する。例えば、収集機能224aは、送信回路221及び受信回路222を制御し、超音波プローブ210により被検体P2を走査することで、反射波データを収集する。更に、収集機能224aは、反射波データに基づいて、Bモードデータ等の超音波画像データを収集し、収集した超音波画像データをメモリ223に格納する。この際、収集機能224aは、収集した超音波画像データの付帯情報に、撮像対象領域や撮像方向、患者ID、検査種別、検査日時等を記録する。ここで、出力機能224bは、超音波画像データを画像保管装置20に出力し、記憶させることとしてもよい。なお、2次元又は3次元の超音波画像データは、医用画像データの一例である。
Specifically, the
例えば、収集機能224aは、各超音波画像データの撮像時における超音波プローブ210の配置を取得する。例えば、超音波プローブ210がセンサを備える場合、収集機能224aは、センサからの出力に基づいて超音波プローブ210の配置を取得する。一例を挙げると、収集機能224aは、被検体P2の体軸方向(T方向)、被検体P2の左右方向(S方向)、及び、被検体P2の前後方向(C方向)を基準としてTSC座標系を定義し、TSC座標系における位置センサ(磁気センサ等)の位置を、超音波プローブ210の位置として取得する。また、超音波プローブ210が複数の位置センサを備える場合、収集機能224aは、TSC座標系における位置センサ間の位置関係に基づいて超音波プローブ210の配向を取得する。或いは、超音波プローブ210がジャイロセンサを備える場合、収集機能224aは、ジャイロセンサの出力に基づいてTSC座標系における超音波プローブ210の配向を取得する。
For example, the
別の例を挙げると、超音波プローブ210がアームにより支持される場合、収集機能224aは、アームに関する情報から超音波プローブ210の配置を取得する。例えば、超音波プローブ210がロボットアームにより支持される場合、収集機能224aは、ロボットアームを駆動させることにより、被検体P2に対する超音波プローブ210の配置を変更する。この場合、収集機能224aは、ロボットアームの駆動情報に基づいて、TSC座標系における超音波プローブ210の配置を取得する。
As another example, if the ultrasound probe 210 is supported by an arm, the
別の例を挙げると、超音波診断装置200以外の医用画像診断装置10(以下、他の装置)により超音波プローブ210が撮像される場合、収集機能224aは、他の装置により撮像された医用画像データに描出された超音波プローブ210の像に基づいて、超音波プローブ210の配置を取得する。
To give another example, when the ultrasonic probe 210 is imaged by a medical image diagnostic apparatus 10 other than the ultrasonic diagnostic apparatus 200 (hereinafter referred to as other apparatus), the
ここで、一例として、他の装置がX線診断装置であり、超音波プローブ210が食道心エコー図検査(TEE:Trans-Esophageal Echocardiograms)プローブである場合を例として説明する。この場合、X線診断装置は、まず、超音波プローブ210が挿入された状態の被検体P2からX線画像データを収集する。次に、X線診断装置は、X線画像データに描出された超音波プローブ210の像に基づいて、X線画像データにおける超音波プローブ210の配置を取得する。例えば、X線診断装置は、超音波プローブ210を示す3DモデルをX線画像データに対してマッチングすることで、X線画像データにおける超音波プローブ210の位置及び配向を取得する。また、X線診断装置は、X線診断装置の撮像部(X線管、コリメータ、天板、Cアーム、X線検出器等)の配置に基づいて、被検体P2を基準とした座標系(TSC座標系等)に対するX線画像データの撮像方向及び撮像対象領域を特定する。これにより、X線診断装置は、被検体P2を基準とした座標系とX線画像データとを位置合わせして、被検体P2を基準とした座標系に対する超音波プローブ210の配置を取得する。そして、収集機能224aは、X線診断装置から、超音波画像データの撮像時における超音波プローブ210の配置を取得する。
Here, as an example, another device is an X-ray diagnostic device, and the ultrasonic probe 210 is a TEE (Trans-Esophageal Echocardiograms) probe. In this case, the X-ray diagnostic apparatus first acquires X-ray image data from the subject P2 in which the ultrasonic probe 210 is inserted. Next, the X-ray diagnostic apparatus obtains the placement of the ultrasonic probe 210 in the X-ray image data based on the image of the ultrasonic probe 210 depicted in the X-ray image data. For example, the X-ray diagnostic apparatus acquires the position and orientation of the ultrasonic probe 210 in the X-ray image data by matching a 3D model showing the ultrasonic probe 210 to the X-ray image data. In addition, the X-ray diagnostic apparatus uses a coordinate system ( The imaging direction and imaging target area of the X-ray image data with respect to the TSC coordinate system, etc.) are specified. Thereby, the X-ray diagnostic apparatus aligns the coordinate system based on the subject P2 with the X-ray image data, and obtains the arrangement of the ultrasonic probe 210 with respect to the coordinate system based on the subject P2. Then, the
更に、収集機能224aは、超音波プローブ210の配置に基づいて各超音波画像データの撮像方向及び撮像対象領域を特定し、超音波画像データの付帯情報に記録する。例えば、収集機能224aは、臨床角や、撮像方向を示す単位ベクトルを撮像方向として特定し、超音波画像データの付帯情報に記録する。また、例えば、収集機能224aは、撮像対象部位や、TSC座標系において特定した3次元領域を、撮像対象領域として超音波画像データの付帯情報に記録する。
Furthermore, the
次に、取得機能224dは、収集機能224aにより収集された超音波画像データを取得する。なお、取得機能224dは、メモリ223に記憶された超音波画像データを取得してもよいし、収集機能224aにより収集された超音波画像データをメモリ223を介すことなく取得してもよい。また、取得機能224dは、画像保管装置20に記憶された超音波画像データを取得する場合であってもよい。
Next, the
次に、特定機能224eは、取得機能224dにより取得される超音波画像データのうち、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する超音波画像データの組を特定する。例えば、特定機能224eは、まず、超音波画像データの付帯情報から患者ID、検査種別、検査日時等を取得して比較することにより、同一検査内で収集された超音波画像データの組を特定する。
Next, the specifying
次に、特定機能224eは、超音波画像データの付帯情報から撮像方向を取得し、同一検査内で収集された超音波画像データの組の間で、撮像方向が略一致しているか否かを判定する。例えば、各超音波画像データの撮像方向として臨床角が特定されていた場合、特定機能224eは、各超音波画像データの付帯情報から取得した臨床角を相互に比較し、臨床角が一致している場合、撮像方向が略一致していると判定する。別の例を挙げると、各超音波画像データの撮像方向として撮像方向を示す単位ベクトルが特定されていた場合、特定機能224eは、各超音波画像データの付帯情報から取得した単位ベクトルについて内積を算出し、内積が閾値以上である場合に、撮像方向が略一致していると判定する。
Next, the specifying
上述したように、収集機能224aは、超音波プローブ210(撮像部)の配置に基づいて撮像方向を取得し、超音波画像データの付帯情報に記録する。そして、特定機能224eは、超音波画像データの付帯情報から取得した撮像方向に基づいて、撮像方向が略一致する超音波画像データの組の特定を行なう。即ち、特定機能224eは、撮像部の配置に基づいて、撮像方向が略一致する超音波画像データの組の特定を行なう。
As described above, the
また、例えば、特定機能224eは、撮像方向が略一致していると判定した超音波画像データの組の間で、撮像対象領域の少なくとも一部が重複しているか否かを判定する。一例を挙げると、各超音波画像データについて、収集機能224aは、TSC座標系において特定した3次元領域を、撮像対象領域として超音波画像データの付帯情報に記録する。この場合、特定機能224eは、各超音波画像データの付帯情報から取得した3次元領域を相互に比較し、3次元領域の少なくとも一部が重複している場合、撮像対象領域の少なくとも一部が重複していると判定する。
Also, for example, the specifying
上述したように、収集機能224aは、超音波プローブ210(撮像部)の配置に基づいて撮像対象領域を取得し、超音波画像データの付帯情報に撮像対象領域を記録する。そして、特定機能224eは、超音波画像データの付帯情報から取得した撮像対象領域に基づいて、撮像対象領域の少なくとも一部が重複する超音波画像データの組の特定を行なう。即ち、特定機能224eは、撮像部の配置に基づいて、撮像対象領域の少なくとも一部が重複する超音波画像データの組の特定を行なう。
As described above, the
次に、特定機能224eは、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する超音波画像データの組のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なる超音波画像データの組を、学習用データとして特定する。ここで、超音波画像データについて撮像の条件とは、例えば、走査に用いる超音波の周波数や走査線の密度等である。
Next, the specifying
次に、学習用データセット生成機能224fは、特定機能224eにより特定された複数の学習用データを含む学習用データセットを生成する。一例を挙げると、学習用データセット生成機能224fは、特定機能224eにより特定された学習用データから、超音波画像データの組の間で超音波の周波数が異なっている学習用データを複数抽出する。ここで、走査に用いる超音波の周波数が大きいほど、走査可能な深度は浅くなる一方、空間分解能は向上するため、超音波画像データの解像度は高くなる。即ち、学習用データセット生成機能224fは、解像度が異なる超音波画像データを組として含む学習用データを複数抽出する。
Next, the learning data set
別の例を挙げると、学習用データセット生成機能224fは、特定機能224eにより特定された学習用データから、超音波画像データの組の間で走査線の密度が異なっている学習用データを複数抽出する。ここで、走査に用いる超音波の周波数が大きいほど、収集可能なフレームレートは低下する一方、空間分解能は向上するため、超音波画像データの解像度は高くなる。即ち、学習用データセット生成機能224fは、解像度が異なる超音波画像データを組として含む学習用データを複数抽出する。
To give another example, the learning data set
次に、学習用データセット生成機能224fは、抽出した複数の学習用データを含む学習用データセットを生成する。そして、学習用データセット生成機能224fは、生成した学習用データセットをメモリ223に格納する。なお、以下では、解像度が異なる超音波画像データを組として含む複数の学習用データを含む学習用データセットを、学習用データセットD6とも記載する。
Next, the learning data set
次に、モデル生成機能224gは、学習用データセットに基づいて、入力される超音波画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルを生成する。例えば、モデル生成機能224gは、学習用データセットD6に基づいて、入力される超音波画像データを、より解像度が高い超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルM6を生成する。そして、モデル生成機能224gは、生成した学習済みモデルM6をメモリ223に格納する。
Next, based on the learning data set, the
モデル生成機能224gが学習済みモデルを生成した後、収集機能224aが新たに超音波画像データを収集した場合、取得機能224dは、新たに収集された超音波画像データを取得する。ここで、変換機能224hは、学習済みモデルに基づいて、新たに収集された超音波画像データに対する変換処理を実行する。例えば、変換機能224hは、学習済みモデルM6に基づいて、新たに収集された超音波画像データを、より解像度が高い超音波画像データに相当する超音波画像データに変換する変換処理を実行する。
After the
そして、出力機能224bは、変換処理後の超音波画像データを出力する。例えば、出力機能224bは、変換処理後の超音波画像データに基づいて表示用の超音波画像を生成し、生成した超音波画像をディスプレイ230に表示させる。また、例えば、出力機能224bは、変換処理後の超音波画像データを、超音波診断装置200とネットワークNWを介して接続された外部装置に出力する。
Then, the
上述したように、第4の実施形態によれば、収集機能224aは、超音波を送受信する超音波プローブ210により被検体を走査することで、超音波画像データを収集する。また、取得機能224dは、収集機能224aにより収集される超音波画像データを取得する。また、特定機能224eは、取得機能224dにより取得される超音波画像データのうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像対象領域の少なくとも一部が重複し、かつ、撮像方向が略一致する超音波画像データを組として含む学習用データを特定する。従って、第4の実施形態に係る超音波診断装置200は、学習用データ不足を解消することができる。
As described above, according to the fourth embodiment, the
なお、超音波診断装置200における取得機能224dは、収集機能224aにより収集される超音波画像データのみならず、超音波診断装置200以外の超音波診断装置により収集された超音波画像データを取得してもよい。この場合、超音波診断装置200は、より多くの学習用データを特定して、学習用データ不足を解消することができる。
The
また、上述したように、学習用データセット生成機能224fは、特定機能224eが特定した複数の学習用データを含む学習用データセットを生成する。また、モデル生成機能224gは、入力される超音波画像データを、撮像の条件及び被検体の条件のうち少なくとも一方が異なる超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルを生成する。例えば、モデル生成機能224gは、学習用データセットD6に基づいて、入力される超音波画像データを、より解像度が高い超音波画像データに相当する超音波画像データに変換する処理に組み込まれる学習済みモデルM6を生成する。従って、第4の実施形態に係る超音波診断装置200は、超音波画像データの解像度を向上させることができる。
Also, as described above, the learning data set
上述した実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。即ち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。更に、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the above-described embodiments is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific forms of distribution and integration of each device are not limited to those shown in the drawings, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be implemented by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.
また、上述した実施形態で説明した学習用データの生産方法は、予め用意されたプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Also, the method of producing learning data described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a work station. This program can be distributed via a network such as the Internet. In addition, this program is recorded on a computer-readable non-transitory recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and is executed by being read from the recording medium by a computer. can also
以上説明した少なくとも1つの実施形態によれば、医用画像に関する学習用データ不足を解消することができる。 According to at least one embodiment described above, it is possible to solve the shortage of data for learning regarding medical images.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.
1 医用情報処理システム
30 医用情報処理装置
34 処理回路
34a 取得機能
34b 特定機能
34c 学習用データセット生成機能
34d モデル生成機能
34e 変換機能
34f 出力機能
34g 制御機能
1 medical
Claims (21)
前記画像保管装置に記憶された医用画像を取得する取得部と、前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部とを備える医用情報処理装置とを備え、
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、医用情報処理システム。 an image archiving device for storing medical images;
An acquisition unit that acquires the medical images stored in the image storage device and at least one of the imaging conditions and the subject conditions of the medical images acquired by the acquisition unit are different, and the imaging direction is approximately the same. a medical information processing apparatus comprising a specifying unit that specifies learning data that includes matching medical images as a set ;
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Medical information processing system.
前記モデル生成部は、前記学習用データセットに基づいて、入力される医用画像を当該医用画像よりもノイズが少ない医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成する、請求項6に記載の医用情報処理システム。 The specifying unit specifies the learning data including sets of medical images with different degrees of noise,
The model generation unit generates a trained model to be incorporated in a process of converting an input medical image into a medical image equivalent to a medical image with less noise than the medical image, based on the learning data set. The medical information processing system according to claim 6.
前記モデル生成部は、前記学習用データセットに基づいて、入力される医用画像を当該医用画像よりも解像度が高い医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成する、請求項6に記載の医用情報処理システム。 The identifying unit identifies the learning data including a set of medical images with different resolutions,
The model generation unit generates a trained model to be incorporated in a process of converting an input medical image into a medical image corresponding to a medical image having a higher resolution than the medical image, based on the learning data set. The medical information processing system according to claim 6.
前記モデル生成部は、前記学習用データセットに基づいて、入力される医用画像を当該医用画像から背景成分を除去した医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成する、請求項6に記載の医用情報処理システム。 The identifying unit identifies the learning data including a set of a contrast image and a mask image,
The model generation unit generates a trained model to be incorporated in a process of converting an input medical image into a medical image equivalent to a medical image from which a background component is removed from the medical image, based on the learning data set. 7. The medical information processing system according to claim 6.
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
を備え、
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、医用情報処理装置。 an acquisition unit for acquiring medical images stored in the image archive ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
with
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Medical information processing equipment.
前記第1の医用情報処理装置は、
前記画像保管装置に記憶された医用画像を取得する取得部と、
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
前記学習用データを送信する送信部とを備え、
前記第2の医用情報処理装置は、
前記第1の医用情報処理装置により送信された前記学習用データを受信する受信部と、
受信した前記学習用データを含む学習用データセットを生成する学習用データセット生成部と、
前記学習用データセットに基づいて、入力される医用画像を当該医用画像と撮像の条件及び被検体の条件のうち少なくとも一方が異なる医用画像に相当する医用画像に変換する処理に組み込まれる学習済みモデルを生成するモデル生成部とを備え、
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、
医用情報処理システム。 A medical information processing system comprising an image storage device for storing medical images, a first medical information processing device, and a second medical information processing device,
The first medical information processing apparatus is
an acquisition unit that acquires the medical images stored in the image storage device ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
A transmission unit that transmits the learning data,
The second medical information processing apparatus is
a receiving unit that receives the learning data transmitted by the first medical information processing apparatus;
a learning data set generation unit that generates a learning data set including the received learning data;
A trained model incorporated in a process of converting an input medical image into a medical image corresponding to a medical image different from the medical image in at least one of imaging conditions and subject conditions, based on the learning data set. and a model generator that generates
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used.
Medical information processing system.
前記検出信号に基づく医用画像を収集する収集部と、
前記収集部により収集され、画像保管装置に記憶された医用画像を取得する取得部と、
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
を備え、
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、放射線診断装置。 a detector that detects radiation and outputs a detection signal;
an acquisition unit that acquires a medical image based on the detection signal;
an acquisition unit that acquires the medical images collected by the collection unit and stored in an image storage device ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
with
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Radiological diagnostic equipment.
前記収集部により収集され、画像保管装置に記憶された医用画像を取得する取得部と、
前記取得部により取得される医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する特定部と、
を備え、
前記特定部は、前記取得部により取得される医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて、前記学習用データを特定する、超音波診断装置。 a collection unit that collects medical images by scanning a subject with an ultrasonic probe that transmits and receives ultrasonic waves;
an acquisition unit that acquires the medical images collected by the collection unit and stored in an image storage device ;
a specifying unit that specifies learning data that includes a set of medical images that are different in at least one of an imaging condition and a subject condition and that have substantially the same imaging direction among the medical images acquired by the acquisition unit; ,
with
The specifying unit determines whether or not to use the medical image acquired by the acquiring unit to specify the learning data, and specifies the learning data using the medical image determined to be used. Ultrasound diagnostic equipment.
取得した医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する、
ことを含み、
前記学習用データは、取得した医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて特定される、学習用データの生産方法。 retrieving a medical image stored in an image archive ;
Identifying learning data including a set of medical images in which at least one of imaging conditions and subject conditions is different from among the acquired medical images and in which the imaging directions are substantially the same;
including
A method of producing learning data, wherein the learning data is specified by determining whether or not an acquired medical image is to be used for specifying the learning data, and using the medical image determined to be used.
取得した医用画像のうち、撮像の条件及び被検体の条件のうち少なくとも一方が異なり、かつ、撮像方向が略一致する医用画像を組として含む学習用データを特定する
各処理をコンピュータに実行させるプログラムであって、
前記学習用データは、取得した医用画像について前記学習用データの特定に使用するか否かを判定し、使用すると判定した医用画像を用いて特定される、プログラム。 retrieving a medical image stored in an image archive ;
A program that causes a computer to execute each process for identifying a set of medical images among acquired medical images that have at least one of different imaging conditions and subject conditions and that have approximately the same imaging direction and
A program, wherein the learning data is specified by determining whether or not an acquired medical image is used for specifying the learning data, and using the medical image determined to be used.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018101025A JP7262933B2 (en) | 2018-05-25 | 2018-05-25 | Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018101025A JP7262933B2 (en) | 2018-05-25 | 2018-05-25 | Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019202087A JP2019202087A (en) | 2019-11-28 |
JP7262933B2 true JP7262933B2 (en) | 2023-04-24 |
Family
ID=68725550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018101025A Active JP7262933B2 (en) | 2018-05-25 | 2018-05-25 | Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7262933B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7237624B2 (en) * | 2019-02-07 | 2023-03-13 | 浜松ホトニクス株式会社 | Image processing device and image processing method |
JP7433901B2 (en) * | 2019-12-26 | 2024-02-20 | キヤノンメディカルシステムズ株式会社 | Learning device and learning method |
WO2021157062A1 (en) * | 2020-02-07 | 2021-08-12 | 日本電信電話株式会社 | Learning device for quantization bit number expansion, signal estimation device, learning method, signal estimation method, and program |
JP7451239B2 (en) * | 2020-03-12 | 2024-03-18 | 富士フイルムヘルスケア株式会社 | Image processing device, X-ray imaging device, and image processing method |
JP7332538B2 (en) | 2020-06-05 | 2023-08-23 | 富士フイルム株式会社 | Processing device, processing device operating method, processing device operating program |
JP7100783B1 (en) | 2021-09-09 | 2022-07-14 | 株式会社ツバサファクトリー | Learning device and inference device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057349A (en) | 1998-08-10 | 2000-02-25 | Hitachi Ltd | Method for sorting defect, device therefor and method for generating data for instruction |
JP2008119195A (en) | 2006-11-10 | 2008-05-29 | Hitachi Medical Corp | Fluoroscopic x-ray equipment |
US20150196265A1 (en) | 2014-01-15 | 2015-07-16 | Alara Systems, Inc | Converting low-dose to higher dose mammographic images through machine-learning processes |
JP2017205334A (en) | 2016-05-19 | 2017-11-24 | 東芝メディカルシステムズ株式会社 | Medical image processing device |
JP2018005841A (en) | 2016-07-08 | 2018-01-11 | 株式会社トプコン | Medical image processing method and medical image processing device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3642591B2 (en) * | 1994-11-29 | 2005-04-27 | 株式会社日立メディコ | Image processing device |
-
2018
- 2018-05-25 JP JP2018101025A patent/JP7262933B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057349A (en) | 1998-08-10 | 2000-02-25 | Hitachi Ltd | Method for sorting defect, device therefor and method for generating data for instruction |
JP2008119195A (en) | 2006-11-10 | 2008-05-29 | Hitachi Medical Corp | Fluoroscopic x-ray equipment |
US20150196265A1 (en) | 2014-01-15 | 2015-07-16 | Alara Systems, Inc | Converting low-dose to higher dose mammographic images through machine-learning processes |
JP2017205334A (en) | 2016-05-19 | 2017-11-24 | 東芝メディカルシステムズ株式会社 | Medical image processing device |
JP2018005841A (en) | 2016-07-08 | 2018-01-11 | 株式会社トプコン | Medical image processing method and medical image processing device |
Also Published As
Publication number | Publication date |
---|---|
JP2019202087A (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7262933B2 (en) | Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program | |
JP6985482B2 (en) | X-ray computed tomography equipment, scan plan setting support equipment, medical diagnostic imaging system, control method and control program | |
US9717474B2 (en) | Image processing apparatus, ultrasound diagnosis apparatus, and image processing method | |
US20180140270A1 (en) | Methods and systems for patient scan setup | |
US9730659B2 (en) | Multi-modality image acquisition | |
US12016722B2 (en) | Medical information processing system and medical information processing method | |
CN111374690A (en) | Medical imaging method and system | |
JP7233874B2 (en) | Medical information processing device, X-ray diagnostic device and medical information processing program | |
JP2020099409A (en) | Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method | |
JP7483361B2 (en) | Medical image processing device, medical image diagnostic device, and medical image processing program | |
JP2022013679A (en) | Medical image processing method, medical image processing apparatus and x-ray ct apparatus | |
JP7334034B2 (en) | Medical image processing device, X-ray diagnostic device and medical image processing program | |
JP7341667B2 (en) | Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems | |
US11266377B2 (en) | Support apparatus and support method | |
JP7443591B2 (en) | Medical image diagnosis device and medical image diagnosis method | |
JP7166870B2 (en) | Image processing device and medical imaging device | |
WO2024048374A1 (en) | Image processing device, photographing system, image processing method, and program | |
US20240062371A1 (en) | Information processing method, medical image diagnostic apparatus, and information processing system including deep learning for optimal cardiac phase selection | |
JP2024098862A (en) | Medical image processing device, medical image processing method and program | |
US11404159B2 (en) | Medical information processing system and medical information processing apparatus | |
US20240225582A1 (en) | Medical image processing apparatus, medical image processing method, and storage medium | |
US20220292655A1 (en) | Medical image processing apparatus, x-ray diagnostic apparatus, and method of medical image processing | |
JP7426310B2 (en) | X-ray computerized tomography imaging device | |
US20230153945A1 (en) | Medical image processing apparatus, medical image processing method, and storage medium | |
US11080898B2 (en) | Adaptive processing of medical images to reduce noise magnitude |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7262933 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |