JP2022178846A - 医用情報処理方法、医用情報処理装置および医用画像処理装置 - Google Patents

医用情報処理方法、医用情報処理装置および医用画像処理装置 Download PDF

Info

Publication number
JP2022178846A
JP2022178846A JP2021085933A JP2021085933A JP2022178846A JP 2022178846 A JP2022178846 A JP 2022178846A JP 2021085933 A JP2021085933 A JP 2021085933A JP 2021085933 A JP2021085933 A JP 2021085933A JP 2022178846 A JP2022178846 A JP 2022178846A
Authority
JP
Japan
Prior art keywords
image
contrast
medical image
medical
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021085933A
Other languages
English (en)
Inventor
和広 片田
Kazuhiro Katada
知 中西
Satoru Nakanishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Health University
Canon Medical Systems Corp
Original Assignee
Fujita Health University
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Health University, Canon Medical Systems Corp filed Critical Fujita Health University
Priority to JP2021085933A priority Critical patent/JP2022178846A/ja
Priority to EP22174657.1A priority patent/EP4092617A3/en
Priority to US17/664,312 priority patent/US20220375086A1/en
Publication of JP2022178846A publication Critical patent/JP2022178846A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • G06T2207/10096Dynamic contrast-enhanced magnetic resonance imaging [DCE-MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Abstract

【課題】コントラストを向上させた医用画像を生成すること。【解決手段】本実施形態に係る医用情報処理方法は、第1医用画像診断装置により撮影された、関心領域において第1コントラストを有する第1医用画像に対して変換処理を適用することにより、第2医用画像診断装置により得られる第2医用画像よりもコントラストが高い高コントラスト画像を生成する。前記高コントラスト画像に対して画像処理を適用することにより、前記第2医用画像を疑似的に再現した画像であって、前記関心領域において前記第1コントラストよりも低い第2コントラストを有する疑似第2医用画像を生成する。前記疑似第2医用画像を入力データとし、前記高コントラスト画像を教師データとしてモデルを学習し、学習済みモデルを生成する。【選択図】図1

Description

本明細書及び図面に開示の実施形態は、医用情報処理方法、医用情報処理装置および医用画像処理装置に関する。
従前より、脳組織の医用画像診断では、CT(Computed Tomography)画像およびMR(Magnetic Resonance)画像を用いた診断が普及している。ここで、脳の白質および灰白質の画像上のコントラストは、CT画像においてノイズ低減およびコントラスト強調処理などの画像処理により改善はされているものの、MR画像のコントラストには及ばない。特に救急現場などにおいては、撮像に時間を要し、さらには患者に金属が埋め込まれている場合は撮影できないMRI装置よりも、短時間で撮像が可能なX線CT装置による画像撮影のほうがニーズが高く、組織のコントラストを向上させたCT画像が望まれる。
特開2019-209014号公報 特表2016-504167号公報
本明細書および図面に開示の実施形態が解決しようとする課題の一つは、コントラストを向上させた医用画像を生成することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。
本実施形態に係る医用情報処理方法は、第1医用画像診断装置により撮影された、関心領域において第1コントラストを有する第1医用画像に対して変換処理を適用することにより、第2医用画像診断装置により得られる第2医用画像よりもコントラストが高い高コントラスト画像を生成する。前記高コントラスト画像に対して画像処理を適用することにより、前記第2医用画像を疑似的に再現した画像であって、前記関心領域において前記第1コントラストよりも低い第2コントラストを有する疑似第2医用画像を生成する。前記疑似第2医用画像を入力データとし、前記高コントラスト画像を教師データとしてモデルを学習し、学習済みモデルを生成する。
図1は、第1の実施形態に係る医用情報処理装置を示すブロック図である。 図2は、第1の実施形態に係るモデル学習機能によるモデルの学習時の概念を示す図である。 図3は、第1の実施形態に係るモデル学習機能によるモデルの学習時の具体例を示す図である。 図4は、第1の実施形態に係るモデル実行機能による学習済みモデルの利用時の概念を示す図である。 図5は、第2の実施形態に係る医用画像診断装置の一例となるX線CT装置の構成を示すブロック図である。
以下、図面を参照しながら本実施形態に係る医用情報処理方法、医用情報処理装置および医用画像処理装置について説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作を行なうものとして、重複する説明を適宜省略する。以下、一実施形態について図面を用いて説明する。
(第1の実施形態)
第1の実施形態に係る医用情報処理装置について図1のブロック図を参照して説明する。
第1の実施形態に係る医用情報処理装置1は、メモリ11と、処理回路13と、入力インタフェース15と、通信インタフェース17とを含む。
メモリ11は、種々の情報を記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。メモリ11は、HDDやSSD等以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬性記憶媒体や、RAM(Random Access Memory)等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリ11の保存領域は、医用情報処理装置1内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。メモリ11は、学習用データ、学習済みモデル、各種医用データ(生データ、投影データ、サイノグラムなどの中間データなど)および各種医用画像(再構成画像、CT(Computed Tomography)画像、MR(Magnetic Resonance)画像、超音波画像、PET(Positron Emission Tomography)画像、SPECT(Single photon emission computed tomography)など)を格納することを想定する。なお、学習用データ、学習済みモデル、医用データ及び医用画像などは、外部に記憶されていてもよい。学習用データ、学習済みモデル、医用データ及び医用画像などが外部に記憶される場合は、処理回路13が参照可能であればよい。
処理回路13は、例えば、ハードウェア資源として、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサとROM(Read Only Memory)やRAM等のメモリとを含む。また処理回路13は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)やフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されてもよい。
処理回路13は、メモリに展開されたプログラムを実行するプロセッサにより、取得機能131と、教師画像生成機能132と、入力画像生成機能133と、モデル学習機能134と、モデル実行機能135と、表示制御機能136とを実行する。なお、各機能(取得機能131、教師画像生成機能132、入力画像生成機能133、モデル学習機能134、モデル実行機能135および表示制御機能136)は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路13を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。
取得機能131により処理回路13は、第1医用画像診断装置により撮影された、関心領域において第1コントラストを有する第1医用画像を取得する。言い換えれば、第1医用画像は、第1医用画像診断装置で利用する撮像手法である第1イメージングモダリティにより得られる医用画像である。第1コントラストは、第1医用画像に描出される関心領域における組織間のコントラストである。
教師画像生成機能132により処理回路13は、第1医用画像に対して変換処理を適用することにより、第2医用画像診断装置により得られる第2医用画像よりもコントラストが高い高コントラスト画像を生成する。言い換えれば、第1医用画像に対して、第1イメージングモダリティにより得られる画像を、第2医用画像診断装置で利用する撮像手法である第2イメージングモダリティ相当の画像へと変換する変換処理を適用することにより、第2医用画像を得る。教師画像生成機能132は、第1生成部の一例である。第2医用画像診断装置は、第1医用画像診断装置よりも、関心領域において組織のコントラストが高い医用画像を撮影できる装置を想定する。
入力画像生成機能133により処理回路13は、高コントラスト画像に対して画像処理を適用することにより、第2医用画像を疑似的に再現した画像であって、関心領域において第1コントラストよりも低い第2コントラストを有する疑似第2医用画像を生成する。
画像処理は、例えば、コントラスト低減処理およびノイズ付加処理といった、少なくとも画像のコントラストを低下(劣化)させる処理を想定する。
モデル学習機能134により処理回路13は、疑似第2医用画像を入力データとし、高コントラスト画像を教師データとして学習用のモデルを学習し(訓練し)、学習済みモデルを生成する。生成された学習済みモデルにより、第2イメージングモダリティにより得られる画像のコントラストを向上させることができる。本実施形態で想定する学習用のモデルとしては、ニューラルネットワーク、ディープニューラルネットワーク、深層畳み込みニューラルネットワーク(DCNN)などを想定する。なお、これに限らず、学習用データから何らかの特徴を学習できるモデルであれば、どのようなモデルでもよい。
モデル実行機能135により処理回路13は、第2医用画像診断装置から取得した第2医用画像に対して学習済みモデルを適用し、第2医用画像のコントラストを向上させた高コントラスト画像を出力する。なお、学習済みモデルは、例えば学習済みモデルがメモリ11に格納される場合は、当該メモリ11から学習済みモデルを参照してもよいし、学習済みモデルが外部装置に格納される場合は、モデル実行機能135が外部装置を参照すればよい。
表示制御機能136により処理回路13は、高コントラスト画像を、ディスプレイに表示させる、またはプロジェクタを介してスクリーンなどに表示させるように画像の出力を制御する。
入力インタフェース15は、ユーザから各種の入力操作を受け付け、受け付けた入力操作に基づく信号をメモリ11、処理回路13、通信インタフェース17などに出力する。例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等が適宜、使用可能となっている。なお、本実施形態において、入力インタフェース15は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の物理的な操作部品を備えるものに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する信号を受け取り、この信号を処理回路13へ出力するような処理回路も入力インタフェース15の例に含まれる。
通信インタフェース17は、外部と通信するための無線又は有線のインタフェースであり、一般的なインタフェースを用いればよいため、ここでの説明は省略する。
なお、メモリ11と、取得機能131と、モデル実行機能135と、表示制御機能136とを含む処理回路13と、入力インタフェース15と、通信インタフェース17とを含む構成を、医用画像処理装置とも呼ぶ。
第1の実施形態に係る医用情報処理装置1および医用画像処理装置は、CPU、GPU等の汎用プロセッサ、または機械学習専用に構成されたプロセッサを有するワークステーション等のコンピュータに実装されてもよいし、PACSなどのサーバに搭載されてもよい。または、CT装置などの各種医用画像診断装置に搭載されてもよい。
また、上述した各機能(取得機能131、教師画像生成機能132、入力画像生成機能133、モデル学習機能134、モデル実行機能135および表示制御機能136)は、それぞれ別体の装置で実行され、各装置が通信可能に接続されることにより上述の処理が実現されてもよい。
次に、モデル学習機能134によるモデルの学習時の概念について図2を参照して説明する。モデルの学習時には、学習用データを用いてネットワークモデル21を学習させる。
図2に示すように、第1医用画像から生成された高コントラスト画像を教師データ(正解データ)とし、高コントラスト画像から生成された疑似第2医用画像を入力データとした学習用データを用いてネットワークモデル21を学習させ、学習済みモデル23を生成する。
次にモデル学習機能134によるモデル学習時の具体例について図3を参照して説明する。
図3は、学習済みモデルの学習時の具体例として、被検体の頭部のMR画像に関する学習用データを用いて学習済みモデルを生成する場合を示す概念図である。ここでは、第1医用画像診断装置としてMRI装置を想定し、第2医用画像診断装置としてX線CT装置を想定する。また、MR画像が第1医用画像であり、疑似CT画像が疑似第2医用画像である。
MR画像31は、脳の白質および灰白質を含む領域を関心領域とした場合のMR画像であり、例えばFLAIR(Fluid attenuated inversion recovery)画像など、白質と灰白質との組織間のコントラストが高い画像を想定する。
MR画像からCT画像への変換処理を実行することで、CT画像を模擬した画像ではあるがコントラストはMR画像31のコントラストをある程度維持しつつ、一般的なCT画像よりも高い高コントラストCT画像32を生成する。MR画像からCT画像への変換といった、異なる医用画像診断装置で撮影された医用画像間の画像変換処理は、一般的な画像変換処理を用いればよい。つまり、異なる画像撮像手法である異なるイメージングモダリティで撮像した画像相当に変換可能な画像変換であれば、どのような手法でもよい。
高コントラストCT画像32は、MR画像31よりは白質および灰白質の領域に関するコントラストが低い。一方、高コントラストCT画像32は、実際にX線CT装置により撮影されたCT画像よりは、コントラストが高くなることを想定する。また、高コントラストCT画像32とMR画像31とでは、描画される解剖学的構造の形状は略同一であるとする。
疑似CT画像33は、高コントラストCT画像32に対して画像処理を施すことにより、疑似CT画像33を生成する。つまり、一般的なCT画像は、白質および灰白質のコントラストがMR画像のコントラストよりも低いため、より実際のCT画像に近づけるように、CT画像を模擬した高コントラストCT画像32への画像処理を行なう。具体的には、入力画像生成機能133により処理回路13は、高コントラストCT画像32に対して、コントラスト低減処理およびノイズ付加処理を実行する。コントラスト低減処理は、例えば、画像全体のコントラストが低くなるようにフィルタ処理が実行されればよい。また、ノイズ付加処理は、例えば、CT画像特有の粒状性ノイズを含むようにノイズを付加する処理が実行されればよい。
上述のように、疑似CT画像33と高コントラストCT画像32とをペアとした学習用データを複数用意し、例えばメモリ11に格納する。モデル学習機能134により処理回路13は、疑似CT画像33を入力データとし、高コントラストCT画像32を教師データとして、ネットワークモデル21を反復学習させることで、学習済みモデルが生成される。ネットワークモデル21の学習方法は、ネットワークモデル21からの出力画像と教師データである高コントラストCT画像32との誤差を算出し、当該誤差に関する誤差関数が最小となるように誤差逆伝播法を用いてネットワークモデルのパラメータを学習するといった、一般的な機械学習における学習方法を用いればよい。
これにより、CT画像から、MR画像並みの関心領域における組織のコントラストを有する高コントラストCT画像が再現されるように、ネットワークモデル21を学習させることができる。
なお、MR画像31が収集されていれば、高コントラストCT画像32および疑似CT画像33への変換は容易である。よって、MR画像と対応するCT画像とがペアで収集されている必要が無いため、容易かつ効率的に学習用データを用意できる。
また、MR画像31から高コントラストCT画像32および疑似CT画像33を生成する場合、複数種類の画像再構成処理を想定した画像を生成し、学習用データとしてもよい。例えば、画像再構成方法としては、フィルタ補正逆投影法(FBP法:Filtered Back Projection)や逐次近似再構成法等を用いた画像再構成処理があり、学習済みモデルの利用時には、どのような種類の画像再構成処理が行われたCT画像が入力されるか不明である。
よって、様々な画像再構成処理に対応できるように、例えば、入力画像生成機能133により処理回路13は、1枚の高コントラストCT画像32から、FBP法による画像再構成を想定した疑似CT画像33と、逐次近似再構成法による画像再構成を想定した疑似CT画像33とを生成する。例えば、逐次近似再構成法の疑似CT画像33は、FBP法の疑似CT画像33と比較してノイズ量やノイズ種などのノイズパターンが異なる。高コントラストCT画像32に逐次近似再構成用のノイズパターンを付加することにより逐次近似再構成の疑似CT画像33を生成し、FBP再構成用のノイズパターンを付加することによりFBP再構成の疑似CT画像33を生成することができる。
このように、複数種類の画像再構成処理を想定した疑似CT画像33を生成することで、より汎用的な学習済みモデル23を生成できる。
また、教師データの元となるMR画像31は、特定種類の疾患のMR画像だけではなく、様々な症例のMR画像および健常者を撮影した正常な状態のMR画像を含めてもよい。これにより、バリエーションに富んだ学習用データを用意することができ、より汎用的な学習済みモデル23を生成できる。
次に、学習済みモデル23の利用時の概念について図4を参照して説明する。
学習済みモデル23の利用時は、X線CT装置により実際に撮影されたCT画像に対して、学習済みモデル23を適用する。すなわち、モデル実行機能135により処理回路13は、学習済みモデル23に対して実際に撮影されたCT画像を入力することで、学習済みモデル23から、CT画像のコントラストが向上した高コントラストCT画像が出力される。
なお、高コントラスト画像として、高い管電流値(mAs)を設定してX線CT装置で撮影したCT画像にコントラスト強調処理を行なったコントラスト強調画像を用いてもよい。高い管電流値を設定して撮影したCT画像には、コントラスト強調処理が効果的に作用するため、当該コントラスト強調画像を教師データとして、撮影したCT画像を入力データとした学習用データを用いてもよい。
上述の例では、頭部を撮像対象部位として想定したが、これに限らず、腹部、脊髄、四肢および関節などを撮像対象部位としてもよい。組織のコントラストが高い画像のほうが有意な部位を撮像対象部位とすることで、より実益がある。
なお、複数の撮像対象部位を想定する場合、学習済みモデルは撮像対象部位ごとに生成する。例えば、撮像対象部位が頭部であれば、頭部に関するMR画像から生成された高コントラスト画像および対応する疑似CT画像を含む学習用データを用いて、学習済みモデルを生成すればよい。また、腹部であれば、腹部に関するMR画像から生成された高コントラスト画像および対応する疑似CT画像を含む学習用データを用いて、学習済みモデルを生成すればよい。
また、MR画像に限らず、PET装置で取得されるPET画像に基づいて高コントラスト画像を生成してもよい。PET画像は、例えば18F-FDG(フルオロデオキシグルコース)などのブドウ糖類似物質を用いて、組織の糖代謝を測定することで腫瘍の有無および良悪についての診断に利用される。よって、腫瘍のコントラストがCT画像よりも高いため、腫瘍部分を関心領域として、PET画像から高コントラスト画像(例えば、PET画像とCT画像とを重畳した融合画像)を生成し、当該高コントラスト画像に対応する疑似CT画像を生成して学習用データとして用いることで、MR画像の場合と同様に、学習済みモデルを生成できる。撮影されたCT画像に当該学習済みモデルを適用することで、腫瘍に関するコントラストが向上した融合画像を生成できる。
なお、PET画像に限らず、SPECT装置で取得されるSPECT画像であってもよい。
以上に示した第1の実施形態によれば、コントラストが高い第1医用画像から、第2医用画像よりもコントラストが高い高コントラスト画像を生成し、高コントラスト画像に対して画像処理を行なうことで、第2医用画像を疑似的に再現した画像でありかつ高コントラスト画像よりもコントラストが低い疑似第2医用画像を生成する。疑似第2医用画像を入力データとし、高コントラスト画像を教師データとしてモデルを学習することで学習済みモデルを生成する。実際に撮影された第2医用画像に対して当該学習済みモデルを適用することで、当該第2医用画像よりもコントラストを向上させた医用画像を生成することができる。
(第2の実施形態)
第2の実施形態では、第1の実施形態に係る医用画像処理装置の処理回路13の機能を含む医用画像診断装置の一例として、X線CT装置について説明する。
以下、本実施形態に係るX線CT装置について図5のブロック図を参照して説明する。図5に示すX線CT装置2は、架台装置70と、寝台装置50と、X線CT装置の処理を実現するコンソール装置40とを有する。図5では説明の都合上、架台装置70を複数描画している。
なお、本実施形態に係るX線CT装置2及び制御方法は、臥位型のX線CT装置を例に説明するが、立位型のX線CT装置でも同様に適用できる。また、スキャンモードに応じて立位及び臥位の両方の体位の被検体をスキャン可能なX線CT装置にも同様に適用できる。
本実施形態では、非チルト状態での回転フレーム73の回転軸の長手方向をZ軸、Z軸に直交しかつ回転中心から回転フレーム73を支持する支柱に向かう方向をX軸、当該Z軸及びX軸と直交する方向をY軸とそれぞれ定義するものとする。
例えば、架台装置70及び寝台装置50はCT検査室に設置され、コンソール装置40はCT検査室に隣接する制御室に設置される。なお、コンソール装置40は、必ずしも制御室に設置されなくてもよい。例えば、コンソール装置40は、架台装置70及び寝台装置50とともに同一の部屋に設置されてもよい。いずれにしても架台装置70と、寝台装置50と、コンソール装置40とは互いに通信可能に有線または無線で接続されている。
架台装置70は、被検体PをX線CT撮影するための構成を有するスキャン装置である。架台装置70は、X線管71と、X線検出器72と、回転フレーム73と、X線高電圧装置74と、制御装置75と、ウェッジ76と、コリメータ77と、データ収集装置78(以下、DAS(Data Acquisition System)78ともいう)とを含む。
X線管71は、X線高電圧装置74からの高電圧の印加及びフィラメント電流の供給により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生する真空管である。具体的には、熱電子がターゲットに衝突することによりX線が発生される。例えば、X線管71には回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管がある。X線管71で発生したX線は、例えばコリメータ77を介してコーンビーム形に成形され、被検体Pに照射される。
X線検出器72は、X線管71から照射され、被検体Pを通過したX線を検出する。X線検出器72は、例えば、X線管71の焦点を中心として1つの円弧に沿ってチャンネル方向に複数のX線検出素子が配列された複数のX線検出素子列を有する。X線検出器72は、例えば、チャンネル方向に複数のX線検出素子が配列されたX線検出素子列がスライス方向(列方向、row方向)に複数配列された列構造を有する。
X線検出器72は、具体的には、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接変換型の検出器である。X線検出器72は、一般的な積分型検出器と、フォトンカウンティング型検出器とのどちらも想定可能である。X線検出器72は、検出部の一例である。
X線検出器72が、積分型検出器である場合について説明する。
シンチレータアレイは、複数のシンチレータを有する。シンチレータは、入射X線量に応じた光子量の光を出力するシンチレータ結晶を有する。
グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドはコリメータ(1次元コリメータまたは2次元コリメータ)と呼ばれる場合もある。
光センサアレイは、シンチレータから受けた光を増幅して電気信号に変換する機能を有し、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。
次に、X線検出器72が、フォトンカウンティング型検出器である場合について説明する。
シンチレータは、入射X線を、当該入射X線の強度に応じた個数の光子に変換する。
光センサアレイは、シンチレータから受けた光を増幅して電気信号に変換し、当該入射X線のエネルギーに応じた波高値を有する出力信号(エネルギー信号)を生成する機能を有する。
なお、X線検出器72は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。
回転フレーム73は、X線管71とX線検出器72とを対向支持し、後述する制御装置75によってX線管71とX線検出器72とを回転させる円環状のフレームである。なお、回転フレーム73は、X線管71とX線検出器72とに加えて、X線高電圧装置74やDAS78を更に備えて支持する。
回転フレーム73は、アルミニウム等の金属により形成された固定フレーム(図示せず)に回転可能に支持される。詳しくは、回転フレーム73は、ベアリングを介して固定フレームの縁部に接続されている。回転フレーム73は、制御装置75の駆動機構からの動力を受けて回転軸Z回りに一定の角速度で回転する。
回転フレーム73は、架台装置の非回転部分(例えば固定フレーム。図1での図示は省略している)により回転可能に支持される。回転機構は例えば回転駆動力を生ずるモータと、当該回転駆動力を回転フレーム73に伝達して回転させるベアリングとを含む。モータは例えば当該非回転部分に設けられ、ベアリングは回転フレーム73及び当該モータと物理的に接続され、モータの回転力に応じて回転フレームが回転する。
回転フレーム73と非回転部分にはそれぞれ、非接触方式又は接触方式の通信回路が設けられ、これにより回転フレーム73に支持されるユニットと当該非回転部分あるいは架台装置70の外部装置との通信が行われる。例えば非接触の通信方式として光通信を採用する場合、DAS78が生成した検出データは、回転フレーム73に設けられた発光ダイオード(LED)を有する送信機から光通信によって架台装置の非回転部分に設けられた、フォトダイオードを有する受信機に送信され、さらに送信機により当該非回転部分からコンソール装置40へと転送される。なお通信方式としては、この他に容量結合式や電波方式などの非接触型のデータ伝送の他、スリップリングと電極ブラシを使った接触型のデータ伝送方式を採用しても構わない。
X線高電圧装置74は、変圧器(トランス)及び整流器等の電気回路を有し、X線管71に印加する高電圧及びX線管71に供給するフィラメント電流を発生する機能を有する高電圧発生装置と、X線管71が照射するX線に応じた出力電圧の制御を行なうX線制御装置とを有する。高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であっても構わない。なお、X線高電圧装置74は、後述する回転フレーム73に設けられてもよいし、架台装置70の固定フレーム(図示しない)側に設けられても構わない。
制御装置75は、CPU等を有する処理回路と、モータ及びアクチュエータ等の駆動機構とを有する。処理回路は、ハードウェア資源として、CPUやMPU等のプロセッサとROMやRAM等のメモリとを有する。
また、制御装置75は、ASICやFPGA、他のCPLD、SPLDにより実現されてもよい。制御装置75は、コンソール装置40からの指令に従い、X線高電圧装置74及びDAS78等を制御する。プロセッサは、メモリに保存されたプログラムを読み出して実現することで上記制御を実現する。
また、制御装置75は、コンソール装置40若しくは架台装置70に取り付けられた、後述する入力インタフェース43からの入力信号を受けて、架台装置70及び寝台装置50の動作制御を行なう機能を有する。例えば、制御装置75は、入力信号を受けて回転フレーム73を回転させる制御や、架台装置70をチルトさせる制御、及び寝台装置50及び天板53を動作させる制御を行なう。なお、架台装置70をチルトさせる制御は、架台装置70に取り付けられた入力インタフェース43によって入力される傾斜角度(チルト角度)情報により、制御装置75がX軸方向に平行な軸を中心に回転フレーム73を回転させることによって実現される。また、制御装置75は架台装置70に設けられてもよいし、コンソール装置40に設けられても構わない。なお、制御装置75は、メモリにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、プロセッサは、回路内に組み込まれたプログラムを読み出して実行することで上記制御を実現する。
ウェッジ76は、X線管71から照射されたX線量を調節するためのフィルタである。
具体的には、ウェッジ76は、X線管71から被検体Pへ照射されるX線が、予め定められた分布になるように、X線管71から照射されたX線を透過して減衰するフィルタである。例えば、ウェッジ76(ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter))は、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したフィルタである。
コリメータ77は、ウェッジ76を透過したX線の照射範囲を絞り込むための複数の絞り羽根(ブレードともいう)であり、複数の絞り羽根の組み合わせによってスリット(開口ともいう)を形成する。絞り羽根は、例えば鉛板などのX線の遮蔽能が高い材料で形成される。なお、コリメータ77は、X線絞りと呼ばれる場合もある。
DAS78は、X線検出器72が積分型検出器である場合、X線検出器72から電気信号を読み出し、読み出した電気信号に基づいて、X線検出器72により検出されたX線の線量に関するデジタルデータ(以下、検出データともいう)を生成する。検出データは、生成元のX線検出素子のチャネル番号、列番号、収集されたビュー(投影角度ともいう)を示すビュー番号、及び検出されたX線の線量の積分値を示すデータのセットである。
また、DAS78は、X線検出器72がフォトンカウンティング型検出器である場合、X線検出器72からエネルギー信号を読み出し、読み出したエネルギー信号に基づいて、X線検出器72により検出されたX線のカウントを示す検出データを、複数のエネルギー帯域(エネルギー・ビン)ごとに生成する。検出データは、生成元の検出器画素のチャネル番号、列番号、収集されたビューを示すビュー番号、及びエネルギー・ビン番号により識別されたカウント値のデータのセットである。DAS78は、例えば、検出データを生成可能な回路素子を搭載したASIC(Application Specific Integrated Circuit)により実現される。
寝台装置50は、スキャン対象の被検体Pを載置、移動させる装置であり、基台51と、寝台駆動装置52と、天板53と、支持フレーム54とを備えている。
基台51は、支持フレーム54を鉛直方向に移動可能に支持する筐体である。
寝台駆動装置52は、被検体Pが載置された天板53を天板53の長軸方向に移動するモータあるいはアクチュエータである。寝台駆動装置52は、コンソール装置40による制御、または制御装置75による制御に従い、天板53を移動する。例えば、寝台駆動装置52は、天板53に載置された被検体Pの体軸が回転フレーム73の開口の中心軸に一致するよう、天板53を被検体Pに対して直交方向に移動する。また、寝台駆動装置52は、架台装置70を用いて実行されるX線CT撮影に応じて、天板53を被検体Pの体軸方向に沿って移動してもよい。寝台駆動装置52は、制御装置75からの駆動信号のデューティ比等に応じた回転速度で駆動することにより動力を発生する。寝台駆動装置52は、例えば、ダイレクトドライブモータやサーボモータ等のモータにより実現される。
支持フレーム54の上面に設けられた天板53は、被検体Pが載置される板である。なお、寝台駆動装置52は、天板53に加え、支持フレーム54を天板53の長軸方向に移動してもよい。
コンソール装置40は、メモリ41と、ディスプレイ42と、入力インタフェース43と、処理回路44とを有する。メモリ41と、ディスプレイ42と、入力インタフェース43と、処理回路44との間のデータ通信は、バス(BUS)を介して行われる。なお、コンソール装置40は架台装置70とは別体として説明するが、架台装置70にコンソール装置40またはコンソール装置40の各構成要素の一部が含まれてもよい。
メモリ41は、種々の情報を記憶するHDDやSSD、集積回路記憶装置等の記憶装置である。メモリ41は、例えば、第1の実施形態に示した撮像対象部位ごとの学習済みモデル、後述する投影データ、および再構成画像データを記憶する。メモリ41は、HDDやSSD等以外にも、CD、DVD、フラッシュメモリ等の可搬性記憶媒体や、RAM等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリ41の保存領域は、X線CT装置2内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。例えば、メモリ41は、CT画像や表示画像のデータを記憶する。また、メモリ41は、本実施形態に係る制御プログラムを記憶する。
ディスプレイ42は、各種の情報を表示する。例えば、ディスプレイ42は、処理回路44によって生成された医用画像(CT画像)や、操作者からの各種操作を受け付けるためのGUI(Graphical User Interface)等を出力する。例えば、ディスプレイ42としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ(OELD:Organic Electro Luminescence Display)、プラズマディスプレイ又は他の任意のディスプレイが、適宜、使用可能となっている。また、ディスプレイ42は、架台装置70に設けられてもよい。また、ディスプレイ42は、デスクトップ型でもよいし、コンソール装置40本体と無線通信可能なタブレット端末などで構成されることにしても構わない。
入力インタフェース43は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路44に出力する。例えば、入力インタフェース43は、撮影データを収集する際の収集条件や、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件等を操作者から受け付ける。入力インタフェース43としては、例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等が適宜、使用可能となっている。なお、本実施形態において、入力インタフェース43は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の物理的な操作部品を備えるものに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路44へ出力する電気信号の処理回路も入力インタフェース43の例に含まれる。入力インタフェース43は、架台装置70に設けられてもよい。又、入力インタフェース43は、コンソール装置40本体と無線通信可能なタブレット端末などで構成されることにしても構わない。
処理回路44は、入力インタフェース43から出力される入力操作の電気信号に応じてX線CT装置2全体の動作を制御する。例えば、処理回路44は、ハードウェア資源として、CPUやMPU、GPU等のプロセッサとROMやRAM等のメモリとを有する。処理回路44は、第1の実施形態に係る処理回路13と同様に、メモリに展開されたプログラムを実行するプロセッサにより、システム制御機能441、前処理機能442、取得機能131と、モデル実行機能135と、表示制御機能136とを実行する。なお、各機能は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。なお、取得機能131と、取得機能131と、モデル実行機能135と、表示制御機能136とについては、第1の実施形態と同様の動作を行なうため説明を省略する。
システム制御機能441は、入力インタフェース43を介して操作者から受け付けた入力操作に基づいて、処理回路44の各機能を制御する。具体的には、システム制御機能441は、メモリ41に記憶されている制御プログラムを読み出して処理回路44内のメモリ上に展開し、展開された制御プログラムに従ってX線CT装置2の各部を制御する。例えば、処理回路44は、入力インタフェース43を介して操作者から受け付けた入力操作に基づいて、処理回路44の各機能を制御する。例えば、システム制御機能441は、スキャン範囲、撮影条件等を決定するための被検体Pの2次元の位置決め画像を取得する。
前処理機能442は、DAS78から出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正などの前処理を施したデータを生成する。なお、前処理前のデータ(検出データ)および前処理後のデータを総称して投影データとも呼ぶ。
なお、処理回路44は、スキャン制御処理、画像処理および表示制御処理も行なう。
スキャン制御処理は、X線高電圧装置74に高電圧を供給させて、X線管71にX線を照射させるなど、X線スキャンに関する各種動作を制御する処理である。
画像処理は、入力インタフェース43を介して操作者から受け付けた入力操作に基づいてCT画像データを、任意断面の断層画像データや3次元画像データに変換する画像再構成処理である。
処理回路44は、コンソール装置40に含まれる場合に限らず、複数の医用画像診断装置にて取得されたデータに対する処理を一括して行なう統合サーバに含まれてもよい。
なお、コンソール装置40は、単一のコンソールにて複数の機能を実行するものとして説明したが、複数の機能を別々のコンソールが実行することにしても構わない。例えば、取得機能131、モデル実行機能135などの処理回路44の機能を分散して有しても構わない。
以上に示した第2の実施形態によれば、X線CT装置により撮影したCT画像に学習済みモデルに適用することで、CT画像よりも関心領域におけるコントラストが高い高コントラスト画像を生成することができる。
なお、X線CT装置2には、X線管と検出器とが一体として被検体Pの周囲を回転するRotate/Rotate-Type(第3世代CT)、リング状にアレイされた多数のX線検出素子が固定され、X線管のみが被検体Pの周囲を回転するStationary/Rotate-Type(第4世代CT)等様々なタイプがあり、いずれのタイプでも本実施形態へ適用可能である。
さらに、本実施形態においては、一管球型のX線CT装置にも、X線管と検出器との複数のペアを回転リングに搭載した、いわゆる多管球型のX線CT装置にも適用可能である。
加えて、実施形態に係る各機能は、前記処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに前記手法を実行させることのできるプログラムは、磁気ディスク(ハードディスクなど)、光ディスク(CD-ROM、DVDなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。
以上説明した少なくとも1つの実施形態によれば、コントラストを向上させた医用画像を生成できる。
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 医用情報処理装置
2 X線CT装置
11,41 メモリ
13,44 処理回路
15,43 入力インタフェース
17 通信インタフェース
23 学習済みモデル
31 MR画像
32 高コントラストCT画像
33疑似CT画像
40 コンソール装置
41 メモリ
42 ディスプレイ
44 処理回路
50 寝台装置
51 基台
52 寝台駆動装置
53 天板
54 支持フレーム
70 架台装置
71 X線管
72 X線検出器
73 回転フレーム
74 X線高電圧装置
75 制御装置
76 ウェッジ
77 コリメータ
78 データ収集装置
131 取得機能
132 教師画像生成機能
133 入力画像生成機能
134 モデル学習機能
135 モデル実行機能
136 表示制御機能
441 システム制御機能
442 前処理機能

Claims (9)

  1. 第1医用画像診断装置により撮影された、関心領域において第1コントラストを有する第1医用画像に対して変換処理を適用することにより、第2医用画像診断装置により得られる第2医用画像よりもコントラストが高い高コントラスト画像を生成し、
    前記高コントラスト画像に対して画像処理を適用することにより、前記第2医用画像を疑似的に再現した画像であって、前記関心領域において前記第1コントラストよりも低い第2コントラストを有する疑似第2医用画像を生成し、
    前記疑似第2医用画像を入力データとし、前記高コントラスト画像を教師データとしてモデルを学習し、学習済みモデルを生成する、医用情報処理方法。
  2. 前記第1医用画像は、MR(Magnetic Resonance)画像またはPET(Positron Emission Tomography)画像であり、前記第2医用画像は、CT(Computed Tomography)画像である、請求項1に記載の医用情報処理方法。
  3. 前記画像処理は、前記高コントラスト画像に対するノイズ付加およびコントラスト低減に関する処理である、請求項1または請求項2に記載の医用情報処理方法。
  4. 前記高コントラスト画像および前記疑似第2医用画像は、複数種類の画像再構成処理を想定して再現された画像である、請求項1から請求項3のいずれか1項に記載の医用情報処理方法。
  5. 前記第1コントラストおよび前記第2コントラストは、前記関心領域に含まれる複数組織間のコントラストである、請求項1から請求項4のいずれか1項に記載の医用情報処理方法。
  6. 第1イメージングモダリティにより得られる第1医用画像に対して、前記第1イメージングモダリティにより得られる画像を第2イメージングモダリティ相当の画像へと変換する変換処理を適用することにより、機械学習モデルの訓練に用いられる第2医用画像を得、
    前記第2医用画像に対して画像処理を適用することにより、前記第2医用画像よりも低コントラストでありかつ機械学習モデルの訓練に用いられる第3医用画像を得、
    前記第2医用画像と前記第3医用画像とに基づいて機械学習モデルを訓練することにより、前記第2イメージングモダリティにより得られる画像のコントラストを向上させるための学習済みモデルを生成する、医用情報処理方法。
  7. 第1医用画像診断装置により撮影された、関心領域において第1コントラストを有する第1医用画像に対して変換処理を適用することにより、第2医用画像診断装置により得られる第2医用画像よりもコントラストが高い高コントラスト画像を生成する第1生成部と、
    前記高コントラスト画像に対して画像処理を適用することにより、前記第2医用画像を疑似的に再現した画像であって、前記関心領域において前記第1コントラストよりも低い第2コントラストを有する疑似第2医用画像を生成する第2生成部と、
    前記疑似第2医用画像を入力データとし、前記高コントラスト画像を教師データとしてモデルを学習し、学習済みモデルを生成する学習部と、
    を具備する医用情報処理装置。
  8. 第1医用画像診断装置により撮影された第1医用画像を取得する取得部と、
    医用画像を入力データとし、前記医用画像の関心領域におけるコントラストが向上した画像を教師データとして学習した学習済みモデルを前記第1医用画像に適用することにより、前記第1医用画像の関心領域における第1コントラストよりもコントラストが高い高コントラスト画像を生成する実行部と、
    を具備する医用画像処理装置。
  9. 前記学習済みモデルは、
    前記第1コントラストよりも高い第2コントラストを有する第2医用画像診断装置により撮影された第2医用画像から生成された前記高コントラスト画像を教師データとし、
    前記高コントラスト画像に対して画像処理を行なうことにより、前記第1医用画像を疑似的に再現した画像である疑似第2医用画像を入力データとしてモデルを学習することで生成される、請求項8に記載の医用画像処理装置。
JP2021085933A 2021-05-21 2021-05-21 医用情報処理方法、医用情報処理装置および医用画像処理装置 Pending JP2022178846A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021085933A JP2022178846A (ja) 2021-05-21 2021-05-21 医用情報処理方法、医用情報処理装置および医用画像処理装置
EP22174657.1A EP4092617A3 (en) 2021-05-21 2022-05-20 Medical information processing method and medical image processing apparatus
US17/664,312 US20220375086A1 (en) 2021-05-21 2022-05-20 Medical information processing method, medical information processing apparatus, and medical image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021085933A JP2022178846A (ja) 2021-05-21 2021-05-21 医用情報処理方法、医用情報処理装置および医用画像処理装置

Publications (1)

Publication Number Publication Date
JP2022178846A true JP2022178846A (ja) 2022-12-02

Family

ID=81750347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021085933A Pending JP2022178846A (ja) 2021-05-21 2021-05-21 医用情報処理方法、医用情報処理装置および医用画像処理装置

Country Status (3)

Country Link
US (1) US20220375086A1 (ja)
EP (1) EP4092617A3 (ja)
JP (1) JP2022178846A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058210B2 (en) * 2001-11-20 2006-06-06 General Electric Company Method and system for lung disease detection
US10096109B1 (en) * 2017-03-31 2018-10-09 The Board Of Trustees Of The Leland Stanford Junior University Quality of medical images using multi-contrast and deep learning
US10748034B2 (en) * 2018-01-10 2020-08-18 Siemens Healthcare Gmbh Method and system for learning to obtain medical scans of patients
EP3553740A1 (en) * 2018-04-13 2019-10-16 Koninklijke Philips N.V. Automatic slice selection in medical imaging

Also Published As

Publication number Publication date
EP4092617A2 (en) 2022-11-23
US20220375086A1 (en) 2022-11-24
EP4092617A3 (en) 2022-11-30

Similar Documents

Publication Publication Date Title
JP7348376B2 (ja) 医用処理装置、x線ctシステム及び処理プログラム
JP7516074B2 (ja) 医用処理装置
JP7224829B2 (ja) 医用画像処理装置および方法
JP7242410B2 (ja) 医用画像処理装置、x線ct装置及び学習用データの生成方法
JP7313818B2 (ja) 医用画像処理装置、医用画像診断装置、及び医用画像処理方法
JP2021090495A (ja) 医用画像処理装置、医用画像診断装置および医用画像処理プログラム
JP7466401B2 (ja) 医用画像診断装置
JP7334088B2 (ja) 医用情報処理装置、医用情報処理プログラムおよびx線ct装置
JP2022178846A (ja) 医用情報処理方法、医用情報処理装置および医用画像処理装置
JP2021176370A (ja) 医用画像診断装置および体重分布シート
US20230404514A1 (en) Medical data processing method, model generating method, and medical data processing apparatus
US20240169531A1 (en) Medical image processing apparatus, medical image processing method, and model generation method
JP7309429B2 (ja) 医用情報処理システム、および医用情報処理装置
JP7321798B2 (ja) 再構成装置及び放射線診断装置
US12121386B2 (en) X-ray computed tomography apparatus, medical image display apparatus, and medical image display method
JP7114381B2 (ja) X線ct装置及びx線管装置
JP2023071179A (ja) 医用画像処理装置、x線ct装置、医用画像処理方法及びプログラム
JP2022092932A (ja) X線コンピュータ断層撮影装置、医用画像処理装置、およびデータ処理方法
JP2023184428A (ja) 医用データ処理方法、モデル生成方法、および医用データ処理装置
JP2021159337A (ja) 医用画像処理装置及び医用画像診断装置
JP2023074957A (ja) 直接変換型x線検出器、x線検出方法、およびx線コンピュータ断層撮影装置
JP2023128489A (ja) X線ct装置、撮影方法および撮影プログラム
JP2022158420A (ja) X線コンピュータ断層撮影装置、医用画像表示装置、および医用画像表示方法
JP2022106600A (ja) 医用画像診断装置および医用画像処理装置
JP2023104688A (ja) データ管理装置、フォトンカウンティングx線コンピュータ断層撮影装置、データ管理方法、およびデータ管理プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240401