JP2021174394A - 推論装置、医用システム、およびプログラム - Google Patents

推論装置、医用システム、およびプログラム Download PDF

Info

Publication number
JP2021174394A
JP2021174394A JP2020079650A JP2020079650A JP2021174394A JP 2021174394 A JP2021174394 A JP 2021174394A JP 2020079650 A JP2020079650 A JP 2020079650A JP 2020079650 A JP2020079650 A JP 2020079650A JP 2021174394 A JP2021174394 A JP 2021174394A
Authority
JP
Japan
Prior art keywords
image
channel
inference
images
trained model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020079650A
Other languages
English (en)
Other versions
JP7071037B2 (ja
Inventor
康夫 尾見
Yasuo Omi
章太郎 渕辺
Shotaro Fuchibe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Priority to JP2020079650A priority Critical patent/JP7071037B2/ja
Priority to US17/240,104 priority patent/US12039718B2/en
Publication of JP2021174394A publication Critical patent/JP2021174394A/ja
Application granted granted Critical
Publication of JP7071037B2 publication Critical patent/JP7071037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

【課題】CT画像などのグレースケール画像を取り扱う場合であっても、推論の精度を向上させる推論装置、当該推論装置を有する医用装置及び学習済みモデルを用いて推論を行うためのプログラムを提供する。【解決手段】医用情報管理システムにおいて、ワークステーションは、3つの1チャネル画像(原画像、ヒストグラム平坦化画像及び輪郭強調画像)の各々の画像情報を含むマルチチャネル画像と、正解データとを学習する学習処理によって生成されるものである学習済みモデルTM用いて推論を実行する推論部と、被検体の3つの1チャネル画像(原画像IM10、ヒストグラム平坦化画像IM20及び輪郭強調画像IM30)の各々の画像情報を含むマルチチャネル画像IMbを生成するマルチチャネル画像生成部と、を含む。推論部は、マルチチャネル画像IMbを学習済みモデルTMに入力して推論を実行し、出力画像IMoutを出力データとして出力する。【選択図】図13

Description

本発明は、学習済みモデルを用いて推論を行う推論装置、当該推論装置を有する医用装置、および学習済みモデルを用いて推論を行うためのプログラムに関する。
被検体の体内の画像を非侵襲的に撮影する医用装置として、X線CT装置が知られている。X線CT装置は、撮影部位を短時間で撮影することができるので、病院等の医療施設に普及している。
X線CT装置を用いて被検体を撮影する場合、様々なスキャン条件で被検体をスキャンすることにより、臨床目的に応じた様々なCT画像を取得することができる。読影医などの医師は、取得されたCT画像の読影を行い、読影の結果に基づいて、診断を行う。
また、近年、AI(Artificial Intelligence)を利用して画像処理を行い、臨床に適した画像を生成することが行われている。AIの一例として、機械学習を使用した画像処理の一例が特許文献1に開示されている。
特開2019−118670号公報
AIのうち、特に、ディープランニング(DEEP LEARNING、以下、「DL」と表記する)を利用した画像処理は盛んに行われている。
DLを用いた画像処理の研究は自然画像に対する画像分類などの研究からスタートし発展してきた。自然画像に対するDLの画像処理の代表的な成功例はカメラ画像に対する画像分類や防犯カメラなどの動画における人検出などが上げられる。
一方、医用画像に対するDLの画像処理の成功例としては、眼底カメラの画像や内視鏡画像のようなカラー画像の画像処理があり、DLを利用した眼底カメラの画像や内視鏡画像の画像処理は実用化が進んでいる傾向がみられる。
しかし、CT画像など、グレースケールで表示される医用画像の画像処理については、上記のカラー画像と比較すると、DLを利用した画像処理の実用化に遅れがみられる。この理由としては以下のようなことが考えられる。
テンソルフローなどに代表されるDLプラットフォームは、3チャンネルの情報を取り扱うことができる。ここで、眼底カメラの画像や内視鏡画像などのカラー画像について考えると、カラー画像は、1枚の画像から3つの情報(RGBに対応した3チャネルの情報)が得られる。したがって、カラー画像を取り扱う場合、DLプラットフォームが取り扱う3チャンネルを活用することができる。
次に、CT画像、MR画像などのグレースケール画像について考えてみる。グレースケール画像の場合、1枚の画像から1つの情報(つまり、1チャネルの情報)しか得られない。したがって、グレースケール画像は、カラー画像よりも、画像1枚当たりの情報量が少ない。このため、グレースケール画像を取り扱う場合、DLプラットフォームが取扱い可能な3チャネルのうちの1チャネルしか活用されていない。
したがって、グレースケール画像では、DLプラットフォームの取扱い可能な全チャネルを活用できておらず、推論の精度を向上させることが難しい場合がある。これが、DLによるCT画像などのグレースケール画像の画像処理の実用化に遅れがみられている原因の一つであると考えられる。
したがって、CT画像などのグレースケール画像を取り扱う場合であっても、推論の精度を向上させることができる技術が望まれている。
本発明の第1の観点は、学習済みモデルを用いて推論を実行する推論部であって、前記学習済みモデルが、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像と正解データとを学習する学習処理により生成されるものである、推論部と、
被検体の第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成するマルチチャネル画像生成部と
を含み、
前記推論部は、
前記第2のマルチチャネル画像を前記学習済みモデルに入力して前記推論を実行する、推論装置である。
本発明の第2の観点は、学習済みモデルを用いて推論を実行する推論部であって、前記学習済みモデルが、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像と正解データとを学習する学習処理により生成されるものである、推論部と、
被検体の第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成するマルチチャネル画像生成部と
を含み、
前記推論部は、
前記第2のマルチチャネル画像を前記学習済みモデルに入力して前記推論を実行する、医用システムである。
本発明の第3の観点は、学習済みモデルを用いて推論を実行する処理であって、前記学習済みモデルが、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像と正解データとを学習する学習処理により生成されるものである、推論を実行する処理と、
被検体の第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成する処理と
をプロセッサに実行させるためのプログラムであって、
前記推論を実行する処理は、
前記第2のマルチチャネル画像を前記学習済みモデルに入力して前記推論を実行する、プログラムである。
本発明の第4の観点は、プロセッサによる実行が可能な1つ以上のインストラクションが格納された、非一時的でコンピュータ読取可能な記録媒体であって、一つ以上のインストラクションは、プロセッサによって実行されたときに、
(1)学習済みモデルを用いて推論を実行することであって、前記学習済みモデルが、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像と正解データとを学習する学習処理により生成されるものである、推論を実行すること、
(2)被検体の第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成すること
を含む動作を実行させるものであり、
(1)の学習済みモデルを用いて推論を実行することは、前記第2のマルチチャネル画像を前記学習済みモデルに入力して前記推論を実行することを含むものである、非一時的でコンピュータ読取可能な記録媒体である。
本発明では、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像を用いて、推論を実行するための学習済みモデルが生成される。そして、推論を行う場合、第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成し、第2のマルチチャンネル画像を学習済みモデルの入力画像として推論を行う。したがって、1チャネル画像のみで学習済みモデルを生成したり、1チャネル画像のみを学習済みモデルの入力画像とする場合よりも、より多くの情報を含む画像で学習および推論が行われるので、推論の精度を向上させることができる。
本発明の一形態の推論装置を含む医用情報管理システム10を示す図である。 ワークステーションW2の機能ブロック図である。 学習ステップのフローチャートを示す図である。 原画像IM1を概略的に示す図である。 原画像IM1から生成された他のグレースケール画像を示す図である。 正解データCDを概略的に示す図である。 マルチチャネル画像IMaを概略的に示す図である。 学習済みモデルの生成方法の説明図である。 学習済みモデルTMを用いて被検体の画像から金属部材を抽出する推論ステップの一例を示すフローである。 スキャンにより取得された複数のCT画像IM10を概略的に示す図である。 他のグレースケール画像を示す図である。 マルチチャネル画像IMbを概略的に示す図である。 金属部材を抽出する処理の説明図である。 使用可能な画像の組合せの一例を示す表である。
以下、発明を実施するための形態について説明するが、本発明は、以下の形態に限定されることはない。
図1は、本発明の一形態の推論装置を含む医用情報管理システム10を示す図である。
システム10は、複数のモダリティQ1〜Qaを含んでいる。複数のモダリティQ1〜Qaの各々は、被検体の診断や治療などを行うモダリティである。
各モダリティは、医用装置と操作コンソールとを有する医用システムである。医用装置は被検体からデータを収集する装置であり、操作コンソールは、医用装置に接続されており、医用装置の操作に使用されるものである。医用装置は、被検体からデータを収集する装置であり、医用装置としては、例えば、単純X線撮影装置、X線CT装置、PET−CT装置、MRI装置、MRI−PET装置、マンモグイラフィ装置など、様々な装置を使用することができる。
更に、システム10は、複数のワークステーションW1〜Wbを有している。これらのワークステーションW1〜Wbには、例えば、病院情報システム(HIS)、放射線科情報システム(RIS)、臨床情報システム(CIS)、心血管情報システ ム(CVIS)、図書館情報システム(LIS)、電子カルテ(EMR)システム、および/又は他の画像及び情報管理システム等で使用されるワークステーション、読影医の検像作業に使用されるワークステーションが含まれている。
また、ワークステーションW1〜Wbには、各モダリティから送信された画像データに対して学習済みモデルを用いた推論処理を実行するワークステーションも含まれている。ここでは、ワークステーションW2が、推論処理を実行するワークステーションであるとする。
ワークステーションW2は、プロセッサ21および記憶部22を含んでいる。以下に、ワークステーションW2の機能について説明する。
図2は、ワークステーションW2の機能ブロック図である。
ワークステーションW2は、以下の機能51〜53を実行するように構成されている。
画像処理部51は、1チャネル画像(例えば、図10に示すCT画像IM10)に基づいて、他の1チャネル画像(例えば、図11に示すヒストグラム平坦化画像IM20および輪郭強調画像IM30)を生成する。1チャネル画像とは、1チャネルの情報を有する画像であり、例えば、グレースケール画像を表している。1チャネル画像の具体例については、後述する。
マルチチャネル画像生成部52は、3つの1チャネル画像(CT画像IM10、ヒストグラム平坦化画像IM20、および輪郭強調画像IM30)の各々の画像情報を含むマルチチャネル画像IMb(図12参照)を生成する。マルチチャネル画像IMbについては後述する。
推論部53は、学習済みモデルを用いて推論を実行する。具体的には、推論部53は、マルチチャネル画像IMbを学習済みモデルに入力して推論を実行し、推論の結果に応じた出力画像IMoutを出力データとして生成する(図13参照)。学習済みモデルの生成方法については後述する。
記憶部22には、上記の機能ブロックの処理を表すプログラムが記憶されている。記憶部22は、プロセッサによる実行が可能な1つ以上のインストラクションが格納された、非一時的でコンピュータ読取可能な記録媒体とすることができる。一つ以上のインストラクションは、プロセッサによって実行されたときに、以下の(a)−(c)を含む動作の実行を生じさせるものである。
(a)1チャネル画像(例えば、図10に示すCT画像IM10)に基づいて、他の1チャネル画像(例えば、図11に示すヒストグラム平坦化画像IM20および輪郭強調画像IM30)を生成すること(画像処理部51)。
(b)学習済みモデルを用いて推論を実行すること(推論部53)。
(c)3つの1チャネル画像(CT画像IM10、ヒストグラム平坦化画像IM20、および輪郭強調画像IM30)の各々の画像情報を含むマルチチャネル画像IMbを生成すること(マルチチャネル画像生成部52)。
尚、(b)の学習済みモデルを用いて推論を実行することは、マルチチャネル画像IMbを学習済みモデルに入力して推論を実行し、推論の結果に応じた出力画像IMoutを出力データとして生成することを含むものである。
ワークステーションW2は、動作(a)−(c)を実行させるための一つ以上のインストラクションが格納された非一時的でコンピュータ読取可能な記憶部22(記憶媒体)と、この記憶部22(記憶媒体)に格納されたインストラクションを実行するプロセッサ21とを備えている。プロセッサ21は本発明における推論装置の一例である。尚、本形態では、プロセッサ21および記憶部22はワークステーションW2に設けられているが、プロセッサ21および記憶部22を各モダリティ(Q1〜Qa)に設けてもよい。
本形態では、ワークステーションW2には学習済みモデルが格納されている。この学習済みモデルは、学習データを学習することにより生成されたものである。本形態では、各モダリティで被検体を撮影した後、学習済みモデルを使用して、被検体の画像に基づいて抽出対象物を抽出するための推論を実行する。抽出対象物とは、診断の目的に応じて抽出することが望まれる対象物であり、例えば、臓器、腫瘍、体内に埋め込まれている金属部材などである。ワークステーションW2は、画像に抽出対象物が含まれている場合、抽出対象物を含む出力画像を出力し、必要に応じて、モダリティに送信する。
近年、DL(ディープランニング)で学習済みモデルを生成し、学習済みモデルを用いて画像処理を行うことが盛んに行われている。DLの学習済みモデルを使用した画像処理の成功例としては、眼底カメラの画像や内視鏡画像のようなカラー画像の画像処理があり、DLを利用した眼底カメラの画像や内視鏡画像の画像処理は実用化が進んでいる傾向がみられる。
一方、CT画像など、グレースケールで表示される医用画像の画像処理については、上記のカラー画像と比較すると、DLを利用した画像処理の実用化に遅れがみられる。この理由としては以下のようなことが考えられる。
テンソルフローなどに代表されるDLプラットフォームは、3チャンネルの情報を取り扱うことができる。ここで、眼底カメラの画像や内視鏡画像などのカラー画像について考えると、カラー画像は、1枚の画像から3つの情報(RGBに対応した3チャネルの情報)が得られる。したがって、カラー画像を取り扱う場合、DLプラットフォームが取り扱い可能な3チャンネル全部が活用されている。
一方、CT画像などのグレースケール画像の場合、1枚の画像から1つの情報(つまり、1チャネルの情報)しか得られない。したがって、グレースケール画像は、1チャネルの情報を有する1チャネル画像であるので、グレースケール画像を取り扱う場合、DLプラットフォームが取扱い可能な3チャネルのうちの1チャネルしか活用されておらず、診断に有効な画像を生成するための学習および推論をすることが難しいという問題がある。そこで、本形態では、CT画像などのグレースケール画像を取り扱う場合であっても、DLによる画像処理に適した学習済みモデルを生成することが可能な方法を実現している。以下に、本形態における学習済みモデルを生成するための学習ステップについて説明する。尚、以下の例では、CT画像に基づいて学習済みモデルを生成する例について説明するが、本発明は、CT画像以外の他のグレースケール画像(例えば、MR画像、マンモグラフィ画像)を用いた学習済みモデルの生成にも適用可能である。
図3は学習ステップのフローチャートを示す図である。
ステップST1では、学習ステップで使用される複数の原画像を用意する。図4は、用意された複数の原画像IM1を概略的に示す図である。各原画像IM1はグレースケール画像である。尚、図4では、画像IM1に描出されている体内の臓器等を簡略化して示してある。
本形態における学習ステップでは、人体に埋め込まれた金属部材を抽出するための学習済みモデルを生成するものとする。したがって、ステップST1では、金属部材が埋め込まれている人間をCTスキャンすることにより得られた複数のCT画像IM1を、学習済みモデルを生成するために使用される複数の原画像IM1として用意する。
尚、金属部材は人体の様々な部位に埋め込まれるものである。また、金属部材が部位に対して埋め込まれる角度、金属部材の寸法、金属部材の材質、金属部材の形状は、患者ごとに決められるものであるので、画一的に決まるものではなく、多岐にわたる。そこで、金属部材が埋め込まれる部位、金属部材が部位に対して埋め込まれる角度、金属部材の寸法、金属部材の材質、金属部材の形状の組み合わせとして考えられる各パターンが描出された複数のCT画像を用意し、この複数のCT画像を、学習済みモデルの生成に使用される複数の原画像IM1として用意する。
尚、複数の原画像(CT画像)IM1の撮影条件はできるだけ近いことが望ましいが、異なる撮影条件で撮影された複数の画像を、複数の原画像IM1として用意することも可能である。
ステップST2では、原画像IM1とは別に、学習済みモデルを生成するために使用される他のグレースケール画像を生成する。図5は、生成された他のグレースケール画像を概略的に示す図である。
学習済みモデルの生成に使用されるDLプラットフォームは3チャネルの情報が取扱い可能である。一方、原画像IM1はグレースケール画像であるので、1チャネルの情報を有する1チャネル画像である。したがって、上記の原画像IM1は、DLプラットフォームが取扱い可能な3チャネルのうちの1チャネルに割り当てられることになる。しかし、原画像IM1をDLプラットフォームの1チャネルに割り当てても、まだ、2チャネルが残ることになる。そこで、この2チャネルを有効活用するため、原画像IM1に基づいて他のグレースケール画像IM2およびIM3を生成する。尚、図5では、画像IM1、IM2、およびIM3に描出されている体内の臓器等を簡略化して示してある。
グレースケール画像IM2は、原画像IM1にヒストグラム平坦化処理を施すことにより得られた画像(以下、ヒストグラム平坦化処理を施すことにより得られた画像を「ヒストグラム平坦化画像」と呼ぶ)である。一方、グレースケール画像IM3は、原画像IM1に輪郭強調処理を施すことにより得られた画像(以下、輪郭強調処理を施すことにより得られた画像を「輪郭強調画像」と呼ぶ)である。これらの画像IM2およびIM3は、既知の画像処理アルゴリズムを使用して生成することができる。
したがって、ステップST2を実行することにより、1チャネルの情報を有する1チャネル画像として、ヒストグラム平坦化画像IM2および輪郭強調画像IM3を生成することができる。ヒストグラム平坦化画像IM2および輪郭強調画像IM3を生成した後、ステップST3に進む。
ステップST3では、正解データを生成する。本形態では、金属部材を抽出することを考えているので、金属部材を含む画像を正解データとして生成する。
図6に正解データCDを概略的に示す。正解データCDは、例えば、原画像IM1から用意することができる。具体的には、各原画像から、この原画像に描出されている金属部材を含む領域を取り出し、この取り出された領域を表す画像を、正解データとして用意することができる。尚、原画像IM1から金属部材を含む領域を取り出す代わりに、ヒストグラム平坦化画像IM2又は輪郭強調画像IM3から金属部材を含む領域を取り出し、この取り出された領域を表す画像を、正解データとして用意してもよい。
ステップST4では、3つの1チャネル画像(原画像IM1、ヒストグラム平坦化画像IM2、および輪郭強調画像IM3)の各々の画像情報を含むマルチチャネル画像を生成する。図7は、マルチチャネル画像IMaを概略的に示す図である。図7では、マルチチャネル画像IMaに描出されている体内の臓器等を簡略化して示してある。マルチチャネル画像IMaは、原画像IM1、ヒストグラム平坦化画像IM2、および輪郭強調画像IM3の情報を含む3チャネル画像である。
ステップST5では、金属部材を抽出するための学習済みモデルを生成する。図8は学習済みモデルの生成方法の説明図である。
学習済みモデルTMは、例えば、DLプラットフォームを用いて生成することができる。DLプラットフォームに、3チャネル画像IMaと正解データCDとを入力して、3チャネル画像IMaと正解データCDとを学習させることにより、学習済みモデルTMを生成することができる。ここでは、金属部材を抽出するのに適した学習済みモデルTMが生成される。学習済みモデルTMは、病院などの医療機関がアクセス可能なワークステーション(例えば、図1に示すワークステーションW2)に記憶される。
このようにして、学習ステップのフロー(図3参照)が終了する。
上記の学習ステップにより得られた学習済みモデルTMは、被検体の画像から金属部材を抽出するための推論を実行するときに使用される。以下に、学習済みモデルTMを用いて金属部材を抽出する推論ステップの一例について、図9〜図13を参照しながら説明する。
図9は、学習済みモデルTMを用いて被検体の画像から金属部材を抽出する推論ステップの一例を示すフローである。尚、以下では、被検体の脊椎に金属部材が埋め込まれている例を取り上げて、金属部材を抽出する方法を説明するが、金属部材の埋め込まれている部位は、脊椎に限定されることはなく、本発明を使用することにより、被検体の任意の部位に埋め込まれている金属部材を特定することが可能である。
ステップST11では、CT装置を有するモダリティを用いて被検体をスキャンし、被検体のCT画像を取得する。モダリティの操作コンソールに設けられているプロセッサは、CT装置のスキャンにより収集されたデータに基づいて、被検体のCT画像を再構成する。この再構成は、操作コンソールのプロセッサの再構成部によって実行される。図10は、スキャンにより取得された複数のCT画像IM10の概略図である。各CT画像IM10はグレースケール画像である。図10では、画像IM10に描出されている体内の臓器等を簡略化して示してある。また、図10では、CT画像の例として、脊椎に金属部材が埋め込まれている被検体の脊椎部分のアキシャル画像が示されている。
ステップST12では、ステップST11で取得されたCT画像に基づいて、被検体に埋め込まれている金属部材を抽出するための推論を実行するために、モダリティは、取得したCT画像を、ワークステーションW2(図1参照)に送信する。
ステップST13では、ワークステーションW2は、モダリティから受け取ったCT画像IM10に基づいて、推論に必要となる他のグレースケール画像を生成する。図11は、生成された他のグレースケール画像を示す図である。
先に説明したように、DLプラットフォームは3チャネルの情報が取扱い可能である。一方、CT画像IM10はグレースケール画像であるので、1チャネルの情報を有する1チャネル画像である。したがって、CT画像IM10は、DLプラットフォームが取扱い可能な3チャネルのうちの1チャネルに割り当てられるが、CT画像IM10をDLプラットフォームの1チャネルに割り当てても、まだ、2チャンネルが残る。そこで、この2チャンネルを有効活用するため、ワークステーションW2は、CT画像IM10に基づいて他のグレースケール画像IM20およびIM30を生成する。尚、図11では、画像IM10、IM20、およびIM30に描出されている体内の臓器等を簡略化して示してある。
本形態では、学習ステップ(図8参照)でヒストグラム平坦化画像と輪郭強調画像とを生成しているので、推論ステップでも、グレースケール画像IM20としてヒストグラム平坦化画像を生成し、グレースケール画像IM30として輪郭強調画像IM30を生成する。
ワークステーションW2は、ヒストグラム平坦化画像IM20および輪郭強調画像IM30を生成する処理をプロセッサ21で実行する。プロセッサ21は、原画像(CT画像)IM10を受け取ると、原画像IM10にヒストグラム平坦化処理を施すことによりヒストグラム平坦化画像IM20を生成し、また、原画像IM10に輪郭強調処理を施すことにより輪郭強調画像IM30を生成する。尚、プロセッサ21は、画像処理部51(図2参照)によってヒストグラム平坦化画像IM20および輪郭強調画像IM30を生成する処理を実行する。これらの画像IM20およびIM30は、既知の画像処理アルゴリズムを使用して生成することができる。
したがって、ステップST13を実行することにより、1チャネルの情報を有する1チャネル画像として、ヒストグラム平坦化画像IM20および輪郭強調画像IM30を生成することができる。ヒストグラム平坦化画像IM20および輪郭強調画像IM30を生成した後、ステップST14に進む。
ステップST14では、ワークステーションW2のプロセッサ21が、3つの1チャネル画像(原画像IM10、ヒストグラム平坦化画像IM20、および輪郭強調画像IM30)の各々の画像情報を含むマルチチャネル画像を生成する。図12に生成されたマルチチャネル画像IMbを概略的に示す。尚、図12では、画像IMbに描出されている体内の臓器等を簡略化して示してある。マルチチャネル画像IMbは、原画像IM10、ヒストグラム平坦化画像IM20、および輪郭強調画像IM30の情報を含む3チャネル画像である。ワークステーションW2のプロセッサ21は、マルチチャネル画像生成部52(図2参照)によってマルチチャネル画像IMbを生成する処理を実行する。
ステップST15では、マルチチャネル画像IMbを学習済みモデルTMに入力して、金属部材を抽出するための推論を行う。図13は、金属部材を抽出する処理の説明図である。
ワークステーションW2のプロセッサ21は、3チャネル画像IMbを学習済みモデルTMの入力画像として受け取り、3チャネル画像IMbから金属部材を抽出するための推論を行い、出力データとして、抽出された金属部材を含む出力画像IMoutを出力する。尚、プロセッサ21は、推論部53(図2参照)によって上記の推論を実行する。
出力画像IMoutを生成した後、ワークステーションW2は、出力画像IMcをモダリティに送信する。モダリティは、受け取った出力画像IMoutを、操作コンソールの表示装置に表示する。
このようにして、図9のフローが終了する。
本形態では、学習ステップ(図8参照)において、DLプラットフォームを使用して金属部材を抽出するための学習済みモデルTMを生成する。しかし、テンソルフローなどに代表されるDLプラットフォームは、3チャンネルの情報を取り扱うことができるのに対し、学習済みモデルTMの生成に使用される原画像IM1はグレースケール画像であるので、原画像IM1からは1チャネルの情報しか得られない。したがって、原画像IM1のみを学習するだけでは、DLプラットフォームが取り扱い可能な3チャネルのうちの1チャネルしか活用することができず、推論の精度を低下させる恐れがある。
そこで、本形態では、DLプラットフォームが取扱い可能な全チャネルを活用できるように、原画像IM1を用意し(ステップST1、図4参照)、原画像IM1を用いて、ヒストグラム平坦化画像IM2および輪郭強調画像IM3を生成し(ステップST2、図5参照)、原画像IM1、ヒストグラム平坦化画像IM2、および輪郭強調画像IM3の情報を含む3チャネル画像IMaを生成する(ステップST4、図7参照)。更に、本形態では、正解データCDを生成する(ステップST3、図6参照)。そして、3チャネル画像IMaと正解データCDとを学習することにより学習済みモデルTMを生成する(ステップST5、図8参照)。3チャネル画像IMaは、原画像IM1の情報だけでなく、ヒストグラム平坦化画像IM2および輪郭強調画像IM3の情報も含んでいるので3チャネルの情報を含んでいる。したがって、DLプラットフォームが取扱い可能な3チャネル全部を利用した学習済みモデルTMを生成することができる。
尚、学習済みモデルTMは、例えば、ステップST1〜ST5を実行するための学習装置によって生成することができる。このような学習装置は、プロセッサと、当該プロセッサによる実行が可能な1つ以上のインストラクションが格納された非一時的でコンピュータ読取可能な記録媒体とにより構成することができる。この記録媒体に格納された一つ以上のインストラクションは、プロセッサによって実行されたときに、ステップST1〜ST5の動作を実行させるものである。尚、ステップST1〜ST5の動作は、一つのプロセッサによって実行させてもよいし、複数のプロセッサによって実行させてもよい。
また、本形態では、学習ステップにより生成された学習済みモデルTMを用いて、推論ステップが実行される。推論ステップでは、学習ステップにおいて原画像IM1からヒストグラム平坦化画像IM2および輪郭強調画像IM3を生成したことに対応させて、原画像IM10からヒストグラム平坦化画像IM20および輪郭強調画像IM30を生成する(図11参照)。そして、原画像IM10、ヒストグラム平坦化画像IM20、および輪郭強調画像IM30の各々の画像情報を含む3チャネル画像IMbを生成する(図12参照)。この3チャネル画像IMbは、学習済みモデルCDに入力され、金属部材を抽出するための推論が実行される。上記のように、学習済みモデルCDは、DLプラットフォームが取扱い可能な3チャネル全部を利用して生成されている。したがって、学習済みモデルCDを使用することにより、1チャネルのみを利用して生成された学習済みモデルを使用するよりも、金属部材を抽出するための推論の精度を向上させることができる。
本形態では、ワークステーションW2(図1参照)で推論を実行しているが、モダリティで推論を行ってもよいし、推論の処理をモダリティとワークステーションとで分けて実行してもよい。
本形態では、CT画像を原画像として、ヒストグラム平坦化画像および輪郭強調画像を生成し、原画像、ヒストグラム平坦化画像、および輪郭強調画像の組合せを用いて、学習ステップおよび推論ステップを実行している。しかし、ヒストグラム平坦化画像および輪郭強調画像のうちの一方の画像のみを生成し、原画像およびヒストグラム平坦化画像の組合せ、又は原画像および輪郭強調画像の組合せを用いて、学習ステップおよび推論ステップを実行してもよい。この場合、DLプラットフォームで取扱い可能な3チャネルの情報のうちの1チャネルの情報は活用されないが、2つの画像の組合せを使用することにより2チャネルの情報が得られる。したがって、2つの画像の組合せを使用することにより、原画像しか使用しない場合と比較して、推論の精度を向上させることができる。
尚、本形態では、学習ステップにおいて、図8に示すように、3チャネル画像IMaの生成に使用される原画像IM1を用いて、3チャネル画像IMaの生成に使用される他の1チャネル画像(ヒストグラム平坦化画像IM2および輪郭強調画像IM3)を用意している。しかし、3チャネル画像IMaの生成には使用されない初期画像を生成し、この初期画像から、3チャネル画像IMaの生成に使用される3つの1チャネル画像を用意してもよい。
また、本形態では、推論ステップにおいて、図13に示すように、3チャネル画像IMbの生成に使用される原画像IM10を用いて、3チャネル画像IMbの生成に使用される他の1チャネル画像(ヒストグラム平坦化画像IM20および輪郭強調画像IM30)を用意している。しかし、3チャネル画像IMbの生成には使用されない初期画像を生成し、この初期画像から、3チャネル画像IMbの生成に使用される3つの1チャネル画像を用意してもよい。
また、本形態では、学習ステップおよび推論ステップにおいて、1チャネル画像の組合せとして、CT画像(原画像)、ヒストグラム平坦化画像、および輪郭強調画像の組合せを用いている。しかし、臨床の目的に応じて、その他の組合せを使用することもできる(図14参照)。
図14は、使用可能な画像の組合せの一例を示す表である。
図14には、臨床の目的(a)−(e)に応じた画像の組合せの一例が示されている。
(aについて)
(a)には、肝細胞癌のステージ分類をすることが目的の例が示されている。この場合、1チャネル画像の組合せとして、単純CT画像、造影−動脈相画像(造影剤を使用して撮影された動脈相のCT画像)、造影−門脈相画像(造影剤を使用して撮影された門脈相のCT画像)の組合せを使用することができる。
また、(a)では、学習ステップで使用される正解データとして、例えば、単純CT画像、造影−動脈相画像、および造影−門脈相画像の組合せに対応付けられた、肝細胞癌のステージを表すインデックスを使用することができる。インデックスは、肝細胞癌のステージに応じた値が割り当てられる。例えば、肝細胞癌のステージを4段階に分ける場合、インデックスは、肝細胞癌のステージに応じて、1、2、3、および4のうちのいずれかの値が割り当てられる。したがって、肝細胞癌のステージを分類するための学習済みモデルを生成することができる。この学習済みモデルは、肝細胞癌のステージを推論し、肝細胞癌のステージを表すインデックスを出力データとして出力する。
(bについて)
(b)には、虚血領域を特定する例が示されている。この場合、1チャネル画像の組合せとして、MR−T2画像、MR−DWI画像、MR−ADC画像(又はMR−FLAIR画像)の組合せを使用することができる。MR−T2画像はMRIで撮影されたT2画像を表し、MR−DWI画像はMRIで撮影されたDWI(拡散強調)画像を表し、MR−ADC画像はMRIで撮影されたADC(Apparent Diffusion Coefficient:見かけの拡散係数)画像を表し、MR−FLAIR画像はMRIで撮影されたFLAIR(fluid-attenuated inversion recovery)画像を表している。
また、(b)では、学習ステップで使用される正解データとして、虚血領域を表す画像を使用することができる。この画像は、例えば、MR−T2画像から用意することができる。具体的には、各MR−T2画像から、この画像に描出されている虚血領域を取り出し、この取り出された虚血領域を表す画像を、正解データとして用意することができる。したがって、虚血領域を特定するための学習済みモデルを生成することができる。この学習済みモデルは、虚血領域を特定するための推論を実行し、虚血領域を含む画像を出力データとして出力する。
尚、MR−T2画像から虚血領域を取り出す代わりに、MR−DWI画像又はMR−ADC画像(若しくはMR−FLAIR画像)から虚血領域を取り出し、MR−DWI画像又はMR−ADC画像(若しくはMR−FLAIR画像)からから取り出された虚血領域を表す画像を、正解データとして用意してもよい。
(cについて)
(c)には、腫瘍検出を目的とする例が示されている。この場合、1チャネル画像の組合せとして、MR−T1画像、MR−T2画像、MR−DWI画像の組合せを使用することができる。MR−T1画像はMRIで撮影されたT1画像を表し、MR−T2画像はMRIで撮影されたT2画像を表し、MR−DWI画像はMRIで撮影されたDWI(拡散強調)画像を表している。
また、(c)では、学習ステップで使用される正解データとして、腫瘍領域の位置情報を表す位置データを使用することができる。この位置データは、例えば、MR−T1画像から用意することができる。具体的には、MR−T1画像ごとに、腫瘍領域が描出されている位置を表す位置データを求め、MR−T1画像ごとに求められた位置データを、正解データとして用意することができる。したがって、腫瘍領域を検出するための学習済みモデルを生成することができる。この学習済みモデルは、腫瘍領域を検出するための推論を実行し、腫瘍領域の位置情報を表す位置データを出力データとして出力する。
尚、MR−T1画像の代わりに、MR−T2画像又はMR−DWI画像を用いて、腫瘍領域の位置を表す位置データを求め、この位置データを正解データとして用意してもよい。
(dについて)
(d)では、病変検出又はステージ分類を目的とする例が示されている。この場合、1チャネル画像の組合せとして、CT-Mono 40kev画像、CT-Mono 55kev画像、CT-Mono 70kev画像の組合せを使用することができる。CT-Mono 40kev画像は、40kevの仮想単色X線CT画像を表し、CT-Mono 55kev画像は、55kevの仮想単色X線CT画像を表し、CT-Mono 70kev画像は、70kevの仮想単色X線CT画像を表している。
また、(d)では、病変のステージ分類が目的の場合、学習ステップで使用される正解データとして、例えば、CT-Mono 40kev画像とCT-Mono 55kev画像とCT-Mono 70kev画像との組合せに対して対応付けられた、病変のステージを表すインデックスを使用することができる。インデックスは、病変のステージに応じた値が割り当てられる。例えば、病変のステージを4段階に分ける場合、インデックスは、病変のステージに応じて、1、2、3、および4のうちのいずれかの値が割り当てられる。したがって、病変のステージを分類するための学習済みモデルを生成することができる。この学習済みモデルは、病変のステージを推論し、病変のステージを表すインデックスを出力データとして出力する。
一方、病変検出が目的の場合、学習ステップで使用される正解データとして、
病変領域の位置情報を表す位置データを使用することができる。この位置データは、例えば、CT-Mono 40kev画像から用意することができる。具体的には、CT-Mono 40kev画像ごとに、病変領域が描出されている位置を表す位置データを求め、CT-Mono 40kev画像ごとに求められた位置データを、正解データとして用意することができる。したがって、病変領域を検出するための学習済みモデルを生成することができる。この学習済みモデルは、病変領域を検出するための推論を実行し、病変領域の位置情報を表す位置データを出力データとして出力する。
尚、CT-Mono 40kev画像の代わりに、CT-Mono 55kev画像又はCT-Mono 70kev画像を用いて、病変領域の位置を表す位置データを求め、この位置データを正解データとして用意してもよい。
また、(d)では、画像のエネルギーの組合せとして、40kev、55kev、および70kevの組合せの例が示されている。しかし、画像のエネルギーの組合せは、40kev、55kev、および70kevの組合せに限定されることはなく、任意のkevの組合せが可能である。
(eについて)
(a)〜(d)は、3つの1チャネル画像の組合せを使用する例であるが、3つの1チャネル画像の組合せの代わりに、2つの1チャネル画像の組合せを使用することも可能である。(e)では、腫瘍検出を目的とする例が示されており、1チャネル画像の組合せとして、2つの1チャネル画像の組合せ、すなわち、Mammography低電圧ヨード造影画像と、Mammography高電圧単純撮影画像との組合せを使用することができる。Mammography低電圧ヨード造影画像は、低電圧ヨード造影により得られたマンモグイラフィ画像を表しており、Mammography高電圧単純撮影画像は、高電圧単純撮影により得られたマンモグイラフィ画像を表しいている。
また、(e)では、学習ステップで使用される正解データとして、腫瘍領域の位置情報を表す位置データを正解データとして使用することができる。この位置データは、例えば、Mammography低電圧ヨード造影画像から用意することができる。具体的には、Mammography低電圧ヨード造影画像ごとに、腫瘍領域が描出されている位置を表す位置データを求め、Mammography低電圧ヨード造影画像ごとに求められた位置データを、正解データとして用意することができる。したがって、腫瘍領域を検出するための学習済みモデルを生成することができる。この学習済みモデルは、腫瘍領域を検出するための推論を実行し、腫瘍領域の位置情報を表す位置データを出力データとして出力する。
尚、Mammography低電圧ヨード造影画像の代わりに、Mammography高電圧単純撮影画像を用いて、腫瘍領域の位置を表す位置データを求め、この位置データを正解データとして用意してもよい。
(e)では、DLプラットフォームで取扱い可能な3チャネルの情報のうちの1チャネルの情報は活用されないが、2つのマンモグラフィ画像を使用することにより2チャネルの情報が得られる。したがって、2つのマンモグラフィ画像を使用することにより、単純に1つのマンモグラフィ画像しか使用しない場合と比較して、推論の精度を向上させることが期待できる。
上記のように、本発明では、CT画像に限定されることはなく、MR画像、マンモグラフィ画像など、CT画像以外の画像を含む画像の組合せを用いて、学習ステップおよび推論ステップを実行することができる。
尚、本形態では、DLプラットフォームで取扱い可能なチャネル数が3チャネルの場合について説明されている。しかし、本発明は、DLプラットフォームで取扱い可能なチャネル数が2チャネルの場合にも適用することができ、更に、4チャネル以上の場合にも適用することができる。DLプラットフォームで取扱い可能なチャネル数が2チャネルの場合には、学習ステップおよび推論ステップにおいて、マルチチャネル画像として、2チャネル画像を生成することができる。一方、DLプラットフォームで取扱い可能なチャネル数が4チャネル以上の場合には、学習ステップおよび推論ステップにおいて、マルチチャネル画像として、k(≧4)チャネル画像を生成することができる。
10 医用情報管理システム
21 プロセッサ
22 記憶部
51 画像処理部
52 マルチチャネル画像生成部
53 推論部

Claims (12)

  1. 学習済みモデルを用いて推論を実行する推論部であって、前記学習済みモデルが、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像と正解データとを学習する学習処理により生成されるものである、推論部と、
    被検体の第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成するマルチチャネル画像生成部と
    を含み、
    前記推論部は、
    前記第2のマルチチャネル画像を前記学習済みモデルに入力して前記推論を実行する、推論装置。
  2. 前記正解データが、抽出対象物を含む画像であり、
    前記推論部が、前記推論を実行して前記抽出対象物を含む出力画像を出力する、請求項1に記載の推論装置。
  3. 前記第1の複数の1チャネル画像が、第1のCT画像と、前記第1のCT画像に基づいて生成された第1の一つ以上の他の画像とを含み、
    前記第2の複数の1チャネル画像が、第2のCT画像と、前記第2のCT画像に基づいて生成された第2の一つ以上の他の画像とを含む、請求項1に記載の推論装置。
  4. 前記第1の一つ以上の他の画像が、前記第1のCT画像にヒストグラム平坦化処理を施すことにより生成された第1のヒストグラム平坦化画像と、前記第1のCT画像に輪郭強調処理を施すことにより生成された第2の輪郭強調画像とを含み、
    前記第2の一つ以上の他の画像が、前記第2のCT画像にヒストグラム平坦化処理を施すことにより生成された第2のヒストグラム平坦化画像と、前記第2のCT画像に輪郭強調処理を施すことにより生成された第3の輪郭強調画像とを含み、
    前記正解データが、金属部材を含む画像である、請求項3に記載の推論装置。
  5. 前記第1の複数の1チャネル画像が、第1の単純CT画像、造影剤を用いて撮影された動脈相のCT画像を表す第1の動脈相画像、および造影剤を用いて撮影された門脈相のCT画像を表す第1の門脈相画像を含み、
    前記第2の複数の1チャネル画像が、第2の単純CT画像、造影剤を用いて撮影された動脈相のCT画像を表す第2の動脈相画像、および造影剤を用いて撮影された門脈相のCT画像を表す第2の門脈相画像を含み、
    前記正解データが、肝細胞癌のステージを表すインデックスである、請求項1に記載の推論装置。
  6. 前記第1の複数の1チャネル画像が、エネルギーが異なる複数の第1の単色X線画像を含み、
    前記第2の複数の1チャネル画像が、エネルギーが異なる複数の第2の単色X線画像を含み、
    前記正解データが、病変領域の位置情報を表す位置データ、又は病変のステージを表すインデックスである、請求項1に記載の推論装置。
  7. 前記第1の複数の1チャネル画像が第1の複数のMR画像を含み、
    前記第2の複数の1チャネル画像が第2の複数のMR画像を含む、請求項1に記載の推論装置。
  8. 前記第1の複数のMR画像が、第1のT2画像と、第1のDWI画像と、第1のADC画像又は第1のFLAIR画像とを含み、
    前記第2の複数のMR画像が、第2のT2画像と、第2のDWI画像と、第2のADC画像又は第2のFLAIR画像とを含み、
    前記正解データは、虚血領域を含む画像である、請求項7に記載の推論装置。
  9. 前記第1の複数のMR画像が、第1のT1画像と、第1のT2画像と、第1のDWI画像とを含み、
    前記第2の複数のMR画像が、第2のT1画像と、第2のT2画像と、第2のDWI画像とを含み、
    前記正解データが、腫瘍領域の位置情報を表す位置データである、請求項7に記載の推論装置。
  10. 前記第1の複数の1チャネル画像が、第1の複数のマンモグラフィ画像を含み、
    前記第2の複数の1チャネル画像が、第2の複数のマンモグラフィ画像を含み、
    前記正解データが、腫瘍領域の位置情報を表す位置データである、請求項1に記載の推論装置。
  11. 学習済みモデルを用いて推論を実行する推論部であって、前記学習済みモデルが、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像と正解データとを学習する学習処理により生成されるものである、推論部と、
    被検体の第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成するマルチチャネル画像生成部と
    を含み、
    前記推論部は、
    前記第2のマルチチャネル画像を前記学習済みモデルに入力して前記推論を実行する、医用システム。
  12. 学習済みモデルを用いて推論を実行する処理であって、前記学習済みモデルが、第1の複数の1チャネル画像の各々の画像情報を含む第1のマルチチャネル画像と正解データとを学習する学習処理により生成されるものである、推論を実行する処理と、
    被検体の第2の複数の1チャネル画像の各々の画像情報を含む第2のマルチチャネル画像を生成する処理と
    をプロセッサに実行させるためのプログラムであって、
    前記推論を実行する処理は、
    前記第2のマルチチャネル画像を前記学習済みモデルに入力して前記推論を実行する、プログラム。
JP2020079650A 2020-04-28 2020-04-28 推論装置、医用システム、およびプログラム Active JP7071037B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020079650A JP7071037B2 (ja) 2020-04-28 2020-04-28 推論装置、医用システム、およびプログラム
US17/240,104 US12039718B2 (en) 2020-04-28 2021-04-26 Inference apparatus, medical apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020079650A JP7071037B2 (ja) 2020-04-28 2020-04-28 推論装置、医用システム、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021174394A true JP2021174394A (ja) 2021-11-01
JP7071037B2 JP7071037B2 (ja) 2022-05-18

Family

ID=78222531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020079650A Active JP7071037B2 (ja) 2020-04-28 2020-04-28 推論装置、医用システム、およびプログラム

Country Status (2)

Country Link
US (1) US12039718B2 (ja)
JP (1) JP7071037B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171039A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
WO2023171040A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287805A (zh) * 2019-05-31 2019-09-27 东南大学 基于三流卷积神经网络的微表情识别方法及系统
US20200090381A1 (en) * 2016-09-12 2020-03-19 Zebra Medical Vision Ltd. Systems and methods for automated detection of an indication of malignancy in a mammographic image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11200664B2 (en) * 2015-12-18 2021-12-14 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
JP7114358B2 (ja) 2018-06-15 2022-08-08 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
DE112019003022T5 (de) * 2018-06-15 2021-03-18 Canon Kabushiki Kaisha Medizinische Bildverarbeitungsvorrichtung, medizinisches Bildverarbeitungsverfahren und Programm
WO2020238817A1 (en) * 2019-05-24 2020-12-03 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for processing x-ray images
CN110796161B (zh) * 2019-09-18 2024-09-17 平安科技(深圳)有限公司 识别模型训练、眼底特征的识别方法、装置、设备及介质
WO2021067665A2 (en) * 2019-10-03 2021-04-08 Photon-X, Inc. Enhancing artificial intelligence routines using 3d data
US11703454B2 (en) * 2020-01-03 2023-07-18 Korea Advanced Institute Of Science And Technology Method and apparatus for multiplexed imaging of spectrally-similar fluorophores
US11250568B2 (en) * 2020-03-06 2022-02-15 Bostongene Corporation Techniques for determining tissue characteristics using multiplexed immunofluorescence imaging

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200090381A1 (en) * 2016-09-12 2020-03-19 Zebra Medical Vision Ltd. Systems and methods for automated detection of an indication of malignancy in a mammographic image
CN110287805A (zh) * 2019-05-31 2019-09-27 东南大学 基于三流卷积神经网络的微表情识别方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171039A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
WO2023171040A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル

Also Published As

Publication number Publication date
US12039718B2 (en) 2024-07-16
JP7071037B2 (ja) 2022-05-18
US20210334959A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
US11080895B2 (en) Generating simulated body parts for images
Tmenova et al. CycleGAN for style transfer in X-ray angiography
JP2007275312A (ja) 解析プロトコルに基づいた前処理装置を備える三次元画像表示装置
JP7071037B2 (ja) 推論装置、医用システム、およびプログラム
JP6458166B2 (ja) 医用画像処理方法及び装置及びシステム及びプログラム
US20240020823A1 (en) Assistance diagnosis system for lung disease based on deep learning and assistance diagnosis method thereof
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
JP6301277B2 (ja) 診断補助画像生成装置および診断補助画像生成方法、並びに、診断補助画像生成プログラム
JP2019208903A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US20220108540A1 (en) Devices, systems and methods for generating and providing image information
CN118115409A (zh) 基于深度学习模拟对比增强乳腺癌mri的方法
Singh et al. Semantic segmentation of bone structures in chest X-rays including unhealthy radiographs: A robust and accurate approach
Kolarik et al. Detecting the absence of lung sliding in ultrasound videos using 3d convolutional neural networks
JP2006263282A (ja) 子宮の蠕動運動を可視化するための画像処理装置、画像処理方法および画像診断支援システム、ならびにそのためのコンピュータプログラムおよびそれを記録した記録媒体
US20190251691A1 (en) Information processing apparatus and information processing method
CN113538419B (zh) 一种图像处理方法和系统
CN113850794A (zh) 一种图像处理方法及装置
KR102095731B1 (ko) 딥러닝 기반의 보조 진단 시스템의 mra 영상 학습 방법 및 혈관 병변 보조 진단 방법
JP2022052210A (ja) 情報処理装置、情報処理方法及びプログラム
KR102136107B1 (ko) 뼈 감쇄된 x-선 영상의 정합 장치 및 방법
Amara et al. Augmented reality for medical practice: a comparative study of deep learning models for ct-scan segmentation
Huang et al. Thyroid Nodule Classification in Ultrasound Videos by Combining 3D CNN and Video Transformer
Swarnambiga Medical Image Processing for Improved Clinical Diagnosis
Chen Towards practical ultrasound ai across real-world patient diversity
CN116758404B (zh) 智能检测医学图像准确性的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220504

R150 Certificate of patent or registration of utility model

Ref document number: 7071037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150