JP7376053B2 - ディープラーニング基盤の造影増強ctイメージ対照度増幅装置及び方法 - Google Patents

ディープラーニング基盤の造影増強ctイメージ対照度増幅装置及び方法 Download PDF

Info

Publication number
JP7376053B2
JP7376053B2 JP2022532713A JP2022532713A JP7376053B2 JP 7376053 B2 JP7376053 B2 JP 7376053B2 JP 2022532713 A JP2022532713 A JP 2022532713A JP 2022532713 A JP2022532713 A JP 2022532713A JP 7376053 B2 JP7376053 B2 JP 7376053B2
Authority
JP
Japan
Prior art keywords
image
deep learning
contrast
training
enhanced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022532713A
Other languages
English (en)
Other versions
JP2023514914A (ja
Inventor
キム、ジョンヒョ
パク、ヒュンスーク
パク、タイチュル
アン、チュルキュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SNU R&DB Foundation
Original Assignee
Seoul National University R&DB Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210014378A external-priority patent/KR102316312B1/ko
Application filed by Seoul National University R&DB Foundation filed Critical Seoul National University R&DB Foundation
Publication of JP2023514914A publication Critical patent/JP2023514914A/ja
Application granted granted Critical
Publication of JP7376053B2 publication Critical patent/JP7376053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本願は、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置及び方法に関する。
コンピュータ断層撮影(CT)を通じては、被検者がX線発生装置のある円形の大きい機械に入り撮影を行うことで、人体を横切る横断面像の獲得が可能である。これは、単純X線撮影に比べて構造物の重なりが少なく、構造物及び病変をさらに明確に見られるという長所があるため、大部分の臓器及び疾患に対する精密検査に幅広く活用されている。
CTイメージの対照度は、病変に対する正確な診断において非常に重要な要素であるといえる。また、CT検査法の発展と共に、CTイメージにおける高い対照度のイメージを獲得するための努力が続けられている。一般的に、病変は他の周辺組織に比べて血管分布が高いか低いという特徴があるが、血管のX線減衰度を高くする造影剤を注入した後にCTを撮影すると、病変と周辺組織間の減衰度差異が明らかになるため、造影増強(造影剤注入)CT検査は、病変対照度を向上させたイメージを得るための重要な検査法として活用されている。
しかし、CTイメージの対照度を増幅させるための従来の努力は、大部分多量の造影剤注入を引き起こし得て、その被害のおそれがある。特に、最近の造影剤の危険に対する社会認識を勘案すると、ハイクオリティーの診断イメージを獲得するための努力時に造影剤の注入量を最小化するための努力が伴われる必要がある。
かかる努力の一例として、CT(コンピュータ断層撮影)製造社は、二重エネルギー撮影機能が含まれたCTシステムを市販している。二重エネルギーCTでは、造影剤成分に対する対照度をより向上させることができ、造影剤の注入量を減らす可能性がある。しかし、従来の二重エネルギーCTシステムは、既存製品に対して価格が高く、一般的に普及されるには問題があるだけでなく、二重エネルギーによる対照度の向上には限界があるため、最適な解決策になることはできず、これに対する解決方案が要求されている。即ち、造影剤の注入量を最小化しながら、ハイクオリティーの診断イメージ(高対照度CTイメージ)を獲得することができる、より効果的な技術開発が要求される。
一方、ディープラーニング技術は、一連の細部的なプログラムをコーディングする代わりに、与えられた学習データセットにより訓練が可能な汎用のプログラムコードを使用することで、特定の目的を達成する新しい方式のコンピュータ技術であり、多様な映像処理分野で優れた性能を認められている。
しかし、ディープラーニングモデルが好ましい性能を発揮するためには、充分に多くの訓練データセットを確保することが要求されるだけでなく、ディープラーニングモデルが事前に指定された範囲のデータに対して訓練され、実使用の段階でも事前に指定された範囲のデータに対して作動できるようにデータを区画化する方法が伴われる必要がある。安全性が特に重視される医療映像にディープラーニングを適用するためには、かかる前提条件を満たす効果的なディープラーニング訓練技術の開発がなおさら重要であるといえる。
韓国公開特許公報第10-2020-0026071号
本願は、前述した従来技術の問題点を解決するためのもので、造影剤の注入を最小化しながらハイクオリティーの診断イメージ(CTイメージ)を獲得することができるディープラーニング基盤の造影増強CTイメージ対照度増幅装置及び方法を提供することを目的とする。
本願は、前述した従来技術の問題点を解決するためのもので、安全性が特に重視される医療映像にディープラーニングがより効果的に適用できるようにするディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニングモデルの訓練(学習)方法を提供することを目的とする。
本願は、前述した従来技術の問題点を解決するためのもので、ディープラーニングが持った長所を活用しながらも、ディープラーニングの性能保障と安全性確保を担保することができるディープラーニング基盤の造影増強CTイメージ対照度増幅装置及び方法、それを通じたディープラーニングモデルの訓練方法を提供することを目的とする。
但し、本願の実施例が達成しようとする技術的課題は、上記のような技術的課題に限定されず、また他の技術的課題が存在し得る。
上記の技術的課題を達成するための技術的手段として、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、入力造影増強CTイメージを既訓練されたディープラーニングモデルに入力として前記入力造影増強CTイメージに対する造影増強成分と非造影増強成分のうち少なくとも一つの成分CTイメージを抽出する段階と、前記入力造影増強CTイメージと前記抽出された少なくとも一つの成分CTイメージに基づいて入力造影増強CTイメージに対する対照度増幅CTイメージを出力する段階とを含むことができる。
また、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、前記少なくとも一つの成分CTイメージを抽出する段階以前に、入力造影増強CTイメージから検査情報を抽出する段階と、既訓練された複数のディープラーニングモデルのうち前記検査情報に対応する少なくとも一つのディープラーニングモデルを選択する段階とをさらに含み、前記少なくとも一つの成分CTイメージを抽出する段階は、前記入力造影増強CTイメージを選択された少なくとも一つのディープラーニングモデルに入力として前記入力造影増強CTイメージに対する前記少なくとも一つの成分CTイメージを抽出する段階を含むことができる。
本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法において、前記対照度増幅CTイメージを出力する段階は、前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算する段階を含むことができる。
また、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法において、前記対照度増幅CTイメージを出力する段階は、前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算することで、第1のCTイメージと第2のCTイメージをそれぞれ生成する段階と、前記第1のCTイメージと第2のCTイメージにそれぞれ事前に定めた色調テーブルを適用して合成されたカラーイメージに出力する段階とを含むことができる。
また、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、前記少なくとも一つの成分CTイメージを抽出する段階以前に、訓練用第1のCTデータセットのイメージ対に基づいて少なくとも一つの成分CTイメージを合成する段階と、前記合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成する段階と、前記訓練用第2のCTデータセットを利用して少なくとも一つの成分CTイメージを抽出するように事前に訓練対象ディープラーニングモデルを生成して訓練させる段階とをさらに含み、前記既訓練されたディープラーニングモデルは、前記訓練させる段階により訓練されたディープラーニングモデルであることができる。
また、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、前記検査情報を抽出する段階以前に、訓練用第1のCTデータセットのイメージ対に基づいて少なくとも一つの成分CTイメージを合成する段階と、前記合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成する段階と、前記訓練用第2のCTデータセットから検査情報を抽出し、予め設定された規則に従って前記訓練用第2のCTデータセットを複数のグループにグループ化する段階と、グループ化されたグループ別の訓練用第2のCTデータセットのそれぞれに対応するように複数の訓練対象ディープラーニングモデルを生成して訓練させる段階とをさらに含み、前記選択する段階において前記既訓練された複数のディープラーニングモデルは、前記訓練させる段階により訓練された前記複数の訓練対象ディープラーニングモデルであることができる。
一方、本願の一実施例によると、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置は、入力造影増強CTイメージを既訓練されたディープラーニングモデルに入力として前記入力造影増強CTイメージに対する少なくとも一つの成分CTイメージを抽出するイメージ抽出部と、前記抽出された少なくとも一つの成分CTイメージと前記入力造影増強CTイメージに基づいて対照度増幅CTイメージを出力する増幅イメージ出力部とを含むことができる。
また、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置は、入力造影増強CTイメージから検査情報を抽出する検査情報抽出部と、既訓練された複数のディープラーニングモデルのうち前記検査情報に対応する少なくとも一つのディープラーニングモデルを選択するディープラーニングモデル選択部とをさらに含み、前記イメージ抽出部は、前記検査情報抽出部及び前記ディープラーニングモデル選択部により選択された少なくとも一つのディープラーニングモデルに前記入力造影増強CTイメージを入力させて前記入力造影増強CTイメージに対する少なくとも一つの成分CTイメージを抽出するものであることができる。
本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置において、前記増幅イメージ出力部は、前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算して出力するものであることができる。
本願の他の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置において、前記増幅イメージ出力部は、前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算することで、第1のCTイメージと第2のCTイメージをそれぞれ生成し、前記第1のCTイメージと第2のCTイメージにそれぞれ事前に定めた色調テーブルを適用して合成されたカラーイメージに出力するものであることができる。
また、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置は、訓練対象ディープラーニングモデルを生成して訓練させるディープラーニング訓練部をさらに含み、前記ディープラーニング訓練部は、訓練用第1のCTデータセットのイメージ対から少なくとも一つの成分CTイメージを合成し、前記合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成し、前記訓練用第2のCTデータセットを利用して少なくとも一つの成分CTイメージを抽出するように事前に訓練対象ディープラーニングモデルを生成して訓練させ、前記既訓練されたディープラーニングモデルは、前記訓練させる段階により訓練されたディープラーニングモデルであることができる。
また、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置は、複数の訓練対象ディープラーニングモデルを生成して訓練させるディープラーニンググループ訓練部をさらに含み、前記ディープラーニンググループ訓練部は、訓練用第1のCTデータセットのイメージ対に基づいて少なくとも一つの成分イメージを合成し、前記合成された少なくとも一つの成分CTイメージと前記訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成し、前記訓練用第2のCTデータセットから検査情報を抽出し、予め設定された規則に従って前記訓練用第2のCTデータセットを複数のグループにグループ化し、グループ化されたグループ別の訓練用第2のCTデータセットのそれぞれに対応するように複数の訓練対象ディープラーニングモデルを生成して訓練させ、前記既訓練された複数のディープラーニングモデルは、前記ディープラーニンググループ訓練部により訓練された前記複数の訓練対象ディープラーニングモデルであることができる。
上述した課題解決手段は、単に例示的なもので、本願を制限しようとする意図で解釈されてはならない。上述した例示的な実施例の他にも、図面及び発明の詳細な説明に追加的な実施例が存在し得る。
前述した本願の課題解決手段によると、ディープラーニングを基盤としてCTイメージの対照度増幅を行うことで、造影剤の注入を最小化しながらハイクオリティーの診断イメージ(CTイメージ)を獲得することができる。
前述した本願の課題解決手段によると、CTイメージの検査情報によって複数のディープラーニングモデル(複数の訓練対象ディープラーニングモデル)を訓練させることで、安全性が特に重視される医療映像にディープラーニングがより効果的に適用されるようにすることができる。
前述した本願の課題解決手段によると、ディープラーニングが持った長所を活用しながらも、ディープラーニングの性能保障と安全性確保を担保することができるディープラーニング基盤の造影増強CTイメージ対照度増幅装置及び方法、それを通じたディープラーニングモデルの訓練(学習)方法を提供することができる。
但し、本願で得られる効果は、上記のような効果に限定されず、また他の効果が存在し得る。
本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置の概略的な構成を示した図面である。 本願の他の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置の概略的な構成を示した図面である。 本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅方法に対する概略的な動作流れを示した図面である。 本願の他の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅方法に対する概略的な動作流れを示した図面である。 本願の第1実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法に対する概略的な動作流れの一例を示した図面である。 本願の第2実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法に対する概略的な動作流れの一例を示した図面である。
以下では、添付の図面を参照して本願が属する技術分野で通常の知識を有する者が容易に実施することができるように、本願の実施例を詳しく説明する。しかし、本願は、様々な異なる形態で具現されることができ、ここで説明する実施例に限定されない。そして、図面で本願を明確に説明するために、説明と関係ない部分は省略し、明細書全体を通じて類似した部分については類似した図面符号をつけた。
本願明細書全体において、ある部分が他の部分と「連結」されているとすると、これは「直接的に連結」されている場合だけでなく、その中間に他の素子を挟んで「電気的に連結」または「間接的に連結」されている場合も含む。
本願明細書全体において、ある部材が他の部材「上に」、「上部に」、「上端に」、「下に」、「下部に」、「下端に」位置しているとすると、これは、ある部材が他の部材に接している場合だけでなく、二つの部材間にまた他の部材が存在する場合も含む。
本願明細書全体において、ある部分がある構成要素を「含む」とすると、これは、特に反対の記載がない限り、他の構成要素を除外するのではなく、他の構成要素をさらに含むことができることを意味する。
本願において、造影増強CTイメージ(CTimage)は、CTデータ(CTdata)、医療映像(medical image)などと他に指称されることができる。
図1は、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置の概略的な構成を示した図面である。以下では、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置10を説明の便宜上、本装置10という。
図1を参照すると、本装置10は、イメージ抽出部11、増幅イメージ出力部12及びディープラーニング訓練部13を含むことができる。但し、本装置10の構成がこれに限定されるものではない。一例として、本装置10は、コンピュータ断層撮影機(Computed Tomography、CT)、磁気共鳴画像装置(Magnetic Resonance Imaging、MRI)、陽電子放出断層映像装置(Positron Emission Tomography、PET)などから獲得されたCTイメージが格納されたデータベース(図示せず)を含むことができる。
本願の一実施例によると、イメージ抽出部11は、入力された造影増強CTイメージを既訓練されたディープラーニングモデルに入力させてディープラーニングモデルの学習結果として造影増強成分と非造影増強成分のうち少なくとも一つの成分CTイメージを抽出することができる。
入力造影増強CTイメージは、コンピュータ断層撮影機(Computed Tomography、CT)、磁気共鳴映像装置(Magnetic Resonance Imaging、MRI)、陽電子放出断層映像装置(Positron Emission Tomography、PET)などにより獲得されたイメージであることができ、これのみに限定されるものではなく、多様な映像撮影装置を通じて獲得したイメージであることができる。
これによると、本装置10は、事前に訓練されたディープラーニングモデルを含むことができる。ここで、ディープラーニングモデルは、後述するディープラーニング訓練部13により既訓練されたディープラーニングモデルであり、特にディープラーニングモデルに入力される造影増強CTイメージに対して少なくとも一つの成分CTイメージを出力するように既訓練されたディープラーニングモデルを意味することができる。
本願において、ディープラーニングモデルを説明するにあたって、ディープラーニング訓練部13により訓練がなされる前のディープラーニングモデルは、訓練対象ディープラーニングモデルと指称されることができる。これによると、訓練対象ディープラーニングモデルに対して訓練が終わってからは、既訓練されたディープラーニングモデルを意味するようになる。換言すると、イメージ抽出部11で考慮される既訓練されたディープラーニングモデルは、ディープラーニング訓練部13により訓練された(訓練がなされた)訓練対象ディープラーニングモデルを意味することができる。訓練対象ディープラーニングモデルの訓練に対する説明は、後述してさらに詳しく説明する。
本願の一実施例によると、増幅イメージ出力部12は、抽出された少なくとも一つの成分CTイメージと入力造影増強CTイメージに基づいて対照度増幅CTイメージを出力することができる。換言すると、増幅イメージ出力部12は、イメージ抽出部11で入力造影増強CTイメージを既訓練されたディープラーニングモデルの入力として抽出した少なくとも一つの成分CTイメージと入力造影増強CTイメージにそれぞれ事前に設定された割合(予め設定された割合)を掛けて合算することで、入力造影増強CTイメージに対する対照度増幅CTイメージを出力することができる。
本願のまた他の実施例によると、増幅イメージ出力部12は、入力造影増強CTイメージと少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算して第1のCTイメージと第2のCTイメージをそれぞれ生成し、第1のCTイメージと第2のCTイメージにそれぞれ事前に定めた色調テーブルを適用して合成されたカラーイメージに出力することができる。
本願の一実施例によると、ディープラーニング訓練部13は、訓練対象ディープラーニングモデルを生成して訓練させることができる。ディープラーニング訓練部13は、イメージ抽出部11で入力造影増強CTイメージから少なくとも一つの成分CTイメージを抽出する前に、訓練対象ディープラーニングモデルを生成して訓練させることができる。
以下では、ディープラーニング訓練部13についてさらに詳しく説明する。
本願の一実施例によると、ディープラーニング訓練部13は、イメージ抽出部11が入力造影増強CTイメージから少なくとも一つの成分CTイメージを抽出する前に、訓練用CTデータセット(換言すると、ディープラーニング訓練用CTデータセット)を利用して訓練対象ディープラーニングモデルを訓練させることができる。
また、ディープラーニング訓練部13は、訓練対象ディープラーニングモデルを訓練させる前に、訓練用第1のCTデータセットのCTイメージ対から少なくとも一つの成分CTイメージを合成することができる。また、ディープラーニング訓練部13は、合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットの原本イメージに基づいて訓練用第2のCTデータセットを生成することができる。以後、ディープラーニング訓練部13は、生成された訓練用第2のCTデータセットを利用して訓練対象ディープラーニングモデルを訓練させることができる。
本願の一実施例によると、訓練用第1のCTデータセットの原本イメージは、造影剤の注入前にスキャンしたCTイメージと造影剤の注入後にスキャンしたCTイメージの対で構成されることができ、この時、ディープラーニング訓練部13は、造影剤の注入前及び注入後に得たCTイメージ対に基づいて造影増強成分CTイメージを合成することができる。
一実施例において、ディープラーニング訓練部13は、造影剤の注入後のCTイメージから造影剤の注入前のCTイメージを減算することで、造影増強成分CTイメージを合成することができる。
この時、ディープラーニング訓練部13は、造影剤の注入前のCTイメージを非造影増強成分CTイメージとして利用することができる。
さらに、ディープラーニング訓練部13は、予め設定された基準(事前に定義した方式)に従って、造影剤の注入前のCTイメージと造影剤の注入後のCTイメージの間に動き補償演算を適用することができる。
本願のまた他の実施例によると、訓練用第1のCTデータセットの原本イメージは、二重エネルギー撮影機能のあるCT装置を利用して造影剤を注入した後、スキャンしたCTから得た低エネルギーCTイメージと高エネルギーCTイメージの対で構成されることができる。この時、ディープラーニング訓練部13は、低エネルギーCT及び高エネルギーCTイメージ対に基づいて造影増強成分CTイメージを合成することができる。
また、ディープラーニング訓練部13は、低エネルギーCTイメージと高エネルギーCTイメージのそれぞれに予め定めた割合を掛けて合算することで、造影増強成分CTイメージを合成することができる。
また、ディープラーニング訓練部13は、低エネルギーCTイメージと高エネルギーCTイメージのそれぞれに予め定めた他の割合を掛けて合算することで、非造影増強成分CTイメージを合成することができる。
また、ディープラーニング訓練部13は、訓練用第1のCTデータセットのCTイメージ対から造影増強成分CTイメージと非造影増強成分CTイメージを合成し、合成された造影増強成分CTイメージに予め設定された少なくとも一つの割合だけ掛けて、これを合成された非造影増強成分CTイメージに加算して、少なくとも一つの合成低対照度CTイメージを生成することができる。
このように、ディープラーニング訓練部13は、訓練用第1のCTデータセットのCTイメージ対に基づいて、少なくとも一つの合成低対照度CTイメージ、合成造影増強成分と合成非造影増強成分のうち少なくとも一つの成分CTイメージで構成された訓練用第2のCTデータセットを生成することができる。
また、ディープラーニング訓練部13は、イメージ抽出部11が入力造影増強CTイメージから少なくとも一つの成分CTイメージを抽出する前に、訓練対象ディープラーニングモデルを生成することができる。また、ディープラーニング訓練部13は、訓練対象ディープラーニングモデルが自分に入力された入力造影増強CTイメージで少なくとも一つの成分CTイメージを抽出する機能を有するように、訓練用第1のCTデータセットのCTイメージ対に基づいて合成された少なくとも一つの成分CTイメージ及び少なくとも一つの合成低対照度CTイメージが付加された訓練用第2のCTデータセットを生成することができる。また、ディープラーニング訓練部13は、訓練用第2のCTデータセットにおいて、CTイメージ毎に合成低対照度CTイメージを訓練対象ディープラーニングモデルの入力として伝達し、合成された少なくとも一つの成分CTイメージと訓練対象ディープラーニングモデルの出力間の差異が最小化されるように、訓練対象ディープラーニングモデルを繰り返し訓練させることができる。
図2は、本願の他の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置の概略的な構成を示した図面である。
以下では、図2を通じて説明される本装置20のイメージ抽出部23及び増幅イメージ出力部24は、上述した図1を基盤として本装置10のイメージ抽出部11及び増幅イメージ出力部12と同一であるか対応することができる。よって、以下で省略された内容であるとしても、イメージ抽出部11及び増幅イメージ出力部12について説明された内容は、イメージ抽出部23及び増幅イメージ出力部24に対する説明にも同一に適用されることができる。
図2を参照すると、本装置20は、検査情報抽出部21、ディープラーニングモデル選択部22、イメージ抽出部23、増幅イメージ出力部24、及びディープラーニンググループ訓練部25を含むことができる。
検査情報抽出部21は、入力されたCTイメージ(入力CTイメージ)から検査情報を抽出することができる。検査情報には、CTイメージの検査部位情報及びスキャン属性情報が含まれることができる。
ここで、検査部位情報は、一例として臓器部位に関する情報を意味することができる。即ち、検査部位情報は、主要関心の人体臓器部位に関する情報を意味するもので、例えば頭部、胸部、腹部などの臓器部位の情報を意味することができる。また、スキャン属性情報は、CTイメージの金属虚像特性に影響を及ぼすCT撮影変数に関する情報を意味するもので、例えば、再構成カーネル、管電圧、管電類、切片の厚さなどの情報を意味することができる。
本願の一実施例によると、検査情報抽出部21は、入力CTイメージに含まれたヘッダ情報から検査情報を抽出することができる。
また他の一例によると、検査情報抽出部21は、入力CTイメージを事前に定義された分類器に入力することで検査情報を抽出することができる。この時、事前に定義された分類器は、入力CTイメージから事前に定義された一つ以上のイメージ特徴を抽出し、これを事前に定義された個数の範疇の一つとして割り当てることができる。
ディープラーニングモデル選択部22は、既訓練された複数のディープラーニングモデルのうち検査情報抽出部21で抽出された検査情報に対応する少なくとも一つのディープラーニングモデルを選択することができる。
また、ディープラーニングモデル選択部22は、検査情報抽出部21で抽出された検査情報に予め設定された規則(事前に定めた規則)を適用することで、既訓練された複数のディープラーニングモデルのうち検査情報抽出部21で抽出された検査情報に対応する少なくとも一つの(一つまたはそれ以上の)ディープラーニングモデルを選択することができる。
本願の一実施例によると、イメージ抽出部23は、入力造影増強CTイメージをディープラーニングモデル選択部22で選択された少なくとも一つのディープラーニングモデルの入力として入力造影増強CTイメージに対する少なくとも一つの成分CTイメージを抽出することができる。
本願の一実施例によると、増幅イメージ出力部24は、抽出された少なくとも一つの成分CTイメージと入力造影増強CTイメージに基づいて対照度増幅CTイメージを出力することができる。
これによると、本装置20は、複数のディープラーニングモデルを含むことができる。ここで、複数のディープラーニングモデルのそれぞれは、後述するディープラーニンググループ訓練部25により既訓練されたディープラーニングモデルであり、特にそれぞれのディープラーニングモデルに入力される造影増強CTイメージに対して少なくとも一つの成分CTイメージを出力するように既訓練されたディープラーニングモデルを意味することができる。
本装置20で考慮される複数のディープラーニングモデルは、ディープラーニンググループ訓練部25により生成されることができる。ディープラーニンググループ訓練部25は、検査情報によって複数のディープラーニングモデルを生成することができる。換言すると、ディープラーニンググループ訓練部25は、複数の訓練対象ディープラーニングモデルを生成して訓練させることができる。特にディープラーニンググループ訓練部25は、検査情報に含まれたCTイメージの検査部位情報及びスキャン属性情報の組み合わせにより複数のディープラーニングモデルを生成することができる。
換言すると、本装置20は、検査情報により(検査部位情報及びスキャン属性情報の組み合わせにより)生成された複数のディープラーニングモデルを含むことができる。検査部位情報及びスキャン属性情報の組み合わせにより生成された複数のディープラーニングモデルのそれぞれは、ディープラーニンググループ訓練部25により検査部位情報及びスキャン属性情報の組み合わせによりグループ化されたそれぞれの訓練用CTデータセット(即ち、ディープラーニング訓練用CTデータセット)を利用して訓練されることができる。
本願においてディープラーニングモデルを説明するにあたって、ディープラーニンググループ訓練部25により訓練がなされる前のディープラーニングモデルは、訓練対象ディープラーニングモデルと指称されることができる。これによると、訓練対象ディープラーニングモデルに対して訓練が終わってからは既訓練されたディープラーニングモデルを意味するようになる。換言すると、ディープラーニングモデル選択部22で考慮される既訓練された複数のディープラーニングモデルは、ディープラーニンググループ訓練部25により訓練された(訓練がなされた)複数の訓練対象ディープラーニングモデルを意味することができる。訓練対象ディープラーニングモデルの訓練に対する説明は、後述してさらに詳しく説明する。
本願の他の一実施例によると、ディープラーニングモデル選択部22は、検査情報により(検査部位情報及びスキャン属性情報の組み合わせにより)生成されて既訓練された複数のディープラーニングモデルのうち検査情報抽出部21で抽出された検査情報に対応する(検査情報抽出部21で抽出された検査部位情報及びスキャン属性情報の組み合わせに対応する)少なくとも一つのディープラーニングモデルを選択することができる。
ディープラーニングモデル選択部22は、検査情報抽出部21で抽出された検査情報を基づいて、既訓練された複数のディープラーニングモデルのうち入力造影増強CTイメージの適用に適合した少なくとも一つのディープラーニングモデルを選択することができる。
一例として、入力造影増強CTイメージが第1のスキャン属性(例えば、低線量及び厚い切片のスキャン属性)で再構成された第1の検査部位(例えば、腹部)のCTイメージである腹部検査CTイメージであると仮定する。このような場合、ディープラーニングモデル選択部22は、既訓練された複数のディープラーニングモデルのうち第1のスキャン属性と第1の検査部位に対応するディープラーニングモデルとして、検査部位が腹部で低線量及び厚い切片のスキャン属性を有する訓練データ(訓練用CTデータセット)で訓練された単一のディープラーニングモデル(一例として、第1のディープラーニングモデル)を選択することができる。
他の一例として、入力造影増強CTイメージが第2のスキャン属性(例えば、超低線量及び薄い切片のスキャン属性)で再構成された第1の検査部位(例えば、腹部)のCTイメージである腹部検査CTイメージであると仮定する。このような場合、ディープラーニングモデル選択部22は、既訓練された複数のディープラーニングモデルのうち第2のスキャン属性と第1の検査部位に対応するディープラーニングモデルとして、検査部位が腹部で超低線量及び薄い切片のスキャン属性を有する訓練データ(訓練用CTデータセット)で訓練された単一のディープラーニングモデル(一例として、第2のディープラーニングモデル)を選択することができる。
また他の一例として、入力造影増強CTイメージが第1の領域には第3のスキャン属性を適用(例えば、閉領域には第1の鮮鋭度として高鮮鋭度の再構成カーネルを適用)し、第2の領域には第4のスキャン属性を適用(例えば、軟部組織領域には第2の鮮鋭度として低い鮮鋭度の再構成カーネルを適用)して再構成された第2の検査部位(例えば、胸部)のCTイメージである胸部検査CTイメージであると仮定する。このような場合、ディープラーニングモデル選択部22は、既訓練された複数のディープラーニングモデルのうち第3のスキャン属性と第2の検査部位に対応する第3のディープラーニングモデル、及び第4のスキャン属性と第2の検査部位に対応する第4のディープラーニングモデルを含む2個のディープラーニングモデルを選択することができる。具体的に、ディープラーニングモデル選択部22は、既訓練された複数のディープラーニングモデルのうち検査部位が胸部で高鮮鋭度の再構成カーネルを有する訓練データ(訓練用CTデータセット)で訓練された第3のディープラーニングモデル及び検査部位が胸部で低い鮮鋭度の再構成カーネルを有する訓練データ(訓練用CTデータセット)で訓練された第4のディープラーニングモデルを含む2個のディープラーニングモデルを選択することができる。
このように、ディープラーニングモデル選択部22は、検査情報抽出部21で抽出された検査情報を基盤として、抽出された検査情報に含まれた検査部位情報及びスキャン属性情報の組み合わせを考慮して、既訓練された複数のディープラーニングモデルのうち一つまたはそれ以上のディープラーニングモデル(即ち、少なくとも一つのディープラーニングモデル)を選択することができる。
増幅イメージ出力部24は、入力造影増強CTイメージをディープラーニングモデル選択部22で選択された少なくとも一つのディープラーニングモデルの入力として、選択された少なくとも一つのディープラーニングモデルが入力造影増強CTイメージで少なくとも一つの成分CTイメージを抽出するようにし、抽出された少なくとも一つの成分CTイメージと入力造影増強CTイメージにそれぞれ事前に定めた割合を掛けて合算したイメージを生成することで、対照度増幅CTイメージを出力することができる。
一実施例として、ディープラーニングモデル選択部22で選択されたディープラーニングモデルが単一の(一つの)ディープラーニングモデルであると仮定する。このような場合、増幅イメージ出力部24は、入力造影増強CTイメージをディープラーニングモデル選択部22で選択された単一のディープラーニングモデルに入力させて単一のディープラーニングモデルが入力造影増強CTイメージの少なくとも一つの成分CTイメージを抽出するようにし、抽出された少なくとも一つの成分CTイメージと入力造影増強CTイメージにそれぞれ事前に定めた割合を掛けて合算したイメージを生成することで、対照度増幅CTイメージを出力することができる。
また他の実施例として、ディープラーニングモデル選択部22で選択されたディープラーニングモデルが複数のディープラーニングモデルであると仮定する。このような場合、増幅イメージ出力部24は、入力造影増強CTイメージをディープラーニングモデル選択部22で選択された複数のディープラーニングモデルのそれぞれに入力させて、複数のディープラーニングモデルがそれぞれ自分に入力された入力造影増強CTイメージで造影増強成分CTイメージを抽出するようにし、複数のディープラーニングモデルのそれぞれにより抽出された複数の少なくとも一つの成分CTイメージと入力造影増強CTイメージにそれぞれ事前に定めた割合を掛けて合算したイメージを生成することで、入力造影増強CTイメージに対する対照度増幅CTイメージを出力することができる。
この時、増幅イメージ出力部24は、前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算することで、第1のCTイメージと第2のCTイメージをそれぞれ生成し、前記第1のCTイメージと第2のCTイメージにそれぞれ事前に定めた色調テーブルを適用して合成されたカラーイメージとして出力することができる。
ディープラーニンググループ訓練部25は、検査情報抽出部21で入力造影増強CTイメージから検査情報を抽出する前に、複数の訓練対象ディープラーニングモデルを生成して訓練させることができる。
この時、ディープラーニンググループ訓練部25は、訓練用第1のCTデータセットのCTイメージ対に基づいて少なくとも一つの低対照度CTイメージと少なくとも一つの成分CTイメージをそれぞれ合成し、これを利用して訓練用第2のCTデータセットを生成することができる。また、ディープラーニンググループ訓練部25は、訓練用第2のCTデータセットから検査情報を抽出し、予め設定された規則に従って訓練用第2のCTデータセットを複数のグループにグループ化することができる。また、ディープラーニンググループ訓練部25は、グループ化されたグループ別の訓練用第2のCTデータセットのそれぞれに対応するように複数の訓練対象ディープラーニングモデルを生成して訓練させることができる。ディープラーニンググループ訓練部25は、生成された複数の訓練対象ディープラーニングモデルのそれぞれを訓練させることができる。
この時、ディープラーニンググループ訓練部25により訓練された複数の訓練対象ディープラーニングモデルは、ディープラーニングモデル選択部22で考慮される既訓練された複数のディープラーニングモデルを意味することができる。
このように、ディープラーニンググループ訓練部25は、入力造影増強CTイメージが入力として与えられた時、入力造影増強CTイメージのスキャン属性に該当するディープラーニングモデル(訓練対象ディープラーニングモデル)が入力造影増強CTイメージを入力として少なくとも一つの成分CTイメージを出力するように、スキャン属性別に生成された複数の訓練対象ディープラーニングモデルのそれぞれを訓練(学習)させることができる。
これによると、本装置20では、入力造影増強CTイメージが与えられた時、既訓練された複数のディープラーニングモデルのうち入力造影増強CTイメージのスキャン属性によってそれに対応するディープラーニングモデルが動作するようにディープラーニングモデル選択部22が入力造影増強CTイメージのスキャン属性に対応するディープラーニングモデルを選択することができ、以後、増幅イメージ出力部24は、選択されたディープラーニングモデルを利用して対照度が増幅された入力造影増強CTイメージを出力することができる。
このように、本装置20は、本装置20に含まれた複数のディープラーニングモデルのそれぞれが各ディープラーニングモデルに入力される造影増強CTイメージに対して対照度が増幅された高対照度CTイメージを出力するように、ディープラーニンググループ訓練部25を通じて複数のディープラーニングモデル(即ち、複数の訓練対象ディープラーニングモデル)のそれぞれを訓練させることができる。このように既訓練された複数のディープラーニングモデル(訓練部により訓練された複数の訓練対象ディープラーニングモデル)に基づいて、本装置20は、入力造影増強CTイメージから抽出された検査情報を考慮してそれに対応するディープラーニングモデルを既訓練された複数のディープラーニングモデルの中から選択することができる。以後、本装置20は、選択されたディープラーニングモデルに入力造影増強CTイメージを入力として提供することで、選択されたディープラーニングモデルから入力造影増強CTイメージに対する対照度増幅(対照度が増幅された)入力造影増強CTイメージを出力することができる。
本願は、既訓練された複数のディープラーニングモデルを基盤として、低い対照度の入力造影増強CTイメージ(例えば、低濃度造影剤注入CTイメージ)の入力から高い対照度のCTイメージ(対照度増幅CTイメージ)を出力するディープラーニング基盤のCTイメージ対照度増幅装置(装置10及び装置20)を提供することができる。このような本装置10及び20を通じて出力される対照度が増幅された入力造影増強CTイメージは、一般濃度の造影剤注入CTイメージの品質と対比してそれと類似するかそれより高い品質を有することができる。
また、本装置10及び20は、低い対照度の入力造影増強CTイメージの入力から高い対照度のCTイメージが出力できるようにするディープラーニングモデル(訓練対象ディープラーニングモデル)の訓練(学習)方法を提供し、このように訓練されたディープラーニングモデル(即ち、既訓練されたディープラーニングモデル)を通じて出力される対照度増幅された入力造影増強CTイメージは、一般濃度の造影剤注入CTイメージの品質と対比してそれと類似するか、それより高い品質を有することができる。
また、本装置10及び20は、訓練用CTデータセットで訓練対象ディープラーニングモデルを訓練させることで、実際、低濃度造影剤の注入後に撮影時に獲得される低対照度CTイメージ(入力造影増強CTイメージ)を本装置10及び20の入力とする場合(即ち、本装置に含まれた既訓練された複数のディープラーニングモデルのうち少なくとも一つのディープラーニングモデルの入力とする場合)、低対照度CTイメージに対してより効果的に対照度が増幅されたCTイメージを出力することができる。
このような本装置10及び20は、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置だけでなく、ディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル(訓練対象ディープラーニングモデルの)訓練装置であると異なって表現されることができる。本願は、このような本装置10及び20を通じてディープラーニング基盤の造影増強CTイメージ対照度増幅方法だけでなく、ディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法を提供することができる。
以下では、上記で詳しく説明された内容を基盤として、本願の動作流れを簡単に検討する。
図3は、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅方法に対する概略的な動作流れを示した図面である。
図3に示したディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、上述したディープラーニング基盤の造影増強CTイメージ対照度増幅装置(本装置)10により行われることができる。よって、以下で省略された内容であるとしても、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置(装置)10について説明された内容は、ディープラーニング基盤の造影増強CTイメージ対照度増幅方法に対する説明にも同一に適用されることができる。
図3を参照すると、段階S11においてイメージ抽出部11は、入力造影増強CTイメージを既訓練されたディープラーニングモデルの入力として造影増強成分と非造影増強成分のうち少なくとも一つの成分CTイメージを抽出することができる。
次いで、段階S12において増幅イメージ出力部12は、少なくとも一つの成分CTイメージと入力造影増強CTイメージに基づいて入力造影増強CTイメージに対する対照度増幅CTイメージを出力することができる。
この時、段階S12において増幅イメージ出力部12は、段階S11で抽出された少なくとも一つの成分CTイメージと入力造影増強CTイメージにそれぞれ事前に定めた割合を掛けて合算することで、入力造影増強CTイメージに対する対照度増幅CTイメージを出力することができる。
本願の他の実施例において、段階S12において増幅イメージ出力部12は、段階S11で抽出された少なくとも一つの成分CTイメージと入力造影増強CTイメージにそれぞれ事前に定めた割合を掛けて合算することで、第1のCTイメージと第2のCTイメージをそれぞれ生成し、前記第1のCTイメージと第2のCTイメージにそれぞれ事前に定めた色調テーブルを適用して合成されたカラーイメージとして出力することができる。
一方、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、段階S11前に、訓練対象ディープラーニングモデルを生成して訓練させる段階を含むことができる。
この時、訓練対象ディープラーニングモデルを訓練させる方法、即ち、ディープラーニングモデルの訓練方法に対する説明は、後述する図5を参照してより容易に理解されることができる。
上述した説明において、段階S11~S12は、本願の具現例により、追加的な段階にさらに分割されるか、さらに少ない段階で組み合わせられることができる。また、一部段階は必要に応じて省略されてもよく、段階間の手順が変更されてもよい。
図5は、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法に対する概略的な動作流れの一例を示した図面である。即ち、図5は、本願で考慮される訓練対象ディープラーニングモデルを訓練させる方法に対する概略的な動作流れの一例を示した図面である。
図5に示したディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法は、上述したディープラーニング基盤の造影増強CTイメージ対照度増幅装置(本装置)10により行われることができる。よって、以下で省略された内容であるとしても、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置(本装置)10について説明された内容は、ディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法に対する説明にも同一に適用されることができる。
図5を参照すると、ディープラーニング訓練部13は、上述した図3の段階S11において、イメージ抽出部11が入力造影増強CTイメージから少なくとも一つの成分CTイメージを抽出する前に、本装置10に含まれたディープラーニングモデルを訓練させるために、訓練用第1のCTデータセットのCTイメージ対に基づいて少なくとも一つの合成低対照度CTイメージ、合成造影増強成分と合成非造影増強成分のうち少なくとも一つの成分CTイメージで構成された訓練用第2のCTデータセットを生成することができる。
この時、ディープラーニング訓練部13は、訓練用第1のCTデータセットの原本CTイメージ対に基づいて造影増強成分CTイメージと非造影増強成分CTイメージをそれぞれ合成し、これに基づいて少なくとも一つの低対照度CTイメージを合成することができる。
この時、ディープラーニング訓練部13は、合成された造影増強成分CTイメージに事前に定めた少なくとも一つの割合を掛け、これを合成された非造影増強成分CTイメージに合算して少なくとも一つの低対照度CTイメージを合成することができる。
ここで、訓練用第2のCTデータセットは、訓練用第1のCTデータセットの原本イメージに基づいて生成された、少なくとも一つの合成低対照度CTイメージ及び合成された少なくとも一つの成分CTイメージの対からなることができる。
このようなディープラーニング訓練部13は、訓練用第1のCTデータセットの原本イメージをイメージ抽出部11に適用して得た少なくとも一つの合成低対照度CTイメージ及び合成された少なくとも一つの成分CTイメージの対を利用して訓練対象ディープラーニングを訓練させることができる。
また、ディープラーニング訓練部13は、段階S11において、訓練対象ディープラーニングモデルが自分に入力された入力造影増強CTイメージから少なくとも一つの成分CTイメージを抽出する機能を有することができるように、訓練用第2のCTデータセットを利用して、CTイメージ毎に合成低対照度CTイメージを訓練対象ディープラーニングモデルの入力で伝達し、合成された少なくとも一つの成分CTイメージと訓練対象ディープラーニングモデルの出力間の差異が最小化されるように訓練対象ディープラーニングモデルを繰り返し訓練させることができる。
図4は、本願の他の実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅方法に対する概略的な動作流れを示した図面である。
図4に示したディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、上述したディープラーニング基盤の造影増強CTイメージ対照度増幅装置(本装置)20により行われることができる。よって、以下で省略された内容であるとしても、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置(本装置)20について説明された内容は、ディープラーニング基盤の造影増強CTイメージ対照度増幅方法に対する説明にも同一に適用されることができる。
図4を参照すると、段階S21において検査情報抽出部21は、入力造影増強CTイメージから検査情報を抽出することができる。
次いで、段階S22においてディープラーニングモデル選択部22は、既訓練された複数のディープラーニングモデルのうち段階S21で抽出された検査情報に対応する少なくとも一つのディープラーニングモデルを選択することができる。
次に、段階S23においてイメージ抽出部23は、入力造影増強CTイメージを段階S22で選択された少なくとも一つのディープラーニングモデルの入力として入力造影増強CTイメージに対する少なくとも一つの成分CTイメージを抽出することができる。
次に、段階S24において増幅イメージ出力部24は、入力造影増強CTイメージに対する対照度増幅CTイメージを出力することができる。
一方、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法は、段階S21前に、複数の訓練対象ディープラーニングモデルを生成して訓練させる段階を含むことができる。この時、訓練させる段階により訓練された複数の訓練対象ディープラーニングモデルは、段階S22で考慮される既訓練された複数のディープラーニングモデルを意味することができる。
この時、複数の訓練対象ディープラーニングモデルを訓練させる方法、即ち、ディープラーニングモデルの訓練方法に対する説明は、後述する図6を参照してより容易に理解されることができる。
上述した説明において、段階S21~S24は、本願の具現例により、追加的な段階にさらに分割されるか、さらに少ない段階で組み合わせられることができる。また、一部段階は必要に応じて省略されてもよく、段階間の手順が変更されてもよい。
図6は、本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅装置を通じたディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法に対する概略的な動作流れの一例を示した図面である。即ち、図6は、本願で考慮される訓練対象ディープラーニングモデルを訓練させる方法に対する概略的な動作流れの一例を示した図面である。
図6に示したディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法は、上述したディープラーニング基盤の造影増強CTイメージ対照度増幅装置(本装置)20により行われることができる。よって、以下で省略された内容であるとしても、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置(本装置)20について説明された内容は、ディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法に対する説明にも同一に適用されることができる。
図6を参照すると、段階S41においてディープラーニンググループ訓練部25は、上述した図4の段階S21で検査情報抽出部21が入力造影増強CTイメージから検査情報を抽出する前に、本装置20に含まれたディープラーニングモデルを訓練させるために、訓練用第1のCTデータセットに基づいて少なくとも一つの成分CTイメージと少なくとも一つの低対照度CTイメージをそれぞれ合成し、これを利用して訓練用第2のCTデータセットを生成することができる。
このようなディープラーニンググループ訓練部25は、少なくとも一つの合成低対照度CTイメージ及び合成された少なくとも一つの成分CTイメージの対を利用して訓練対象ディープラーニングを訓練させることができる。
次に、段階S42において、ディープラーニンググループ訓練部25は、訓練用第2のCTデータセットから検査情報を抽出し、予め設定された規則に従って訓練用第2のCTデータセットを複数のグループにグループ化することができる。
この時、段階S42においてディープラーニンググループ訓練部25は、訓練用第2のCTデータセットを複数のグループにグループ化することで、検査部位別及び/またはスキャン属性別に訓練用CTデータセットを生成することができる。
次に、段階S43においてディープラーニンググループ訓練部25は、段階S42で生成された複数グループの訓練用第2のCTデータセットのそれぞれに対応するように複数の訓練対象ディープラーニングモデルを生成し、これを訓練させることができる。即ち、段階S43においてディープラーニンググループ訓練部25は、段階S42によってグループ化されたグループ別の訓練用第2のCTデータセットのそれぞれに対応するように複数の訓練対象ディープラーニングモデルを生成して訓練させることができる。
具体的に、段階S43においてディープラーニンググループ訓練部25は、検査部位別に生成された訓練用CTデータセットのそれぞれに対応して検査部位別に訓練対象ディープラーニングモデルを生成し、これを訓練させることができる。また、ディープラーニンググループ訓練部25は、スキャン属性別に生成された訓練用CTデータセットのそれぞれに対応してスキャン属性別の訓練対象ディープラーニングモデルを生成してこれを訓練させることができる。
段階S43においてディープラーニンググループ訓練部25は、段階S42で生成された複数の訓練用CTデータセット(即ち、複数グループの訓練用CTデータセット)を利用して、段階S42で生成された複数の訓練対象ディープラーニングモデルのそれぞれを訓練させることができる。
具体的な例として、段階S43においてディープラーニンググループ訓練部25は、段階S42で検査部位別及び/またはスキャン属性別に生成された訓練用CTデータセットを利用して、それに対応するように段階S43で生成された検査部位別及び/またはスキャン属性別に訓練されたディープラーニングモデルのそれぞれを訓練させることができる。
また、段階S43においてディープラーニンググループ訓練部25は、複数の訓練対象ディープラーニングモデルのそれぞれが自分に入力された入力造影増強CTイメージから少なくとも一つの成分CTイメージを抽出する機能を有するように、段階S42でグループ化されたグループ別の訓練用第2のCTデータセットにおいて、CTイメージ毎に合成低対照度CTイメージを訓練対象ディープラーニングモデルの入力として伝達し、合成された少なくとも一つの成分CTイメージと訓練対象ディープラーニングモデルの出力間の差異が最小化されるように訓練対象ディープラーニングモデルを繰り返し訓練させることができる。
本願の一実施例において、ディープラーニンググループ訓練部25は、段階S43において検査部位別に生成された訓練用CTデータセットを利用して検査部位別に生成された訓練対象ディープラーニングモデルのそれぞれを繰り返し訓練させることができる。
また他の実施例において、ディープラーニンググループ訓練部25は、段階S43においてスキャン属性別に生成された訓練用CTデータセットを利用してスキャン属性別に生成された訓練対象ディープラーニングモデルのそれぞれを繰り返し訓練させることができる。
これによると、本装置20で考慮される複数の訓練対象ディープラーニングモデルには、検査部位別に生成された訓練対象ディープラーニングモデル及びスキャン属性別に生成された訓練対象ディープラーニングモデルが含まれることができる。
上述した説明において、段階S41~S43は、本願の具現例により、追加的な段階にさらに分割されるか、さらに少ない段階で組み合わせられることができる。また、一部段階は必要に応じて省略されてもよく、段階間の手順が変更されてもよい。
本願の一実施例によるディープラーニング基盤の造影増強CTイメージ対照度増幅方法及びディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法は、多様なコンピュータ手段を通じて行われることができるプログラム命令形態で具現されてコンピュータ読取可能媒体に記録されることができる。上記コンピュータ読取可能媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。上記媒体に記録されるプログラム命令は、本発明のために特に設計されて構成されたものであるか、コンピュータソフトウェア当業者に公知されて使用可能なものであってもよい。コンピュータ読取可能記録媒体の例としては、ハードディスク、プロッピィーディスク及び磁気テープのような磁気媒体(magnetic media)、CD-ROM、DVDのような光記録媒体(optical media)、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、及びロム(ROM)、ラム(RAM)、フラッシュメモリー(登録商標)などのようなプログラム命令を格納し行うように特に構成されたハードウェア装置が含まれる。プログラム命令の例としては、コンパイラーにより作られるもののような機械語コードだけでなく、インタプリターなどを使用してコンピュータによって実行されることができる高級言語コードを含む。上記のハードウェア装置は、本発明の動作を行うために一つ以上のソフトウェアモジュールとして作動するように構成されることができ、その反対も同一である。
また、前述したディープラーニング基盤の造影増強CTイメージ対照度増幅方法及びディープラーニング基盤の造影増強CTイメージ対照度増幅のためのディープラーニングモデル訓練方法は、記録媒体に格納されるコンピュータにより実行されるコンピュータプログラムまたはアプリケーションの形態でも具現されることができる。
前述した本願の説明は例示のためのものであり、本願が属する技術分野の通常の知識を有する者は、本願の技術的思想や必須的な特徴を変更せずに他の具体的な形態に容易に変形可能なことが理解できるであろう。従って、以上で記述した実施例は、全ての面で例示的なものであり、限定的ではないと理解すべきである。例えば、単一型で説明されている各構成要素は分散して実施されてもよく、同様に分散したもので説明されている構成要素も結合された形態で実施されてもよい。
本願の範囲は、上記詳細な説明よりは後述する特許請求の範囲によって表され、特許請求の範囲の意味及び範囲、そしてその均等概念から導出される全ての変更または変形された形態が本願の範囲に含まれると解釈されるべきである。
10:ディープラーニング基盤の造影増強CTイメージ対照度増幅装置
11:イメージ抽出部
12:増幅イメージ出力部
13:ディープラーニング訓練部
20:ディープラーニング基盤の造影増強CTイメージ対照度増幅装置
21:検査情報抽出部
22:ディープラーニングモデル選択部
23:イメージ抽出部
24:増幅イメージ出力部
25:ディープラーニンググループ訓練部

Claims (9)

  1. ディープラーニング基盤の造影増強CTイメージ対照度増幅方法であって、
    入力造影増強CTイメージから検査部位情報及びスキャン属性情報を含む検査情報を抽出する段階と、
    既訓練された複数のディープラーニングモデルのうち前記検査情報に対応する少なくとも一つのディープラーニングモデルを選択する段階と、
    前記入力造影増強CTイメージを既訓練された前記選択された少なくとも一つのディープラーニングモデルに入力として前記入力造影増強CTイメージに対する造影増強成分と非造影増強成分のうち少なくとも一つの成分CTイメージを抽出する段階と、
    前記入力造影増強CTイメージと抽出された少なくとも一つの前記成分CTイメージに基づいて入力造影増強CTイメージに対する対照度増幅CTイメージを出力する段階と、
    を含み、
    前記対照度増幅CTイメージを出力する段階は、
    前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算する段階を含み、
    前記ディープラーニングモデルを選択する段階は、
    前記検査部位情報と前記スキャン属性情報の組み合わせに応じてグループ化されたそれぞれの訓練用CTデータセットを用いてトレーニングされた前記複数のディープラーニングモデルの中から、前記抽出された検査情報に対応するディープラーニングモデルを選択する段階を含む、ディープラーニング基盤の造影増強CTイメージ対照度増幅方法。
  2. 前記対照度増幅CTイメージを出力する段階は、
    前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算することで、第1のCTイメージと第2のCTイメージをそれぞれ生成する段階と、
    前記第1のCTイメージと第2のCTイメージにそれぞれ事前に定めた色調テーブルを適用して合成されたカラーイメージに出力する段階と、
    を含む、請求項1に記載のディープラーニング基盤の造影増強CTイメージ対照度増幅方法。
  3. 前記少なくとも一つの成分CTイメージを抽出する段階以前に、
    訓練用第1のCTデータセットのイメージ対に基づいて少なくとも一つの成分CTイメージを合成する段階と、
    前記合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成する段階と、
    前記訓練用第2のCTデータセットを利用して少なくとも一つの成分CTイメージを抽出するように事前に訓練対象ディープラーニングモデルを生成して訓練させる段階と、
    をさらに含み、
    前記既訓練されたディープラーニングモデルは、前記訓練させる段階により訓練されたディープラーニングモデルであるものである、請求項1に記載のディープラーニング基盤の造影増強CTイメージ対照度増幅方法。
  4. 前記検査情報を抽出する段階以前に、
    訓練用第1のCTデータセットのイメージ対に基づいて少なくとも一つの成分CTイメージを合成する段階と、
    前記合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成する段階と、
    前記訓練用第2のCTデータセットから検査情報を抽出し、予め設定された規則に従って前記訓練用第2のCTデータセットを複数のグループにグループ化する段階と、
    グループ化されたグループ別の訓練用第2のCTデータセットのそれぞれに対応するように複数の訓練対象ディープラーニングモデルを生成して訓練させる段階と、
    をさらに含み、
    前記選択する段階において前記既訓練された複数のディープラーニングモデルは、前記訓練させる段階により訓練された前記複数の訓練対象ディープラーニングモデルであるものである、請求項に記載のディープラーニング基盤の造影増強CTイメージ対照度増幅方法。
  5. ディープラーニング基盤の造影増強CTイメージ対照度増幅装置であって、
    入力造影増強CTイメージから検査部位情報及びスキャン属性情報を含む検査情報を抽出する検査情報抽出部と、
    既訓練された複数のディープラーニングモデルのうち前記検査情報に対応する少なくとも一つのディープラーニングモデルを選択するディープラーニングモデル選択部と、
    前記入力造影増強CTイメージを前記選択された少なくとも一つの既訓練されたディープラーニングモデルに入力として前記入力造影増強CTイメージに対する造影増強成分と非造影増強成分のうち少なくとも一つの成分CTイメージを抽出するイメージ抽出部と、
    前記入力造影増強CTイメージと前記抽出された少なくとも一つの成分CTイメージに基づいて入力造影増強CTイメージに対する対照度増幅CTイメージを出力する増幅イメージ出力部と、
    を含み、
    前記増幅イメージ出力部は、
    前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算し、
    前記ディープラーニングモデル選択部は、
    前記検査部位情報と前記スキャン属性情報の組み合わせに応じてグループ化されたそれぞれの訓練用CTデータセットを用いてトレーニングされた前記複数のディープラーニングモデルの中から、前記抽出された検査情報に対応するディープラーニングモデルを選択する、ディープラーニング基盤の造影増強CTイメージ対照度増幅装置。
  6. 前記増幅イメージ出力部は、
    前記入力造影増強CTイメージと前記少なくとも一つの成分CTイメージにそれぞれ事前に定めた割合を掛けて合算することで、第1のCTイメージと第2のCTイメージをそれぞれ生成し、前記第1のCTイメージと第2のCTイメージにそれぞれ事前に定めた色調テーブルを適用して合成されたカラーイメージに出力するものである、請求項に記載のディープラーニング基盤の造影増強CTイメージ対照度増幅装置。
  7. 訓練対象ディープラーニングモデルを生成して訓練させるディープラーニング訓練部をさらに含み、
    前記ディープラーニング訓練部は、
    訓練用第1のCTデータセットのイメージ対に基づいて少なくとも一つの成分CTイメージを合成し、前記合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成し、
    前記訓練用第2のCTデータセットを利用して少なくとも一つの成分CTイメージを抽出するように事前に訓練対象ディープラーニングモデルを生成して訓練させ、
    前記既訓練されたディープラーニングモデルは、前記ディープラーニング訓練部により訓練されたディープラーニングモデルであるものである、請求項に記載のディープラーニング基盤の造影増強CTイメージ対照度増幅装置。
  8. 複数の訓練対象ディープラーニングモデルを生成して訓練させるディープラーニンググループ訓練部をさらに含み、
    前記ディープラーニンググループ訓練部は、
    訓練用第1のCTデータセットのイメージ対に基づいて少なくとも一つの成分CTイメージを合成し、前記合成された少なくとも一つの成分CTイメージと訓練用第1のCTデータセットに基づいて訓練用第2のCTデータセットを生成し、
    前記訓練用第2のCTデータセットから検査情報を抽出し、予め設定された規則に従って前記訓練用第2のCTデータセットを複数のグループにグループ化し、グループ化されたグループ別の訓練用第2のCTデータセットのそれぞれに対応するように複数の訓練対象ディープラーニングモデルを生成して訓練させ、
    前記既訓練された複数のディープラーニングモデルは、前記ディープラーニンググループ訓練部により訓練された前記複数の訓練対象ディープラーニングモデルであるものである、請求項に記載のディープラーニング基盤の造影増強CTイメージ対照度増幅装置。
  9. 請求項1からのいずれか一項の方法をコンピュータで実行するためのプログラム。
JP2022532713A 2021-02-01 2021-02-02 ディープラーニング基盤の造影増強ctイメージ対照度増幅装置及び方法 Active JP7376053B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2021-0014378 2021-02-01
KR1020210014378A KR102316312B1 (ko) 2021-02-01 2021-02-01 딥러닝 기반의 조영 증강 ct 이미지 대조도 증폭 장치 및 방법
PCT/KR2021/001363 WO2022163890A1 (ko) 2021-02-01 2021-02-02 딥러닝 기반의 조영 증강 ct 이미지 대조도 증폭 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2023514914A JP2023514914A (ja) 2023-04-12
JP7376053B2 true JP7376053B2 (ja) 2023-11-08

Family

ID=81456583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022532713A Active JP7376053B2 (ja) 2021-02-01 2021-02-02 ディープラーニング基盤の造影増強ctイメージ対照度増幅装置及び方法

Country Status (3)

Country Link
US (1) US11328394B1 (ja)
EP (1) EP4066741A4 (ja)
JP (1) JP7376053B2 (ja)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100034446A1 (en) 2008-08-06 2010-02-11 Siemens Corporate Research,Inc. System and Method for Coronary Digital Subtraction Angiography
US20100198054A1 (en) 2007-05-18 2010-08-05 Ewing James R Mri estimation of contrast agent concentration using a neural network approach
US20110064292A1 (en) 2009-09-17 2011-03-17 Siemens Corporation System and method for multi-image based virtual non-contrast image enhancement for dual source ct
JP2012245235A (ja) 2011-05-30 2012-12-13 Ge Medical Systems Global Technology Co Llc 画像生成装置およびx線ct装置並びにプログラム
US20140348428A1 (en) 2013-05-24 2014-11-27 Himax Media Solutions, Inc. Dynamic range-adjustment apparatuses and methods
JP2015100699A (ja) 2013-11-20 2015-06-04 株式会社東芝 医用画像処理装置および医用画像処理方法
JP2017502423A (ja) 2014-01-08 2017-01-19 富士通株式会社 画像コントラストの強調装置、電子機器及び方法
JP2018089301A (ja) 2016-12-07 2018-06-14 学校法人常翔学園 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム
JP2019005557A (ja) 2017-06-22 2019-01-17 キヤノンメディカルシステムズ株式会社 画像処理装置、磁気共鳴イメージング装置及び画像処理プログラム
US20190156524A1 (en) 2017-11-20 2019-05-23 ClariPI Inc. Apparatus and method for ct image denoising based on deep learning
WO2019149711A1 (en) 2018-01-31 2019-08-08 Koninklijke Philips N.V. Image quality improved virtual non-contrast images generated by a spectral computed tomography (ct) scanner
JP2020536638A (ja) 2017-10-09 2020-12-17 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 深層学習を用いた医用イメージングの造影剤用量削減

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9906420D0 (en) * 1999-03-19 1999-05-12 Isis Innovation Method and apparatus for image processing
US20040131117A1 (en) * 2003-01-07 2004-07-08 Sheraizin Vitaly S. Method and apparatus for improving MPEG picture compression
JP4208909B2 (ja) * 2006-08-24 2009-01-14 株式会社東芝 画像処理装置と撮影装置
JP4772721B2 (ja) * 2007-03-26 2011-09-14 株式会社東芝 画像処理装置及びその方法
US8144953B2 (en) * 2007-09-11 2012-03-27 Siemens Medical Solutions Usa, Inc. Multi-scale analysis of signal enhancement in breast MRI
US9697603B2 (en) * 2014-12-19 2017-07-04 Toshiba Medical Systems Corporation Medical image data processing system and method for vessel segmentation using pre- and post-contrast data
US11793478B2 (en) * 2017-03-28 2023-10-24 Canon Medical Systems Corporation Medical image processing apparatus, medical image processing method, and X-ray diagnostic apparatus
CN107561467A (zh) * 2017-07-31 2018-01-09 上海东软医疗科技有限公司 磁共振多对比度图像重建方法和装置
US11100621B2 (en) * 2017-10-20 2021-08-24 Imaging Biometrics, Llc Simulated post-contrast T1-weighted magnetic resonance imaging
KR102033743B1 (ko) 2017-11-20 2019-11-08 주식회사 클라리파이 딥러닝 기반 ct 이미지 잡음 저감 장치 및 방법
KR102060895B1 (ko) * 2018-06-01 2020-02-11 연세대학교 산학협력단 의료 영상 생성 방법 및 디바이스
US10949951B2 (en) 2018-08-23 2021-03-16 General Electric Company Patient-specific deep learning image denoising methods and systems
CN112822973A (zh) * 2018-10-10 2021-05-18 佳能株式会社 医学图像处理装置、医学图像处理方法和程序
US10937205B2 (en) * 2018-11-06 2021-03-02 Siemens Healthcare Gmbh Detection of infarcts using trained network
US11164293B2 (en) * 2019-01-30 2021-11-02 National Cheng Kung University Adaptive enhancement method for image contrast based on level of detail
US20200294288A1 (en) * 2019-03-13 2020-09-17 The Uab Research Foundation Systems and methods of computed tomography image reconstruction
US11663467B2 (en) * 2019-11-21 2023-05-30 Adobe Inc. Methods and systems for geometry-aware image contrast adjustments via image-based ambient occlusion estimation

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100198054A1 (en) 2007-05-18 2010-08-05 Ewing James R Mri estimation of contrast agent concentration using a neural network approach
US20100034446A1 (en) 2008-08-06 2010-02-11 Siemens Corporate Research,Inc. System and Method for Coronary Digital Subtraction Angiography
US20110064292A1 (en) 2009-09-17 2011-03-17 Siemens Corporation System and method for multi-image based virtual non-contrast image enhancement for dual source ct
JP2012245235A (ja) 2011-05-30 2012-12-13 Ge Medical Systems Global Technology Co Llc 画像生成装置およびx線ct装置並びにプログラム
US20140348428A1 (en) 2013-05-24 2014-11-27 Himax Media Solutions, Inc. Dynamic range-adjustment apparatuses and methods
JP2015100699A (ja) 2013-11-20 2015-06-04 株式会社東芝 医用画像処理装置および医用画像処理方法
JP2017502423A (ja) 2014-01-08 2017-01-19 富士通株式会社 画像コントラストの強調装置、電子機器及び方法
JP2018089301A (ja) 2016-12-07 2018-06-14 学校法人常翔学園 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム
JP2019005557A (ja) 2017-06-22 2019-01-17 キヤノンメディカルシステムズ株式会社 画像処理装置、磁気共鳴イメージング装置及び画像処理プログラム
JP2020536638A (ja) 2017-10-09 2020-12-17 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 深層学習を用いた医用イメージングの造影剤用量削減
US20190156524A1 (en) 2017-11-20 2019-05-23 ClariPI Inc. Apparatus and method for ct image denoising based on deep learning
WO2019149711A1 (en) 2018-01-31 2019-08-08 Koninklijke Philips N.V. Image quality improved virtual non-contrast images generated by a spectral computed tomography (ct) scanner

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MENGHENG TOUCH; ET AL,A NEURAL NETWORK-BASED METHOD FOR SPECTRAL DISTORTION CORRECTION IN PHOTON COUNTING X-RAY CT,PHYSICS IN MEDICINE AND BIOLOGY,英国,INSTITUTE OF PHYSICS PUBLISHING,2016年07月29日,VOL:61, NR:16,,PAGE(S):6132 - 6153(1-32),http://dx.doi.org/10.1088/0031-9155/61/16/6132

Also Published As

Publication number Publication date
JP2023514914A (ja) 2023-04-12
US11328394B1 (en) 2022-05-10
EP4066741A4 (en) 2023-12-20
EP4066741A1 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
Kang et al. Cycle‐consistent adversarial denoising network for multiphase coronary CT angiography
EP3869446B1 (en) Apparatus and method for deep learning-based ct image noise reduction
US10891762B2 (en) Apparatus and method for medical image denoising based on deep learning
CN111601550A (zh) 用于使用深度学习的医学成像的造影剂量减少
Tmenova et al. CycleGAN for style transfer in X-ray angiography
Bauer et al. Generation of annotated multimodal ground truth datasets for abdominal medical image registration
CN112292086B (zh) 超声病变评估及相关联的设备、系统和方法
Ratul et al. CCX-rayNet: a class conditioned convolutional neural network for biplanar X-rays to CT volume
KR102316312B1 (ko) 딥러닝 기반의 조영 증강 ct 이미지 대조도 증폭 장치 및 방법
JP7051595B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
Koike et al. Pseudo low-energy monochromatic imaging of head and neck cancers: Deep learning image reconstruction with dual-energy CT
JP7376053B2 (ja) ディープラーニング基盤の造影増強ctイメージ対照度増幅装置及び方法
JP7071037B2 (ja) 推論装置、医用システム、およびプログラム
Vajpayee et al. Structurally-constrained optical-flow-guided adversarial generation of synthetic CT for MR-only radiotherapy treatment planning
KR102586483B1 (ko) 인공지능에 의한 의료영상 변환방법 및 그 장치
Qiu et al. Chest CBCT-based synthetic CT using cycle-consistent adversarial network with histogram matching
US20240054648A1 (en) Methods for training at least a prediction model, or for processing at least a pre-contrast image depicting a body part prior to an injection of contrast agent using said prediction model
Dasnoy‐Sumell et al. Continuous real time 3D motion reproduction using dynamic MRI and precomputed 4DCT deformation fields
Zhao et al. A deep learning approach for virtual monochromatic spectral CT imaging with a standard single energy CT scanner
Sun et al. Clinical ultra‐high resolution CT scans enabled by using a generative adversarial network
Eslami et al. Joint low dose CT denoising and kidney segmentation
Takamiya et al. CT brain image synthesization from MRI brain images using CycleGAN
Kim et al. Conversion of single-energy CT to parametric maps of dual-energy CT using convolutional neural network
KR102522697B1 (ko) 딥러닝 기반의 개인 맞춤형 조영검사 최적화 방법 및 시스템
Yang et al. Learning without Real Data Annotations to Detect Hepatic Lesions in Pet Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R150 Certificate of patent or registration of utility model

Ref document number: 7376053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150