JP2020503075A - 診断映像変換装置、診断映像変換モジュール生成装置、診断映像撮影装置、診断映像変換方法、診断映像変換モジュール生成方法、診断映像撮影方法、及びプログラム - Google Patents

診断映像変換装置、診断映像変換モジュール生成装置、診断映像撮影装置、診断映像変換方法、診断映像変換モジュール生成方法、診断映像撮影方法、及びプログラム Download PDF

Info

Publication number
JP2020503075A
JP2020503075A JP2018562523A JP2018562523A JP2020503075A JP 2020503075 A JP2020503075 A JP 2020503075A JP 2018562523 A JP2018562523 A JP 2018562523A JP 2018562523 A JP2018562523 A JP 2018562523A JP 2020503075 A JP2020503075 A JP 2020503075A
Authority
JP
Japan
Prior art keywords
image
mri
probability
conversion
diagnostic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018562523A
Other languages
English (en)
Inventor
ソンビン ジン、
ソンビン ジン、
ウォンジン キム、
ウォンジン キム、
ウンシク パク、
ウンシク パク、
ヨンセム アン、
ヨンセム アン、
ビン ヤン、
ビン ヤン、
ミョンゴル ユ、
ミョンゴル ユ、
ソンス チュ、
ソンス チュ、
Original Assignee
ヨンセム アン、
ヨンセム アン、
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170154251A external-priority patent/KR102036416B1/ko
Application filed by ヨンセム アン、, ヨンセム アン、 filed Critical ヨンセム アン、
Priority claimed from KR1020180141923A external-priority patent/KR20200057463A/ko
Publication of JP2020503075A publication Critical patent/JP2020503075A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/147Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/441AI-based methods, deep learning or artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】CT映像からMRI映像を得ることが可能な診断映像変換装置を提供する。【解決手段】本発明の少なくとも一つの実施例に係る診断映像変換装置は、CT映像を入力するための入力部と、前記入力部を介して入力されたCT映像をMRI映像に変換する変換モジュールと、前記変換モジュールが変換したMRI映像を出力するための出力部とを備える。【選択図】図2

Description

本発明は、診断映像変換装置、診断映像変換モジュール生成装置、診断映像撮影装置、診断映像変換方法、診断映像変換モジュール生成方法、診断映像撮影方法、及びコンピューター読み取り可能な記録媒体に関する。
診断映像技術は、CT(Computerized Tomography)、MRI(Magnetic Resonance Imaing)などを用いて人体の構造及び解剖学的映像を撮影するための医療技術である。人工知能の発展のお陰でこのような診断映像技術を用いた医療映像の自動化された分析が可能となり、実際の診療に適用可能なレベルまで至っている。
特許文献1は、CT装置とMRI装置を結合し、CT装置で信号源を回転し、MRI装置の磁場信号に、信号源を変形するMRIとCTを結合したMRCT診断装置を開示している。
CTスキャンは、応急室などで使用され、骨の構造に関する詳細情報を提供する一方、MRI装置は、靱帯や筋の負傷時に軟組織の検査や腫瘍の検出などに適合する。
CT装置の長所は、X−rayを用いて短時間にスキャンが可能であるので、人体の動きによる動作雑音(Motion Artifact)による影響を最小化し、鮮明な映像を得ることができる。CT撮影に造影剤(Contrast Agent)を一緒に用いると、血管内の濃度が最も高い時点にスキャンを行うことで、CT血管撮影が可能である。
MRI装置は、核磁気共鳴(Nuclear Magnetic Resonance)の原理を利用して人体の解剖学的変化を感知するので、人体を放射線に露出しないで高解像度の解剖学的映像を得ることができる。CTが横断面のみを見せるのに対し、MRIは縦横断面を両方見せる立体映像で患部を見ることができ、CTより高い解像度の映像でより細密な検査が可能である。
CTは数分程度で検査が終わるが、MRIは約30分〜1時間程度の検査時間が必要である。従って、交通事項や脳出血などの緊急事態では検査時間が短いCTが有用である。
MRIはCTに比べてより精密な3次元の映像を見ることが可能であり、複数の角度で見ることができるという長所を持っている。筋肉、軟骨、靱帯、血管、及び神経などの軟部組織の撮影の際にCTに比べてより正確な診断を行うことができる。
一方、ペースメーカー(Cardiac Pacemaker)、金属インプラント、または入れ墨などを持っている患者は、患者の負傷の危険とイメージの歪曲(揺れまたはノイズ)などの理由でMRIの使用が禁止されている。
韓国特許公開公報第10−2017−0085756号
交通事故や脳出血などの緊急事態では、検査時間が短いCTが有用であるが、CTは診断しにくい疾患があり、MRIは検査時間が長いがCTよりもっとたくさんのものを見ることができる。従って、CT映像のみでMRI映像と同等な効果を得ることができれば、緊急事態でより多くの命を救うことができるのみならず、MRI撮影に必要な時間と費用を節約することができる。
本発明は、上述した従来の要求に応えるために成されたものであり、本発明の一つの目的は、CT映像からMRI映像を得ることが可能な診断映像変換装置を提供することである。
本発明のもう一つの目的は、CT映像からMRI映像を得ることが可能な診断映像変換モジュール生成装置を提供することである。
本発明のもう一つの目的は、CT映像からMRI映像を得ることが可能な診断映像撮影装置を提供することである。
本発明のもう一つの目的は、CT映像からMRI映像を得ることが可能な診断映像変換方法を提供することである。
本発明のもう一つの目的は、CT映像からMRI映像を得ることが可能な診断映像変換モジュール生成方法を提供することである。
本発明のもう一つの目的は、CT映像からMRI映像を得ることが可能な診断映像撮影方法を提供することである。
本発明の解決課題は以上で言及されたものに限定されず、言及されていない他の解決課題は下記の記載から当該技術分野における通常の知識を有した者に明確に理解できるであろう。
本発明の少なくとも一つの実施例においては、CT映像を入力するための入力部と、前記入力部を介して入力されたCT映像をMRI映像に変換する変換モジュールと、前記変換モジュールが変換したMRI映像を出力するための出力部とを備える、診断映像変換装置を提供する。
本発明の少なくとも一つの実施例において、前記診断映像変換装置は、前記入力部を介して入力されたCT映像を、撮影された断層の位置によって分類する分類部をさらに備え、前記変換モジュールは、前記分類部によって分類されたCT映像をMRI映像に変換する。
本発明の少なくとも一つの実施例において、前記分類部は、前記CT映像を、撮影された断層の位置によって、脳の最上段から眼球が現れる前までの映像を第1層映像として分類し、眼球が現れ始め、側脳室が現れる前までの映像を第2層映像として分類し、側脳室が現れ始め、脳室が終わる前までの映像を第3層映像として分類し、脳室が終わった後、脳の最下段までの映像を第4層映像として分類する。
本発明の少なくとも一つの実施例において、前記変換モジュールは、前記第1層映像として分類されたCT映像をMRI映像に変換する第1変換モジュールと、前記第2層映像として分類されたCT映像をMRI映像に変換する第2変換モジュールと、前記第3層映像として分類されたCT映像をMRI映像に変換する第3変換モジュールと、前記第4層映像として分類されたCT映像をMRI映像に変換する第4変換モジュールと、を含む。
本発明の少なくとも一つの実施例において、前記診断映像変換装置は、前記入力部を介して入力されたCT映像に対し、正規化、グレー変換、及びサイズ調整のうち少なくとも一つを含む前処理を実行する前処理部をさらに備える。
本発明の少なくとも一つの実施例において、前記診断映像変換装置は、前記変換モジュールが変換したMRI映像に対し、デコンボリューションを含む後処理を実行する後処理部をさらに備える。
本発明の少なくとも一つの実施例において、前記診断映像変換装置は、前記変換モジュールが変換したMRI映像がCT映像である確率とMRI映像である確率を出力する評価部をさらに備える。
本発明の少なくとも一つの実施例においては、前記診断映像変換装置の前記変換モジュールを生成するための診断映像変換モジュール生成装置であって、学習データであるCT映像が入力されると、複数の演算を行ってMRI映像を生成するMRI生成子と、学習データであるMRI映像が入力されると、複数の演算を行ってCT映像を生成するCT生成子と、前記MRI生成子が生成したMRI映像と学習データであるMRI映像を含む映像が入力されると、複数の演算を行って、入力された映像がMRI映像である確率とMRI映像でない確率を出力するMRI判別子と、前記CT生成子が生成したCT映像と学習データであるCT映像を含む映像が入力されると複数の演算を行って、入力された映像がCT映像である確率とCT映像でない確率を出力するCT判別子と、前記MRI判別子から出力される前記MRI映像である確率と前記MRI映像でない確率の期待値と出力値との差である確率損失を算出するMRI確率損失測定子と、前記CT判別子から出力される前記CT映像である確率と前記CT映像でない確率の期待値と出力値との差である確率損失を算出するCT確率損失測定子と、前記MRI生成子が生成したMRI映像と前記学習データであるMRI映像との差である基準損失を算出するMRI基準損失測定子と、前記CT生成子が生成したCT映像と前記学習データであるCT映像との差である基準損失を算出するCT基準損失測定子と、を備え、前記確率損失及び前記基準損失が最小になるように、逆伝搬(Back Propagation)アルゴリズムを用いて前記MRI生成子、前記CT生成子、前記MRI判別子、及び前記CT判別子に含まれた複数の演算の加重値を修正する、診断映像変換モジュール生成装置を提供する。
本発明の少なくとも一つの実施例において、前記診断映像変換モジュール生成装置は、ペアドデータとアンペアドデータを用いて前記確率損失及び前記基準損失が最小になるように逆伝搬アルゴリズムを用いて前記MRI生成子、前記CT生成子、前記MRI判別子、及び前記CT判別子に含まれた複数の演算の加重値を修正する。
本発明の少なくとも一つの実施例においては、CT撮影のためのX線を発生するX線発生装置と、前記X線発生装置から発生して人体を透過したX線を検出し、検出したX線を電気信号に変換し、変換された電気信号から映像データを取得するデータ取得装置と、前記データ取得装置が取得した前記映像データからCT映像を構成して出力する映像構成装置と、前記映像構成装置が構成した前記CT映像の入力を受け、MRI映像に変換して出力する前記診断映像変換装置と、前記CT映像と前記MRI映像を表示するディスプレイ装置と、を備え、前記ディスプレイ装置は、前記CT映像と前記MRI映像を選択的に表示するか、または両方とも表示する、診断映像撮影装置を提供する。
本発明の少なくとも一つの実施例においては、CT映像を入力する入力工程と、前記入力工程で入力されたCT映像をMRI映像に変換する変換工程と、前記変換工程で変換されたMRI映像を出力する出力工程と、を備える、診断映像変換方法を提供する。
本発明の少なくとも一つの実施例において、前記診断映像変換方法は、前記入力工程で入力されたCT映像を、撮影された断層の位置によって分類する分類工程をさらに備え、前記変換工程は、前記分類工程で分類されたCT映像をMRI映像に変換する工程を含む。
本発明の少なくとも一つの実施例において、前記分類工程は、前記CT映像を、撮影された断層の位置によって、脳の最上段から眼球が現れる前までの映像を第1層映像として分類する工程と、眼球が現れ始め、側脳室が現れる前までの映像を第2層映像として分類する工程と、側脳室が現れ始め、脳室が終わる前までの映像を第3層映像として分類する工程と、脳室が終わった後、脳の最下段までの映像を第4層映像として分類する工程とを含む。
本発明の少なくとも一つの実施例において、前記変換工程は、前記第1層映像として分類されたCT映像をMRI映像に変換する第1変換工程と、前記第2層映像として分類されたCT映像をMRI映像に変換する第2変換工程と、前記第3層映像として分類されたCT映像をMRI映像に変換する第3変換工程と、前記第4層映像として分類されたCT映像をMRI映像に変換する第4変換工程と、を含む。
本発明の少なくとも一つの実施例において、前記診断映像変換方法は、前記入力工程で入力されたCT映像に対し、正規化、グレー変換、及びサイズ調整のうち少なくとも一つを含む前処理を実行する前処理工程をさらに備える。
本発明の少なくとも一つの実施例において、前記診断映像変換方法は、前記変換工程で変換したMRI映像に対し、デコンボリューションを含む後処理を実行する後処理工程をさらに備える。
本発明の少なくとも一つの実施例において、前記診断映像変換方法は、前記変換工程で変換したMRI映像がCT映像である確率とMRI映像である確率を出力する評価工程をさらに備える。
本発明の少なくとも一つの実施例においては、前記診断映像変換方法の変換工程で用いられる変換モジュールを生成するための診断映像変換モジュール生成方法であって、学習データであるCT映像が入力されると、複数の演算を行ってMRI映像を生成するMRI生成工程と、学習データであるMRI映像が入力されると、複数の演算を行ってCT映像を生成するCT生成工程と、前記MRI生成工程で生成したMRI映像と学習データであるMRI映像を含む映像が入力されると、複数の演算を行って、入力された映像がMRI映像である確率とMRI映像でない確率を出力するMRI判別工程と、前記CT生成工程で生成したCT映像と学習データであるCT映像を含む映像が入力されると複数の演算を行って、入力された映像がCT映像である確率とCT映像でない確率を出力するCT判別工程と、前記MRI判別工程で出力される前記MRI映像である確率と前記MRI映像でない確率の期待値と出力値との差である確率損失を算出するMRI確率損失測定工程と、前記CT判別工程で出力される前記CT映像である確率と前記CT映像でない確率の期待値と出力値との差である確率損失を算出するCT確率損失測定工程と、前記MRI生成工程で生成したMRI映像と前記学習データであるMRI映像との差である基準損失を算出するMRI基準損失測定工程と、前記CT生成工程で生成したCT映像と前記学習データであるCT映像との差である基準損失を算出するCT基準損失測定工程と、前記確率損失及び前記基準損失が最小になるように、逆伝搬(Back Propagation)アルゴリズムを用いて前記MRI生成工程、前記CT生成工程、前記MRI判別工程、及び前記CT判別工程に含まれた複数の演算の加重値を修正する加重値修正工程を備える、診断映像変換モジュール生成方法を提供する。
本発明の少なくとも一つの実施例において、前記加重値修正工程は、ペアドデータとアンペアドデータを用いて前記確率損失及び前記基準損失が最小になるように逆伝搬アルゴリズムを用いて前記MRI生成工程、前記CT生成工程、前記MRI判別工程、及び前記CT判別工程に含まれた複数の演算の加重値を修正する工程を含む。
本発明の少なくとも一つの実施例においては、CT撮影のためのX線を発生するX線発生工程と、前記X線発生工程で発生して人体を透過したX線を検出し、検出したX線を電気信号に変換し、変換された電気信号から映像データを取得するデータ取得工程と、前記データ取得工程で取得した前記映像データからCT映像を構成して出力する映像構成工程と、前記映像構成工程で構成した前記CT映像の入力を受け、MRI映像に変換して出力する前記診断映像変換方法を実行する診断映像変換工程と、前記CT映像と前記MRI映像を表示する映像表示工程と、を備え、前記映像表示工程は、前記CT映像と前記MRI映像を選択的に表示するか、または両方とも表示する工程を含む、診断映像撮影方法を提供する。
本発明の少なくとも一つの実施例においては、前記診断映像変換方法を実行するプログラムを格納するコンピューター読み取り可能な記録媒体を提供する。
本発明の少なくとも一つの実施例においては、前記診断映像変換モジュール生成方法を実行するプログラムを格納するコンピューター読み取り可能な記録媒体を提供する。
本発明の少なくとも一つの実施例においては、前記診断映像撮影方法を実行するプログラムを格納するコンピューター読み取り可能な記録媒体を提供する。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換装置を提供できるという効果を奏する。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換モジュール生成装置を提供できるという効果を奏する。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像撮影装置を提供できるという効果を奏する。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換方法を提供できるという効果を奏する。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換モジュール生成方法を提供できるという効果を奏する。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像撮影方法を提供できるという効果を奏する。
本発明の少なくとも一つの実施例によれば、CT映像をMRI映像に変換し、緊急事態でより多くの命を救うことができるのみならず、MRI撮影に必要な時間と費用を節約できるという効果を奏する。
本発明の効果は以上で言及されたものなどに限定されず、言及されていない他の効果は下記の記載から当該技術分野における通常の知識を有した者に明確に理解できるはずである。
本発明の少なくとも一つの実施例に係る診断映像変換装置で用いるペアドデータ(Paired Data)とアンペアドデータ(Unpaired Data)を説明するためのイメージである。 本発明の少なくとも一つの実施例に係る診断映像変換装置の機能ブロック図である。 本発明の少なくとも一つの実施例に係る診断映像変換装置の分類部が分類する映像の一例を説明するためのイメージである。 本発明の少なくとも一つの実施例に係る診断映像変換装置の変換部の機能ブロック図である。 本発明の少なくとも一つの実施例に係る診断映像変換装置の変換部の学習を説明するための概略図である。 本発明の少なくとも一つの実施例に係る診断映像変換装置の変換部の学習を説明するための概略図である。 本発明の少なくとも一つの実施例に係る診断映像変換装置の変換部の学習方法を説明するためのフローチャートである。 本発明の少なくとも一つの実施例に係る診断映像変換方法を説明するためのフローチャートである。 CT映像とMRI映像のペアドデータの生成を説明するためのイメージである。 ペアドデータとアンペアドデータを用いた複合サイクル一致構造(Dual Cycle−Consistent Structure)の例を示す概略図である。 入力CT映像、合成MRI映像、参照MRI映像、及び実際MRI映像と合成MRI映像との絶対誤差を示すイメージである。 入力CT映像、ペアドデータ、アンペアドデータ、及びペアドデータとアンペアドデータを用いた場合の合成MRI映像、及び参照MRI映像を示すイメージである。 本発明の少なくとも一つの実施例に係る診断映像撮影装置の機能ブロック図である。
以下、添付図面を参照し、本発明の少なくとも一つの実施例に係る診断映像変換装置、診断映像変換モジュール生成装置、診断映像撮影装置、診断映像変換方法、診断映像変換モジュール生成方法、診断映像撮影方法、及びコンピューター読み取り可能な記録媒体について詳しく説明する。
図1は、本発明の少なくとも一つの実施例に係る診断映像変換装置で用いるペアドデータ(Paired Data)とアンペアドデータ(Unpaired Data)を説明するためのイメージである。
ペアドデータを用いたラーニングを介してpix2pixモデルを使用してMRI映像をCT映像に変換する技術、ペアドデータを用いたラーニングを介してFCN及びpix2pixモデルを使用してCT映像をPET(Position Emission Tomography)映像に変換する技術、ペアドデータを用いたラーニングを介してpix2pixモデルを使用してCT映像をPET映像に変換する技術、及びアンペアドデータを用いたラーニングを介してcycleGANモデルを使用してMRI映像をCT映像に変換する技術が公開されている。
図1で、左側は同一の患者の同一の解剖学的構造を撮影したCTとMRIスライスで構成したペアドデータであり、右側は異なる患者の異なる解剖学的構造を撮影したCTとMRIスライスで構成したアンペアドデータである。
ペアドデータを用いたペアドトレーニング方法は、結果が良好で、たくさんの量のCTとMRIの整列された映像ペアを手に入れなくても良いという利点があるが、確実に整列されたデータを得ることが難しいし、データを手に入れるのにたくさんの費用が掛かるという短所がある。
一方、アンペアドデータを用いたアンペアドトレーニング方法は、たくさんの量のデータの確保が可能であるので、トレーニングデータをネズミ算式に増やし、現在のディープラーニングベースのシステムの多くの制約を解消できるという利点があるが、ペアドトレーニング方法に比べて結果の質が衰え、性能に多くの差があるという短所がある。
本発明の少なくとも一つの実施例では、ペアドデータとアンペアドデータを両方用いてCT映像をMRI映像に変換することで、ペアドトレーニングの短所とアンペアドトレーニングの短所を補うアプローチを提供する。
図2は、本発明の少なくとも一つの実施例に係る診断映像変換装置200の機能ブロック図である。
図2に示すように、本発明の少なくとも一つの実施例に係る診断映像変換装置200は、前処理部220、分類部230、変換モジュール(変換部)240、後処理部250、及び評価部260で構成され、例えば、脳を撮影したCT映像をMRI映像に変換して提供する。
前処理部220は、CT映像の入力を受け、入力されたCT映像に対する前処理を行って分類部230に提供する。ここで、前処理は、例えば、正規化(Normalization)、グレー変換(Gray Scaling)、及びサイズ調整(Resize)などを含む。
本発明の少なくとも一つの実施例において、前処理部220は、次の数式1のように、入力されたCT映像の各ピクセルの値を次のように最大最小正規化(Min−Max Normalization)を行って前もって設定した範囲内のピクセルの値に変換する。
数式1
ここで、vは、入力されたCT映像のピクセルの値であり、v'は、ピクセルの値vを正規化したピクセルの値である。min_a及びmax_aは、入力されたCTの最小及び最大ピクセルの値であり、min_b及びmax_bは、正規化しようとする範囲の最小及び最大ピクセルの値である。
正規化後、前処理部220は、CT映像の映像チャネル数を1に調整するグレー変換を行う。それから、前処理部220は、CT映像のサイズを前もって設定した大きさに調整(Resize)する。例えば、前処理部220は、CT映像のサイズを256x256x1の大きさに調整することができる。
分類部230は、入力されたCT映像を前もって設定した複数(例えば、4個)の分類のうちいずれか一つに分類する。脳のCT映像はCT撮影の対象である被験者が寝た状態で脳の垂直断面を撮影する。
本発明の少なくとも一つの実施例によれば、脳の断面を眼球部分が含まれるのか否か及び側脳室(Lateral Ventricle)及び脳室(Ventricle)が含まれるか否かによって4つの層に分類する。これによって、分類部230は、脳の最上段から最下段まで断層撮影した映像から眼球部分が含まれるか否か及び側脳室及び脳室が含まれるか否かによって4つの層に分ける。
図3は、本発明の少なくとも一つの実施例に係る診断映像変換装置200の分類部220が分類する映像の一例を説明するためのイメージである。
図3の(m1)は第1層の映像の一例である。分類部230は、脳の最上段から眼球が現れる以前までの映像を第1層映像m1として分類する。このように、第1層映像m1は、脳の最上段から順次脳の眼球部分が見える前まで撮影した映像で、al部分を見ると、脳の眼球部分が全然見えていない。
図3の(m2)は第2層映像の一例である。分類部230は、眼球が現れ始めた映像から側脳室が現れる以前までの映像を第2層映像m2に分類する。第2層映像m2は、映像でa2部分に示すように、眼球が見え始めてからb1部分に示すように側脳室が見える前までの映像であるので、映像で眼球部分が存在し、側脳室は見えていない。
図3の(m3)は第3層映像の一例である。分類部230は、側脳室が現れ始めてから脳室が終わる前までの映像を第3層映像m3に分類する。このように、第3層映像m3は、側脳室が見え始めてから脳室が終わる前までの映像であるので、映像に側脳室または脳室が存在する。
図3の(m4)は第4層映像の一例である。分類部230は、脳室が終わってから脳の最下段までの映像を第4層映像m4に分類する。このように、第4層映像m4は、脳室が終わってから脳の最下段までの映像で、映像に側脳室または脳室は存在しない。
図3ではCT映像を例として脳の断面を複数の層に分類しているが、MRI映像もCT映像と同様に分類することができる。
分類部230は、人工神経網(Artificial Neural Network)を含む。このような人工神経網は、CNN(Convolutional Neural Network)を含む。これによって、分類部230は、第1層ないし第4層の映像m1、m2、m3、m4を学習データとして、第1層ないし第4層の映像m1、m2、m3、m4を学習することができる。
図4は、本発明の少なくとも一つの実施例に係る診断映像変換装置200の変換部230の機能ブロック図である。図5及び図6は、本発明の少なくとも一つの実施例に係る診断映像変換装置200の変換部230の学習を説明するための概略図である。
図4に示すように、変換部240は、第1変換モジュールないし第4変換モジュール231、232、233、234を含む。第1変換モジュールないし第4変換モジュール231、232、233、234は、それぞれ第1層映像ないし第4層映像m1、m2、m3、 m4に対応する。これによって、分類部230は、入力されるCT映像を第1層映像ないし第4層映像m1、m2、m3、 m4に分類した後、第1変換モジュールないし第4変換モジュール231、232、233、234のうち対応する変換モジュールに供給する。
変換部240は、分類部230から入力されるCT映像をMRI映像に変換する。
第1変換モジュールないし第4変換モジュール231、232、233、234はそれぞれ人工神経網を含む。このような人工神経網は、GAN(Generative Adversarial Network)を含む。本発明の少なくとも一つの実施例に係る第1変換モジュールないし第4変換モジュール231、232、233、234のそれぞれに含まれる人工神経網の詳細構成を図5及び図6に示す。
第1変換モジュールないし第4変換モジュール231、232、233、234それぞれの人工神経網は、MRI生成子(G)、CT生成子(F)、MRI判別子(MD)、CT判別子(CD)、MRI確率損失測定子(MSL)、CT確率損失測定子(CSL)、MRI基準損失測定子(MLL)、及びCT基準損失測定子(CLL)を含む。
MRI生成子(G)、CT生成子(F)、MRI判別子(MD)、及びCT判別子(CD)のそれぞれは、独立した人工神経網であり、本発明の少なくとも一つの実施例においてはCNNである。MRI生成子(G)、CT生成子(F)、MRI判別子(MD)、及びCT判別子(CD)のそれぞれは、複数の階層を含み、それぞれの階層は複数の演算を含む。さらに、複数の演算はそれぞれ加重値(Weight)を含む。
複数の階層は、入力層(Input Layer)、コンボリューション層(Convolution Layer)、ポーリング層(Polling Layer)、完全接続層(Fully−Connected Layer)、及び出力層(Output Layer)のうち少なくとも一つを含む。複数の演算は、コンボリューション演算、ポーリング演算、シグモード(Sigmode)演算、ハイパータンジェンシャル演算などを含む。このような演算はそれぞれ以前の階層の演算の結果を入力として受けて演算を行い、それぞれの演算は加重値を含む。
図5及び図6を参照すると、MRI生成子(G)は、CT映像が入力されると、複数の演算を行ってMRI映像を生成する。即ち、MRI生成子(G)は、ピクセル単位で複数の演算を行い、入力されたCT映像のピクセルを複数の演算を介してMRI映像のピクセルに変換してMRI映像を生成する。CT生成子(F)は、MRI映像が入力されると、複数の演算を行ってCT映像を生成する。即ち、CT生成子(F)は、ピクセル単位で複数の演算を行い、入力されたMRI映像のピクセルを複数の演算を介してCT映像のピクセルに変換してCT映像を生成する。
図5に示すように、MRI判別子(MD)は、映像が入力されると、入力された映像に対して複数の演算を行って、入力された映像がMRI映像である確率とMRI映像でない確率を出力する。ここで、MRI判別子(MD)に入力される映像は、MRI生成子(G)が生成したMRI映像(cMRI)または学習データであるMRI映像(rMRI)である。
MRI確率損失測定子(MSL)は、MRI判別子(MD)からMRI判別子(MD)の出力値である、MRI判別子(MD)に入力された映像がMRI映像である確率とMRI映像でない確率を入力として受け、MRI映像である確率とMRI映像でない確率の出力値と期待値との差である確率損失を算出する。このとき、確率損失を算出するためにsoftmax関数を用いることができる。
MRI判別子(MD)は、MRI生成子(G)が生成したMRI映像または学習データであるMRI映像が入力され、MRI生成子(G)が十分学習された状態であれば、MRI判別子(MD)は、MRI生成子(G)が生成したMRI映像または学習データであるMRI映像を両方ともMRI映像として判別することを期待できる。このような場合、MRI判別子(MD)は、MRI映像である確率がMRI映像でない確率より高く、MRI映像である確率が所定値以上であり、MRI映像でない確率が所定値以下として出力することを期待できる。しかし、十分学習が行われてない場合は、MRI判別子(MD)の出力値と期待値には差があり、MRI確率損失測定子(MSL)はこのような出力値と期待値との差を算出する。
MRI生成子(G)がMRI生成子(G)に入力されたCT映像(rCT)からMRI映像(cMRI)を生成すると、CT生成子(F)は生成されたMRI映像(cMRI)からCT映像(cCT)を再び生成することができる。CT基準損失測定子(CLL)は、CT生成子(F)が再び生成したCT映像(cCT)とこれの基準になるMRI生成子(G)に入力されたCT映像(rCT)の差である基準損失を算出する。このような基準損失はL2 norm演算を介して算出することができる。
図6に示すように、CT判別子(CD)は、映像が入力されると、入力された映像に対して複数の演算を行い、入力された映像がCT映像である確率とCT映像でない確率を出力する。ここで、CT判別子(CD)に入力される映像は、CT生成子(F)が生成したCT映像(cCT)または学習データであるCT映像(rCT)である。
CT確率損失測定子(CSL)は、CT判別子(CD)からCT判別子(CD)の出力値であるCT判別子(CD)に入力された映像がCT映像である確率とCT映像でない確率を受け、CT映像である確率とCT映像でない確率の出力値と期待値との差である確率損失を算出する。このとき、確率損失を算出するためにsoftmax関数を用いることができる。
CT判別子(CD)には、CT生成子(F)が生成したCT映像または学習データであるCT映像が入力され、CT生成子(F)が十分学習された状態であれば、CT判別子(CD)はCT生成子(F)が生成したCT映像(cCT)または学習データであるCT映像(rCT)を両方ともCT映像として判別することを期待できる。このような場合、CT判別子(CD)は、CT映像である確率がCT映像でない確率より高く、CT映像である確率が所定値以上であり、CT映像でない確率が所定値以下として出力することを期待できる。しかし、十分学習が行われてない場合は、CT判別子(CD)の出力値と期待値には差があり、CT確率損失測定子(CSL)はこのような出力値と期待値との差を算出する。
CT生成子(F)がCT生成子(F)に入力されたMRI映像(rMRI)からCT映像(cCT)を生成すると、MRI生成子(G)は、生成されたCT映像(cCT)からMRI映像(cMRI)を再び生成することができる。MRI基準損失測定子(MLL)は、MRI生成子(G)が再び生成したMRI映像(cMRI)とこれの基準となるCT生成子(F)に入力されたMRI映像(rMRI)との差である基準損失を算出する。このような基準損失はL2 のrm演算を介して算出することができる。
基本的に、変換部240の人工神経網は、CT映像をMRI映像に変換するためのものである。MRI生成子(G)は、CT映像が入力されると、複数の演算を行ってMRI映像を生成する。このために、MRI生成子(G)に対する学習(Deep Learning)が要求される。以下、前述したMRI生成子(G)を始め、CT生成子(F)、MRI判別子(MD)、CT判別子(CD)、MRI確率損失測定子(MSL)、CT確率損失測定子(CSL)、MRI基準損失測定子(MLL)、及びCT基準損失測定子(CLL)を介した学習方法について説明する。
CT映像及びMRI映像は、同様に脳の断面を撮影するが、CTとMRIの装置と特性上、正確にマッチングする断面を撮影することはできない。従って、CT映像断面が同一のMRI映像は存在しないと言える。そのため、CT映像をMRI映像に変換することを学習するために、図5に示すような順方向プロセスと図6に示すような逆方向プロセスを介して確率損失と基準損失を求め、確率損失と基準損失が最小になるように逆伝搬(Back Propagation)を介してMRI生成子(G)、CT生成子(F)、MRI判別子(MD)、及びCT判別子(CD)に含まれた複数の演算の加重値を修正する。
第1変換モジュールないし第4変換モジュール231、232、233、234のそれぞれの人工神経網が十分学習された変換部240は、第1層ないし第4層の映像m1、m2、m3、m4の何れか一つのCT映像が入力されると、第1変換モジュールないし第4変換モジュール231、232、233、234のうち対応するモジュールの人工神経網を介してMRI映像に変換する。このように変換されたMRI映像は後処理部250に供給される。
後処理部250は、変換部240が変換したMRI映像に対する後処理を行う。後処理は、イメージの品質(Quality)を向上させるためのデコンボリューション(Deconvolution)を含む。ここで、デコンボリューションは、逆フィルタリング、焦点合わせなどを含む。後処理部250は選択的な構成で、必要に応じて省略することができる。
評価部260は、変換部240が変換したMRI映像または後処理部250を経た映像がMRI映像である確率とCT映像である確率を出力する。評価部260は、人工神経網を含み、このような人工神経網は、例えば、CNNである。評価部260は、入力層、コンボリューション層、ポーリング層、完全接続層、及び出力層のうち少なくとも一つを含み、各層は複数の演算、即ちポーリング演算、シグモード演算、ハイパータンジェンシャル演算のうち少なくとも一つを含む。各演算は加重値を有する。
学習データはCT映像またはMRI映像を含む。人工神経網に学習データとしてCT映像が入力されると、人工神経網の出力はMRI映像である確率よりCT映像である確率が高く出力されると期待されるし、学習データとしてMRI映像が入力されると、人工神経網の出力はCT映像である確率よりMRI映像である確率が高く出力されると期待される。学習の際に、このような出力に対する期待値は実際の出力値と差がある。従って、学習データを入力した後、このような期待値と出力値との差を求め、期待値と出力値との差が最小になるように逆伝搬アルゴリズムを介して評価部260の人工神経網の複数の演算の加重値を修正する。
どのような学習データを入力した場合にも期待値と出力値との差が所定値以下で変動がなければ、十分学習されたものとして判断する。十分学習が行われた後、評価部260は、変換部240が変換したMRI映像がMRI映像であるか否かを判断するために用いられる。特に、評価部260は、変換部240の学習が十分行われているか否かを判断するために用いることができる。変換部240にCT映像を入力し、変換部240が出力した映像に対して評価部260がMRI映像である確率とCT映像である確率を出力するテスト過程を複数回繰り返す。このとき、繰り返すテスト過程で持続的にMRI映像である確率が所定値以上であれば、変換部240の学習が十分行われていると判断することができる。
図7は、本発明の少なくとも一つの実施例に係る診断映像変換装置の変換部の学習方法を説明するためのフローチャートである。
以下、説明の便宜のため、MRI機器が撮影したMRI映像を実際MRI映像(rMRI)と称し、MRI生成子(G)が生成したMRI映像を変換MRI映像(cMRI)と称し、CT機器が撮影したCT映像を実際CT映像(rCT)と称し、CT生成子(F)が生成したCT映像を変換CT映像(cCT)と称する。
前述のように、本発明の少なくとも一つの実施例に係る変換部240の人工神経網に対する学習は、図5に示すような順方向プロセスと図6に示すような逆方向プロセスを介して確率損失と基準損失を求め、確率損失と基準損失が最小になるように逆伝搬アルゴリズムを介してMRI生成子(G)、CT生成子(F)、MRI判別子(MD)、及びCT判別子(CD)に含まれた複数の演算の加重値を修正する過程である。
図5及び図7を参照して順方向プロセスに関して説明すると、変換部240は、ステップS710で学習データである実際CT映像(rCT)をMRI生成子(G)に入力する。MRI生成子(G)は、ステップS720で実際CT映像(rCT)から変換MRI映像(cMRI)を生成する。変換部240は、ステップS730で変換MRI映像(cMRI)及び実際MRI映像(rMRI)それぞれをMRI判別子(MD)に入力する。そして、MRI判別子(MD)は、ステップS740で変換MRI映像(cMRI)及び実際MRI映像(rMRI)それぞれに対してMRI映像である確率とMRI映像でない確率を出力する。続いて、MRI確率損失測定子(MSL)は、ステップS750でMRI判別子(MD)からMRI映像である確率とMRI映像でない確率を受け、MRI映像である確率とMRI映像でない確率の期待値と出力値との差である確率損失を算出する。
一方、変換部240は、ステップS760でMRI生成子(G)が出力した変換MRI映像(cMRI)をCT生成子(F)に入力する。すると、CT生成子(F)は、ステップS770で変換MRI映像(cMRI)から変換CT映像(cCT)を生成する。そして、CT基準損失測定子(CLL)は、ステップS780でCT生成子(F)が生成した変換CT映像(cCT)と先に(ステップS710で)入力された学習データである実際CT映像(rCT)との差である基準損失を算出する。
次に、図6及び図7を参照して逆方向プロセスに関して説明すると、変換部240は、ステップS715で学習データである実際MRI映像(rMRI)をCT生成子(F)に入力する。CT生成子(F)は、ステップS725で実際MRI映像(rMRI)から変換CT映像(cCT)を生成する。変換部240は、ステップS735で変換CT映像(cCT)及び実際CT映像(rCT)それぞれをCT判別子(CD)に入力する。すると、CT判別子(CD)は、ステップS745で変換CT映像(cCT)及び実際CT映像(rCT)それぞれに対してCT映像である確率とCT映像でない確率を出力する。続いて、CT確率損失測定子(CSL)は、ステップS755でCT判別子(CD)からCT映像である確率とCT映像でない確率を受け、CT映像である確率とCT映像でない確率の期待値と出力値との差である確率損失を算出する。
一方、変換部240は、ステップS765でCT生成子(F)が出力した変換CT映像(cCT)をMRI生成子(G)に入力する。すると、MRI生成子(G)は、ステップS775で変換CT映像(cCT)から変換MRI映像(cMRI)を生成する。そして、MRI基準損失測定子(MLL)は、ステップS785でMRI生成子(G)が生成した変換MRI映像(cMRI)と先に(ステップS715で)入力された学習データである実際MRI映像(rMRI)との差である基準損失を算出する。
次に、変換部240は、ステップS790で順方向プロセスのステップS750とステップS780で算出した確率損失と基準損失及び順方向プロセスのステップS755とステップS785で算出した確率損失と基準損失が最小になるように逆伝搬アルゴリズムを介してMRI生成子(G)、CT生成子(F)、MRI判別子(MD)、及びCT判別子(CD)に含まれた複数の演算の加重値を修正する。
本発明の少なくとも一つの実施例によれば、前述した学習過程は、複数の学習データ、即ち実際CT映像(rCT)及び実際MRI映像(rMRI)を用いて確率損失と基準損失が前もって設定した数値以下になるまで繰り返して行われる。従って、変換部240は、前述した順方向プロセス及び逆方向プロセスの結果、確率損失と基準損失が前もって設定した数値以下になれば、十分学習が完了したものとして判断し、学習過程を終了する。
一方、他の実施例によると、前述した学習過程の終了は評価部260によって決定することができる。即ち、評価部260は、変換部240の学習が十分行われているか否かを判断するために用いることができる。変換部240にCT映像を入力し、変換部240が出力した映像に対して評価部260がMRI映像である確率とCT映像である確率を出力するテスト過程を複数回繰り返す。ことのき、繰り返すテスト過程で持続的にMRI映像である確率が所定値以上であれば、変換部260の学習が十分行われているものとして判断し、学習過程を終了することができる。
次に、本発明の少なくとも一つの実施例に係る診断映像を変換する方法を説明する。図8は、本発明の少なくとも一つの実施例に係る診断映像変換方法を説明するためのフローチャートである。
図8に示すように、ステップS810でCT映像が入力されると、前処理部220は、ステップS820でCT映像に対する前処理を実行する。ここで、前処理は、正規化、グレー変換、及びサイズ調整を含む。このようなステップS820での前処理は省略可能である。
次に、分類部230は、ステップS830で入力されたCT映像を前もって設定した4つの分類のうちいずれか一つに分類し、変換部240の第1変換モジュールないし第4変換モジュール231、232、233、234のうち対応する変換モジュールに供給する。このとき、分類部230は、脳の最上段から眼球が現れる前までの映像を 第1層映像m1に分類し、眼球が現れ始め、側脳室が現れる前までの映像を第2層映像m2として分類し、側脳室が現れ始め、脳室が終わる前までの映像を第3層映像m3として分類し、脳室が終わった後、脳の最下段までの映像を第4層映像m4として分類する。
次に、変換部240は、ステップS840で分類部230が分類したCT映像を第1変換モジュールないし第4変換モジュール231、232、233、234のうち対応する変換モジュールを介してMRI映像に変換する。ここで、対応する変換モジュール(231、232、233、234のうち何れか一つ)は人工神経網を含み、このような人工神経網は図5ないし図7で説明したように、CT映像をMRI映像に変換するように学習されたものである。
特に、第1変換モジュールないし第4変換モジュール231、232、233、234それぞれの人工神経網の学習データとして用いられるCT映像及びMRI映像としては、図4で説明した第1層ないし第4層の映像(m1、m2、m3、m4)のうち対応する層の映像用い、CT映像及びMRI映像両方とも同一の層の映像を用いる。例えば、第3変換モジュール233の学習のために用いられる映像はCT映像及びMRI映像両方とも第3層映像m3である。このように、脳の映像を複数の領域に分け、特化した学習を行えるので、より正確な変換結果を提供することが可能である。
続いて、後処理部250は、ステップS850で変換したMRI映像に対して後処理を行う。後処理は、イメージの品質を向上させるためのデコンボリューション処理を含む。このようなステップS850の後処理は必要に応じて省略可能である。
次に、評価部260は、ステップS860で変換部240によって変換されたMRI映像を検証する。評価部260は、入力された映像、即ち変換部240によって変換されたMRI映像がMRI映像である確率とCT映像である確率を算出する。評価部260は、MRI映像である確率が前もって設定した数値以上であれば当該映像の検証に成功したものとして判断する。検証に成功すると、評価部260は、ステップS870で当該MRI映像を出力する。
図9は、CT映像とMRI映像のペアドデータの生成を説明するためのイメージである。
理想的なペアドデータは、同一の患者の同一の部位(位置及び構造)を同一の時刻に撮影したCT映像とMRI映像のペアであると言えるが、実際にはこのようなペアドデータは存在しない。従って、時間をおいて同一の患者の同一の位置及び構造を撮影したCT映像とMRI映像をペアドデータであると言える。
このようなペアドデータと言っても、大体の場合は図9の上方に示すように、CT映像とMRI映像の角度がわずかに異なるので、これらをオーバレイしたときに望む結果を得られない場合がある。
このようなペアドデータを互いに整列させることで、図9の下方に示すように、望むCT映像とMRI映像のペアドデータを得ることができる。
図9に示す例では、同一の患者のCT映像とMRI映像が相互情報に基づいてアピン変換を用いて整列される。図9に示すように、処理後のCT映像とMRI映像は、空間及び時間的に整列されているのが分かる。
図10は、ペアドデータとアンペアドデータを用いた複合サイクル一致構造(Dual Cycle−Consistent Structure)の例を示す概略図である。
図10で、ICTはCT映像を表し、IMRはMRI映像を表し、Synは合成ネットワーク(Synthetic Network)を表し、Disは判別子ネットワーク(Discriminator Network)を表す。
図10で、(a)は順方向アンペアドデータサイクルを表し、(b)は逆方向アンペアドデータサイクルを表し、(c)は順方向ペアドデータサイクルを表し、(d)は逆方向ペアドデータサイクルを表す。
順方向アンペアドデータサイクルで、入力CT映像は合成ネットワークSynMRによってMRI映像に変換される。合成されたMRI映像は、オリジナルCT映像を近似するCT映像に変換され、DisMRは実際MRI映像と合成MRI映像を区別するように学習される。
逆方向アンペアドデータサイクルでは、反対にSynCTによって入力MRI映像からCT映像が合成される。SynMRが合成されたCT映像からMRI映像を再構成し、DisCTは実際CT映像と合成CT映像を区別するように学習される。
順方向ペアドデータサイクルと逆方向ペアドデータサイクルはそれぞれ順方向アンペアドデータサイクルと逆方向アンペアドデータサイクルと同様に作用する。但し、順方向ペアドデータサイクルと逆方向ペアドデータサイクルでDisMRとDisCTは単に実際映像と合成映像を区別するのにとどまらないで、実際映像と合成映像ペアを分類するように学習される。さらに、ペアドデータサイクルでは合成映像と基準映像間のvoxel−wise損失が含まれる。
図11は、上記のように学習された変換モジュールを用いてCT映像をMRI映像に変換したときに、入力CT映像、合成MRI映像、参照MRI映像、及び実際MRI映像と合成MRI映像との絶対誤差を示すイメージである。
図11は、左側から入力CT映像、合成MRI映像、参照MRI映像、及び実際MRI映像と合成MRI映像間の絶対誤差を示す。
図12は、入力CT映像、ペアドデータ、アンペアドデータ、及びペアドデータとアンペアドデータを用いた場合の合成MRI映像、及び参照MRI映像を示すイメージである。
図12は、左側から入力CT映像、ペアド学習を用いて合成したMRI映像、アンペアド学習を用いて合成したMRI映像、ペアドとアンペアド学習両方を用いて合成したMRI映像、及び参照MRI映像を示す。
図12に示すように、ペアドデータのみを用いる場合、内容の面では充実な結果を得ることができるが、構造的な面では満足できる結果を得ることができないことが分かる。一方、アンペアドデータのみを用いる場合、構造的な面では充実な結果を得ることができるが、内容的な面では満足できる結果を得ることができないことが分かる。
ペアドデータとアンペアドデータを両方用いた学習は、図12の左から4番目のイメージに示すように、内容と構造両方とも満足できる結果が得られることが分かる。
図13は、本発明の少なくとも一つの実施例に係る診断映像撮影装置1700の機能ブロック図である。
図13に示すように、本発明の少なくとも一つの実施例に係る診断映像撮影装置1700は、CT撮影のためのX線を発生させるX線発生装置1710、X線発生装置1710から発生して人体を透過したX線を検出し、検出したX線を電気信号に変換し、変換された電気信号から映像データを取得するデータ取得装置1720、データ取得装置1720が取得した映像データからCT映像を構成して出力する映像構成装置1730、映像構成装置1730が構成したCT映像を受け、MRI映像に変換して出力する診断映像変換装置200、及びCT映像とMRI映像を表示するディスプレイ装置1750を備える。
診断映像撮影装置1700では、通常のCT撮影工程でX線発生装置1710から発生されたX線を用いて身体部位をスキャンし、映像構成装置1730が通常のCT映像を構成してディスプレイ装置1750に表示することができる。
さらに、診断映像撮影装置1700は、映像構成装置1730が構成したCT映像を診断映像変換装置200に入力し、CT映像をMRI映像に変換してディスプレイ装置1750に表示することができる。
本発明の少なくとも一つの実施例において、ディスプレイ装置1750は、映像構成装置1730が構成したCT映像と診断映像変換装置200が変換したMRI映像を必要に応じて選択的にまたは両方とも表示する。
このように、診断映像撮影装置1700は、CT撮影のみで、CT映像とMRI映像を同時に得ることができるので、緊急事態でより多くの人命を救うことができるのみならず、MRI撮影に必要な時間と費用を節約することができる。
前述した本発明の少なくとも一つの実施例に係る様々の方法は、様々なコンピューティング手段を介して読み取り可能なプログラムの形態で実現され、コンピューターで読み取り可能な記録媒体に格納することができる。ここで、記録媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。
記録媒体に記録されるプログラム命令は、本発明のために特別に設計及び構成されたものであっても良いし、またはコンピューターソフトウェアの当業者に公知で使用可能なものであっても良い。
例えば、記録媒体は、ハードディスク、フロッピーディスク、及び磁気テープのような磁気媒体(Magnetic Media)、CD−ROM、DVDのような光記録媒体(Optical Media)、フロプティカルディスク(Floptical Disk)のような磁気・光媒体(Magneto−optical Media)、及びロム(ROM)、ラム(RAM)、フラッシュメモリーのように、プログラム命令を格納して実行するように構成されたハードウェア装置を含む。
プログラム命令の例には、コンパイラーによって作成される機械語ワイヤーのみならず、インタープリターなどを用いてコンピューターによって実行可能な高級言語ワイヤーが含まれる。前述のようなハードウェア装置は本発明の動作を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成することができ、その逆も同様である。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換装置を提供することができる。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換モジュール生成装置を提供することができる。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像撮影装置を提供することができる。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換方法を提供することができる。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像変換モジュール生成方法を提供することができる。
本発明の少なくとも一つの実施例によれば、CT映像からMRI映像を得ることが可能な診断映像撮影方法を提供することができる。
本発明の少なくとも一つの実施例によれば、CT映像をMRI映像に変換し、緊急事態でより多くの命を救うことができるのみならず、MRI撮影に必要な時間と費用を節約することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
200:診断映像変換装置 210:入力部
220:前処理部 230:分類部
240:変換部 241:第1変換部
242:第2変換部 243:第3変換部
244:第4変換部 250:後処理部
260:評価部 270:出力部
G:MRI生成子 F:CT生成子
MD:MRI判別子 CD:CT判別子
MSL:MRI確率損失測定子 CSL:CT確率損失測定子
MLL:MRI基準損失測定子 CLL:CT基準損失測定子
図2に示すように、本発明の少なくとも一つの実施例に係る診断映像変換装置200は、入力部210、前処理部220、分類部230、変換モジュール(変換部)240、後処理部250、評価部260、及び出力部270で構成され、例えば、脳を撮影したCT映像をMRI映像に変換して提供する。
図4に示すように、変換部240は、第1変換モジュールないし第4変換モジュール241、242、243、244を含む。第1変換モジュールないし第4変換モジュール241、242、243、244は、それぞれ第1層映像ないし第4層映像m1、m2、m3、 m4に対応する。これによって、分類部230は、入力されるCT映像を第1層映像ないし第4層映像m1、m2、m3、 m4に分類した後、第1変換モジュールないし第4変換モジュール241、242、243、244のうち対応する変換モジュールに供給する。
第1変換モジュールないし第4変換モジュール241、242、243、244はそれぞれ人工神経網を含む。このような人工神経網は、GAN(Generative Adversarial Network)を含む。本発明の少なくとも一つの実施例に係る第1変換モジュールないし第4変換モジュール241、242、243、244のそれぞれに含まれる人工神経網の詳細構成を図5及び図6に示す。
第1変換モジュールないし第4変換モジュール241、242、243、244それぞれの人工神経網は、MRI生成子(G)、CT生成子(F)、MRI判別子(MD)、CT判別子(CD)、MRI確率損失測定子(MSL)、CT確率損失測定子(CSL)、MRI基準損失測定子(MLL)、及びCT基準損失測定子(CLL)を含む。
第1変換モジュールないし第4変換モジュール241、242、243、244のそれぞれの人工神経網が十分学習された変換部240は、第1層ないし第4層の映像m1、m2、m3、m4の何れか一つのCT映像が入力されると、第1変換モジュールないし第4変換モジュール241、242、243、244のうち対応するモジュールの人工神経網を介してMRI映像に変換する。このように変換されたMRI映像は後処理部250に供給される。
どのような学習データを入力した場合にも期待値と出力値との差が所定値以下で変動がなければ、十分学習されたものとして判断する。十分学習が行われた後、評価部260は、変換部240が変換したMRI映像がMRI映像であるか否かを判断するために用いられる。特に、評価部260は、変換部240の学習が十分行われているか否かを判断するために用いることができる。変換部240にCT映像を入力し、変換部240が出力した映像に対して評価部260がMRI映像である確率とCT映像である確率を出力するテスト過程を複数回繰り返す。このとき、繰り返すテスト過程で持続的にMRI映像である確率が所定値以上であれば、変換部240の学習が十分行われていると判断することができる。出力部270は変換部240が変換したMRI映像を出力する。
一方、他の実施例によると、前述した学習過程の終了は評価部260によって決定することができる。即ち、評価部260は、変換部240の学習が十分行われているか否かを判断するために用いることができる。変換部240にCT映像を入力し、変換部240が出力した映像に対して評価部260がMRI映像である確率とCT映像である確率を出力するテスト過程を複数回繰り返す。ことのき、繰り返すテスト過程で持続的にMRI映像である確率が所定値以上であれば、変換部20の学習が十分行われているものとして判断し、学習過程を終了することができる。
次に、分類部230は、ステップS830で入力されたCT映像を前もって設定した4つの分類のうちいずれか一つに分類し、変換部240の第1変換モジュールないし第4変換モジュール241、242、243、244のうち対応する変換モジュールに供給する。このとき、分類部230は、脳の最上段から眼球が現れる前までの映像を 第1層映像m1に分類し、眼球が現れ始め、側脳室が現れる前までの映像を第2層映像m2として分類し、側脳室が現れ始め、脳室が終わる前までの映像を第3層映像m3として分類し、脳室が終わった後、脳の最下段までの映像を第4層映像m4として分類する。
次に、変換部240は、ステップS840で分類部230が分類したCT映像を第1変換モジュールないし第4変換モジュール241、242、243、244のうち対応する変換モジュールを介してMRI映像に変換する。ここで、対応する変換モジュール(241、242、243、244のうち何れか一つ)は人工神経網を含み、このような人工神経網は図5ないし図7で説明したように、CT映像をMRI映像に変換するように学習されたものである。
特に、第1変換モジュールないし第4変換モジュール241、242、243、244それぞれの人工神経網の学習データとして用いられるCT映像及びMRI映像としては、図4で説明した第1層ないし第4層の映像(m1、m2、m3、m4)のうち対応する層の映像用い、CT映像及びMRI映像両方とも同一の層の映像を用いる。例えば、第3変換モジュール23の学習のために用いられる映像はCT映像及びMRI映像両方とも第3層映像m3である。このように、脳の映像を複数の領域に分け、特化した学習を行えるので、より正確な変換結果を提供することが可能である。

Claims (23)

  1. CT映像を入力するための入力部と、
    前記入力部を介して入力されたCT映像をMRI映像に変換する変換モジュールと、
    前記変換モジュールが変換したMRI映像を出力するための出力部と
    を備える、
    診断映像変換装置。
  2. 前記入力部を介して入力されたCT映像を、撮影された断層の位置によって分類する分類部をさらに備え、
    前記変換モジュールは、前記分類部によって分類されたCT映像をMRI映像に変換する、
    請求項1に記載の診断映像変換装置。
  3. 前記分類部は、前記CT映像を、撮影された断層の位置によって、
    脳の最上段から眼球が現れる前までの映像を第1層映像として分類し、
    眼球が現れ始め、側脳室が現れる前までの映像を第2層映像として分類し、
    側脳室が現れ始め、脳室が終わる前までの映像を第3層映像として分類し、
    脳室が終わった後、脳の最下段までの映像を第4層映像として分類する、
    請求項2に記載の診断映像変換装置。
  4. 前記変換モジュールは、
    前記第1層映像として分類されたCT映像をMRI映像に変換する第1変換モジュールと、
    前記第2層映像として分類されたCT映像をMRI映像に変換する第2変換モジュールと、
    前記第3層映像として分類されたCT映像をMRI映像に変換する第3変換モジュールと、
    前記第4層映像として分類されたCT映像をMRI映像に変換する第4変換モジュールと、
    を含む、
    請求項3に記載の診断映像変換装置。
  5. 前記入力部を介して入力されたCT映像に対し、正規化、グレー変換、及びサイズ調整のうち少なくとも一つを含む前処理を実行する前処理部をさらに備える、
    請求項1に記載の診断映像変換装置。
  6. 前記変換モジュールが変換したMRI映像に対し、デコンボリューションを含む後処理を実行する後処理部をさらに備える、
    請求項1に記載の診断映像変換装置。
  7. 前記変換モジュールが変換したMRI映像がCT映像である確率とMRI映像である確率を出力する評価部をさらに備える、
    請求項1に記載の診断映像変換装置。
  8. 請求項1に記載の診断映像変換装置の前記変換モジュールを生成するための診断映像変換モジュール生成装置であって、
    学習データであるCT映像が入力されると、複数の演算を行ってMRI映像を生成するMRI生成子と、
    学習データであるMRI映像が入力されると、複数の演算を行ってCT映像を生成するCT生成子と、
    前記MRI生成子が生成したMRI映像と学習データであるMRI映像を含む映像が入力されると、複数の演算を行って、入力された映像がMRI映像である確率とMRI映像でない確率を出力するMRI判別子と、
    前記CT生成子が生成したCT映像と学習データであるCT映像を含む映像が入力されると複数の演算を行って、入力された映像がCT映像である確率とCT映像でない確率を出力するCT判別子と、
    前記MRI判別子から出力される前記MRI映像である確率と前記MRI映像でない確率の期待値と出力値との差である確率損失を算出するMRI確率損失測定子と、
    前記CT判別子から出力される前記CT映像である確率と前記CT映像でない確率の期待値と出力値との差である確率損失を算出するCT確率損失測定子と、
    前記MRI生成子が生成したMRI映像と前記学習データであるMRI映像との差である基準損失を算出するMRI基準損失測定子と、
    前記CT生成子が生成したCT映像と前記学習データであるCT映像との差である基準損失を算出するCT基準損失測定子と、
    を備え、
    前記確率損失及び前記基準損失が最小になるように、逆伝搬(Back Propagation)アルゴリズムを用いて前記MRI生成子、前記CT生成子、前記MRI判別子、及び前記CT判別子に含まれた複数の演算の加重値を修正する、
    診断映像変換モジュール生成装置。
  9. ペアドデータとアンペアドデータを用いて前記確率損失及び前記基準損失が最小になるように逆伝搬アルゴリズムを用いて前記MRI生成子、前記CT生成子、前記MRI判別子、及び前記CT判別子に含まれた複数の演算の加重値を修正する、
    請求項8に記載の診断映像変換モジュール生成装置。
  10. CT撮影のためのX線を発生するX線発生装置と、
    前記X線発生装置から発生して人体を透過したX線を検出し、検出したX線を電気信号に変換し、変換された電気信号から映像データを取得するデータ取得装置と、
    前記データ取得装置が取得した前記映像データからCT映像を構成して出力する映像構成装置と、
    前記映像構成装置が構成した前記CT映像の入力を受け、MRI映像に変換して出力する請求項1ないし請求項7の何れか一項に記載の診断映像変換装置と、
    前記CT映像と前記MRI映像を表示するディスプレイ装置と、
    を備え、
    前記ディスプレイ装置は、前記CT映像と前記MRI映像を選択的に表示するか、または両方とも表示する、
    診断映像撮影装置。
  11. CT映像を入力する入力工程と、
    前記入力工程で入力されたCT映像をMRI映像に変換する変換工程と、
    前記変換工程で変換されたMRI映像を出力する出力工程と、
    を備える、
    診断映像変換方法。
  12. 前記入力工程で入力されたCT映像を、撮影された断層の位置によって分類する分類工程をさらに備え、
    前記変換工程は、前記分類工程で分類されたCT映像をMRI映像に変換する工程を含む、
    請求項11に記載の診断映像変換方法。
  13. 前記分類工程は、前記CT映像を、撮影された断層の位置によって、
    脳の最上段から眼球が現れる前までの映像を第1層映像として分類する工程と、
    眼球が現れ始め、側脳室が現れる前までの映像を第2層映像として分類する工程と、
    側脳室が現れ始め、脳室が終わる前までの映像を第3層映像として分類する工程と、
    脳室が終わった後、脳の最下段までの映像を第4層映像として分類する工程と
    を含む、
    請求項12に記載の診断映像変換方法。
  14. 前記変換工程は、
    前記第1層映像として分類されたCT映像をMRI映像に変換する第1変換工程と、
    前記第2層映像として分類されたCT映像をMRI映像に変換する第2変換工程と、
    前記第3層映像として分類されたCT映像をMRI映像に変換する第3変換工程と、
    前記第4層映像として分類されたCT映像をMRI映像に変換する第4変換工程と、
    を含む、
    請求項13に記載の診断映像変換方法。
  15. 前記入力工程で入力されたCT映像に対し、正規化、グレー変換、及びサイズ調整のうち少なくとも一つを含む前処理を実行する前処理工程をさらに備える、
    請求項11に記載の診断映像変換方法。
  16. 前記変換工程で変換したMRI映像に対し、デコンボリューションを含む後処理を実行する後処理工程をさらに備える、
    請求項11に記載の診断映像変換方法。
  17. 前記変換工程で変換したMRI映像がCT映像である確率とMRI映像である確率を出力する評価工程をさらに備える、
    請求項11に記載の診断映像変換方法。
  18. 請求項11に記載の診断映像変換方法の変換工程で用いられる変換モジュールを生成するための診断映像変換モジュール生成方法であって、
    学習データであるCT映像が入力されると、複数の演算を行ってMRI映像を生成するMRI生成工程と、
    学習データであるMRI映像が入力されると、複数の演算を行ってCT映像を生成するCT生成工程と、
    前記MRI生成工程で生成したMRI映像と学習データであるMRI映像を含む映像が入力されると、複数の演算を行って、入力された映像がMRI映像である確率とMRI映像でない確率を出力するMRI判別工程と、
    前記CT生成工程で生成したCT映像と学習データであるCT映像を含む映像が入力されると複数の演算を行って、入力された映像がCT映像である確率とCT映像でない確率を出力するCT判別工程と、
    前記MRI判別工程で出力される前記MRI映像である確率と前記MRI映像でない確率の期待値と出力値との差である確率損失を算出するMRI確率損失測定工程と、
    前記CT判別工程で出力される前記CT映像である確率と前記CT映像でない確率の期待値と出力値との差である確率損失を算出するCT確率損失測定工程と、
    前記MRI生成工程で生成したMRI映像と前記学習データであるMRI映像との差である基準損失を算出するMRI基準損失測定工程と、
    前記CT生成工程で生成したCT映像と前記学習データであるCT映像との差である基準損失を算出するCT基準損失測定工程と、
    前記確率損失及び前記基準損失が最小になるように、逆伝搬(Back Propagation)アルゴリズムを用いて前記MRI生成工程、前記CT生成工程、前記MRI判別工程、及び前記CT判別工程に含まれた複数の演算の加重値を修正する加重値修正工程と
    を備える、
    診断映像変換モジュール生成方法。
  19. 前記加重値修正工程は、ペアドデータとアンペアドデータを用いて前記確率損失及び前記基準損失が最小になるように逆伝搬アルゴリズムを用いて前記MRI生成工程、前記CT生成工程、前記MRI判別工程、及び前記CT判別工程に含まれた複数の演算の加重値を修正する工程を含む、
    請求項18に記載の診断映像変換モジュール生成方法。
  20. CT撮影のためのX線を発生するX線発生工程と、
    前記X線発生工程で発生して人体を透過したX線を検出し、検出したX線を電気信号に変換し、変換された電気信号から映像データを取得するデータ取得工程と、
    前記データ取得工程で取得した前記映像データからCT映像を構成して出力する映像構成工程と、
    前記映像構成工程で構成した前記CT映像の入力を受け、MRI映像に変換して出力する請求項1ないし請求項7の何れか一項に記載の診断映像変換方法を実行する診断映像変換工程と、
    前記CT映像と前記MRI映像を表示する映像表示工程と、
    を備え、
    前記映像表示工程は、前記CT映像と前記MRI映像を選択的に表示するか、または両方とも表示する工程を含む、
    診断映像撮影方法。
  21. 請求項11ないし請求項17の何れか一項に記載の診断映像変換方法を実行するプログラムを格納するコンピューター読み取り可能な記録媒体。
  22. 請求項18または請求項19に記載の診断映像変換モジュール生成方法を実行するプログラムを格納するコンピューター読み取り可能な記録媒体。
  23. 請求項20に記載の診断映像撮影方法を実行するプログラムを格納するコンピューター読み取り可能な記録媒体。
JP2018562523A 2017-11-17 2018-11-16 診断映像変換装置、診断映像変換モジュール生成装置、診断映像撮影装置、診断映像変換方法、診断映像変換モジュール生成方法、診断映像撮影方法、及びプログラム Pending JP2020503075A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020170154251A KR102036416B1 (ko) 2017-11-17 2017-11-17 진단 영상을 변환하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR10-2017-0154251 2017-11-17
PCT/KR2018/014151 WO2019098780A1 (ko) 2017-11-17 2018-11-16 진단 영상 변환 장치, 진단 영상 변환모듈 생성 장치, 진단 영상 촬영 장치, 진단 영상 변환 방법, 진단 영상 변환모듈 생성 방법, 진단 영상 촬영 방법, 및 컴퓨터 판독 가능한 기록매체
KR1020180141923A KR20200057463A (ko) 2018-11-16 2018-11-16 진단 영상 변환 장치, 진단 영상 변환모듈 생성 장치, 진단 영상 촬영 장치, 진단 영상 변환 방법, 진단 영상 변환모듈 생성 방법, 진단 영상 촬영 방법, 및 컴퓨터 판독 가능한 기록매체
KR10-2018-0141923 2018-11-16

Publications (1)

Publication Number Publication Date
JP2020503075A true JP2020503075A (ja) 2020-01-30

Family

ID=66539769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018562523A Pending JP2020503075A (ja) 2017-11-17 2018-11-16 診断映像変換装置、診断映像変換モジュール生成装置、診断映像撮影装置、診断映像変換方法、診断映像変換モジュール生成方法、診断映像撮影方法、及びプログラム

Country Status (3)

Country Link
US (1) US20210225491A1 (ja)
JP (1) JP2020503075A (ja)
WO (1) WO2019098780A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157847A (ja) * 2020-11-16 2021-10-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. 異常なナンバープレート認識方法、装置、デバイス及び読み取り可能な記憶媒体
JP7481916B2 (ja) 2020-06-16 2024-05-13 日本放送協会 画像変換用ネットワーク学習装置およびそのプログラム、ならびに、画像変換装置およびそのプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060462A1 (ja) * 2019-09-27 2021-04-01 富士フイルム株式会社 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
JP7406967B2 (ja) * 2019-11-29 2023-12-28 日本放送協会 画像変換用ネットワーク学習装置およびそのプログラム
TWI817884B (zh) * 2023-01-03 2023-10-01 國立中央大學 影像偵測系統及其運作方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041875A (ja) * 1990-04-19 1992-01-07 Fuji Photo Film Co Ltd 多層型ニューラルネットワークの係数格納装置
JP2008154680A (ja) * 2006-12-21 2008-07-10 Ge Medical Systems Global Technology Co Llc X線ct装置
WO2017141958A1 (ja) * 2016-02-15 2017-08-24 学校法人慶應義塾 脊柱配列推定装置、脊柱配列推定方法及び脊柱配列推定プログラム
JP2017174039A (ja) * 2016-03-23 2017-09-28 富士フイルム株式会社 画像分類装置、方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010016293A1 (ja) * 2008-08-08 2012-01-19 コニカミノルタエムジー株式会社 医用画像表示装置、医用画像表示方法及びプログラム
KR102049336B1 (ko) * 2012-11-30 2019-11-27 삼성전자주식회사 컴퓨터 보조 진단 장치 및 방법
KR101563153B1 (ko) * 2013-07-24 2015-10-26 삼성전자주식회사 의료 영상 신호 처리 방법 및 장치
KR102328269B1 (ko) * 2014-10-23 2021-11-19 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
KR102449837B1 (ko) * 2015-02-23 2022-09-30 삼성전자주식회사 신경망 학습 방법 및 장치, 및 인식 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041875A (ja) * 1990-04-19 1992-01-07 Fuji Photo Film Co Ltd 多層型ニューラルネットワークの係数格納装置
JP2008154680A (ja) * 2006-12-21 2008-07-10 Ge Medical Systems Global Technology Co Llc X線ct装置
WO2017141958A1 (ja) * 2016-02-15 2017-08-24 学校法人慶應義塾 脊柱配列推定装置、脊柱配列推定方法及び脊柱配列推定プログラム
JP2017174039A (ja) * 2016-03-23 2017-09-28 富士フイルム株式会社 画像分類装置、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JELMER M. WOLTERINK ET AL.: "Deep MR to CT Synthesis Using Unpaired Data", INTERNATIONAL WORKSHOP ON SIMULATION AND SYNTHESIS IN MEDICAL IMAGING, vol. 2017, JPN7019003749, 26 September 2017 (2017-09-26), pages 14 - 23, ISSN: 0004289225 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481916B2 (ja) 2020-06-16 2024-05-13 日本放送協会 画像変換用ネットワーク学習装置およびそのプログラム、ならびに、画像変換装置およびそのプログラム
JP2021157847A (ja) * 2020-11-16 2021-10-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. 異常なナンバープレート認識方法、装置、デバイス及び読み取り可能な記憶媒体

Also Published As

Publication number Publication date
US20210225491A1 (en) 2021-07-22
WO2019098780A1 (ko) 2019-05-23

Similar Documents

Publication Publication Date Title
JP2020503075A (ja) 診断映像変換装置、診断映像変換モジュール生成装置、診断映像撮影装置、診断映像変換方法、診断映像変換モジュール生成方法、診断映像撮影方法、及びプログラム
CN110047128B (zh) 从几个x射线放射照片3d重建x射线ct体积和分割掩模的方法和系统
US10346974B2 (en) Apparatus and method for medical image processing
CN110444277B (zh) 一种基于多生成多对抗的多模态脑部mri图像双向转换方法
CN109785243A (zh) 基于对抗生成网络未配准低剂量ct的去噪方法、计算机
KR20040102038A (ko) 이미지 픽셀 인코딩 방법, 이미지 처리 방법 및 하나이상의 이미지 픽셀들에 의해 재생된 객체의 특성 인식을위한 이미지 처리 방법
CN113808106B (zh) 一种基于深度学习的超低剂量pet图像重建系统及方法
JP2019216848A (ja) 医用画像処理装置、医用画像処理方法及びプログラム
CN110556177A (zh) 自动扫描工作流程
CN111462885B (zh) 扫描系统的扫描参数确定方法、装置、设备和存储介质
Emami et al. Attention-guided generative adversarial network to address atypical anatomy in synthetic CT generation
CN114881848A (zh) 一种多序列mr转ct的方法
CN116434918A (zh) 医学图像处理方法及计算机可读存储介质
KR102084138B1 (ko) 영상 처리 장치 및 방법
CN110270015A (zh) 一种基于多序列MRI的sCT生成方法
US20230214664A1 (en) Learning apparatus, method, and program, image generation apparatus, method, and program, trained model, virtual image, and recording medium
KR20200057463A (ko) 진단 영상 변환 장치, 진단 영상 변환모듈 생성 장치, 진단 영상 촬영 장치, 진단 영상 변환 방법, 진단 영상 변환모듈 생성 방법, 진단 영상 촬영 방법, 및 컴퓨터 판독 가능한 기록매체
JP2021019714A (ja) 画像処理装置、画像処理方法及びx線ct装置
EP2343687B1 (en) Tomographic image generating apparatus, tomographic image generating method, and program for generating tomographic images
KR20190117234A (ko) 인공신경망을 이용한 자기 공명 영상의 영상 프로토콜 선택 장치와 방법 및 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
CN110675357A (zh) 图像优化网络的训练和图像优化方法、装置及设备
Selçuk et al. Improving image synthesis quality in multi-contrast mri using transfer learning via autoencoders
KR102556432B1 (ko) 딥러닝 기반의 심장의 해부학적 분할을 위한 기준점 생성 및 분할 방법
KR102658413B1 (ko) Ct 영상을 이용한 인공지능 기반의 담도 영상 추출 장치 및 방법
CN109272486A (zh) Mr图像预测模型的训练方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200623