JP7437192B2 - 医用画像処理装置 - Google Patents

医用画像処理装置 Download PDF

Info

Publication number
JP7437192B2
JP7437192B2 JP2020036942A JP2020036942A JP7437192B2 JP 7437192 B2 JP7437192 B2 JP 7437192B2 JP 2020036942 A JP2020036942 A JP 2020036942A JP 2020036942 A JP2020036942 A JP 2020036942A JP 7437192 B2 JP7437192 B2 JP 7437192B2
Authority
JP
Japan
Prior art keywords
image data
data
contrast
time
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020036942A
Other languages
English (en)
Other versions
JP2020146455A (ja
Inventor
悠 五十嵐
正毅 渡辺
泰徳 本庄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2020146455A publication Critical patent/JP2020146455A/ja
Priority to JP2023134260A priority Critical patent/JP2023155314A/ja
Application granted granted Critical
Publication of JP7437192B2 publication Critical patent/JP7437192B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Hematology (AREA)
  • Vascular Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明の実施形態は、医用画像処理装置に関する。
医用分野では、超音波プローブの複数の振動子(圧電振動子)を用いて発生させた超音波を利用して、被検体内部を画像化する超音波診断装置が使用されている。超音波診断装置は、超音波診断装置に接続された超音波プローブから被検体内に超音波を送信させ、反射波に基づくエコー信号を生成し、画像処理によって所望の超音波画像を得る。
超音波診断装置を用いた造影検査では、造影剤注入後は、造影剤による腫瘍の染影の程度によって複数の時相帯に分類される。例えば、撮像部位が肝臓である場合、造影剤の注入開始からの経過時間に従って、早期血管相、動脈優位相、門脈優位相、及び後血管相等の時相帯に分類される。これら時相帯で得られた造影画像データや、異なる複数の時相帯で得られた複数の造影画像データにより、リアルタイムで、又は、保存画像による後処理で、腫瘍の確定診断が実施されている。
米国特許出願公開第2011/0282194号明細書
本発明が解決しようとする課題は、医師等の操作者の経験や主観によらない腫瘍の確定診断を可能にすることである。
実施形態に係る医用画像処理装置は、画像取得部と、処理部とを備える。画像取得部は、被検体の撮像により生成された造影画像データを取得する。処理部は、造影画像データに基づいて、当該造影画像データに含まれる病変部位の造影剤による染影状態により分類される時相帯情報を生成するための学習済みモデルに対して、造影画像データを入力することで、時相帯情報を生成する。
図1は、実施形態に係る医用画像処理装置を備えた超音波診断装置の構成を示す概略図。 図2は、実施形態に係る医用画像処理装置を備えた超音波診断装置の機能を示すブロック図。 図3は、実施形態に係る医用画像処理装置を備えた超音波診断装置の動作をフローチャートとして示す図。 図4(A)は、実施形態に係る医用画像処理装置における、学習時におけるデータフローの一例を示す説明図であり、図4(B)は、実施形態に係る医用画像処理装置における、トレーニングデータの例を表として示す図。 図5は、実施形態に係る医用画像処理装置における、運用時におけるデータフローの一例を示す説明図。 図6は、実施形態に係る医用画像処理装置における、造影画像データの動画像データへの関連付の概念を示す図。 図7(A)は、実施形態に係る医用画像処理装置における、第1の時相帯の場合の、学習時におけるデータフローの一例を示す説明図であり、図7(B)は、実施形態に係る医用画像処理装置における、第2の時相帯の場合の、学習時におけるデータフローの一例を示す説明図。 図8(A)は、実施形態に係る医用画像処理装置における、第1の時相帯の場合の、運用時におけるデータフローの一例を示す説明図であり、図8(B)は、実施形態に係る医用画像処理装置における、第2の時相帯の場合の、運用時におけるデータフローの一例を示す説明図。 図9(A)は、実施形態に係る医用画像処理装置における、学習時におけるデータフローの一例を示す説明図であり、図9(B)は、実施形態に係る医用画像処理装置における、トレーニングデータの例を表として示す図。 図10は、実施形態に係る医用画像処理装置を備えた超音波診断装置の機能を示すブロック図。 図11は、実施形態に係る医用画像処理装置を備えた超音波診断装置の動作をフローチャートとして示す図。 図12(A)は、実施形態に係る医用画像処理装置における、学習時におけるデータフローの一例を示す説明図であり、図12(B)は、実施形態に係る医用画像処理装置における、トレーニングデータの例を表として示す図。 図13は、実施形態に係る医用画像処理装置における、運用時におけるデータフローの一例を示す説明図。 図14は、実施形態に係る医用画像処理装置における、診断結果の表示例を示す図。 図15(A)は、実施形態に係る医用画像処理装置における、第1の時相帯以前に対応する複数の時相帯を組み合わせる場合の、学習時におけるデータフローの一例を示す説明図であり、図15(B)は、実施形態に係る医用画像処理装置における、第2の時相帯以前に対応する複数の時相帯を組み合わせる場合の、学習時におけるデータフローの一例を示す説明図。 図16(A)は、実施形態に係る医用画像処理装置における、第1の時相帯以前に対応する複数の時相帯を組み合わせる場合の、運用時におけるデータフローの一例を示す説明図であり、図16(B)は、実施形態に係る医用画像処理装置における、第2の時相帯以前に対応する複数の時相帯を組み合わせる場合の、運用時におけるデータフローの一例を示す説明図。 図17(A),(B)は、実施形態に係る医用画像処理装置における、時相の設定画面の一例を示す図。 図18は、実施形態に係る医用画像処理装置における、確定診断結果データの表示例を示す図。 図19は、実施形態に係る医用画像処理装置を備えた医用画像表示装置の構成を示す概略図。 図20は、実施形態に係る医用画像処理装置を備えた医用画像表示装置の機能を示すブロック図。
以下、図面を参照しながら、医用画像処理装置の実施形態について詳細に説明する。
実施形態に係る医用画像処理装置は、造影画像データを取得可能な医用画像生成装置(「モダリティ」とも呼ばれる)、例えば、超音波診断装置や、X線CT(Computed Tomography)装置や、MRI(Magnetic Resonance Imaging)装置等に備えられる。実施形態に係る医用画像処理装置は、医用画像生成装置(又は、医用画像管理装置)からネットワークを介して造影画像データを取得可能な医用画像表示装置、例えば、ワークステーション等に備えられる。又は、実施形態に係る医用画像処理装置は、医用画像生成装置(又は、医用画像管理装置)から可搬型記録媒体を介して造影画像データを取得可能なオフラインの医用画像表示装置に備えられる。
医用画像処理装置が、医用画像生成装置としての超音波診断装置に備えられる場合、肝臓の造影スキャンにより、造影剤注入後の時相帯を、複数の時相帯(例えば、早期血管相と、動脈優位相と、門脈優位相、後血管相等)に分類することができる。医用画像生成装置としてのX線CT装置に備えられる場合、肝臓の造影スキャンにより、造影剤注入後の時相帯を、複数の時相帯(例えば、動脈優位相と、門脈優位相と、平衡相等)に分類することができる。また、医用画像処理装置が、医用画像生成装置としてのMRI装置に備えられる場合、肝臓の造影スキャンにより、造影剤注入後の時相帯を、複数の時相帯(例えば、ダイナミック相と、肝細胞造影相等)に分類することができる。
以下、第1~第8の実施形態において、医用画像処理装置が超音波診断装置に備えられる場合を例にとって説明する。第9の実施形態において、医用画像処理装置が医用画像表示装置に備えられる場合を例にとって説明する。
また、撮像部位が肝臓である場合について説明する。しかしながら、その場合に限定されるものではない。例えば、撮像部位は、病変部位の造影剤による特定の染影状態を特定し得る乳腺、膵臓等の組織であってもよい。
1.第1の実施形態に係る医用画像処理装置
図1は、第1の実施形態に係る医用画像処理装置を備えた超音波診断装置の構成を示す概略図である。
図1は、第1の実施形態に係る医用画像処理装置を備えた超音波診断装置10を示す。また、図1は、超音波プローブ20と、入力インターフェース30と、ディスプレイ40とを示す。なお、超音波診断装置10に、超音波プローブ20と、入力インターフェース30と、ディスプレイ40とのうちの少なくとも1個を加えた装置を超音波診断装置と称する場合もある。以下の説明では、超音波診断装置の外部に、超音波プローブ20と、入力インターフェース30と、ディスプレイ40との全てが備えられる場合について説明する。
超音波診断装置10は、送受信回路11と、Bモード処理回路12と、ドプラ処理回路13と、画像生成回路14と、画像メモリ15と、ネットワークインターフェース16と、処理回路17と、メインメモリ18とを備える。回路11~14は、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)等によって構成されるものである。しかしながら、その場合に限定されるものではなく、回路11~14の機能の全部又は一部は、処理回路17がプログラムを実行することで実現されるものであってもよい。また、処理回路17と、メインメモリ18とにより、第1の実施形態に係る医用画像処理装置M1が構成される。なお、処理回路17と、メインメモリ18とに、入力インターフェース30と、ディスプレイ40との少なくとも一方を加えたものにより、第1の実施形態に係る医用画像処理装置M1が構成されてもよい。
送受信回路11は、送信回路と受信回路とを有する(図示省略)。送受信回路11は、処理回路17による制御の下、超音波の送受信における送信指向性と受信指向性とを制御する。なお、送受信回路11が超音波診断装置10に設けられる場合について説明するが、送受信回路11は、超音波プローブ20に設けられてもよいし、超音波診断装置10と超音波プローブ20との両方に設けられてもよい。なお、送受信回路11は、送受信部の一例である。
送信回路は、パルス発生回路と、送信遅延回路と、パルサ回路等を有し、超音波振動子に駆動信号を供給する。パルス発生回路は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。送信遅延回路は、超音波プローブ20の超音波振動子から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルス発生回路が発生する各レートパルスに対し与える。また、パルサ回路は、レートパルスに基づくタイミングで、超音波振動子に駆動パルスを印加する。送信遅延回路は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面から送信される超音波ビームの送信方向を任意に調整する。
受信回路は、アンプ回路と、A/D(Analog to Digital)変換器と、加算器等を有し、超音波振動子が受信したエコー信号を受け、このエコー信号に対して各種処理を行ってエコーデータを生成する。アンプ回路は、エコー信号をチャンネル毎に増幅してゲイン補正処理を行う。A/D変換器は、ゲイン補正されたエコー信号をA/D変換し、デジタルデータに受信指向性を決定するのに必要な遅延時間を与える。加算器は、A/D変換器によって処理されたエコー信号の加算処理を行ってエコーデータを生成する。加算器の加算処理により、エコー信号の受信指向性に応じた方向からの反射成分が強調される。
Bモード処理回路12は、処理回路17による制御の下、受信回路からエコーデータを受信し、対数増幅、及び包絡線検波処理等を行って、信号強度が輝度の明るさで表現されるデータ(2D又は3Dデータ)を生成する。このデータは、一般に、Bモードデータと呼ばれる。なお、Bモード処理回路12は、Bモード処理部の一例である。
なお、Bモード処理回路12は、フィルタ処理により、検波周波数を変化させることで、画像化する周波数帯域を変えることができる。Bモード処理回路12のフィルタ処理機能を用いることにより、コントラストハーモニックイメージング(CHI:Contrast Harmonic Imaging)や、ティッシュハーモニックイメージング(THI:Tissue Harmonic Imaging)等のハーモニックイメージングを実行可能である。すなわち、Bモード処理回路12は、造影剤が注入された被検体の反射波データから、造影剤(微小気泡、バブル)を反射源とするハーモニック成分の反射波データ(高調波データ又は分周波データ)と、被検体内の組織を反射源とする基本波成分の反射波データ(基本波データ)とを分離することができる。Bモード処理回路12は、また、ハーモニック成分の反射波データ(受信信号)から、造影画像データを生成するためのBモードデータを生成することができ、また、基本波成分の反射波データ(受信信号)から、基本波(ファンダメンタル)画像データを生成するためのBモードデータを生成することができる。
ドプラ処理回路13は、処理回路17による制御の下、受信回路からのエコーデータから速度情報を周波数解析し、平均速度、分散、パワー等の移動体の移動情報を多点について抽出したデータ(2D又は3Dデータ)を生成する。このデータは、一般に、ドプラデータと呼ばれる。ここで、移動体とは、例えば、血流や、心壁等の組織、造影剤である。なお、ドプラ処理回路13は、ドプラ処理部の一例である。
画像生成回路14は、処理回路17による制御の下、超音波プローブ20が受信したエコー信号に基づいて、所定の輝度レンジで表現された超音波画像データを生成する。例えば、画像生成回路14は、超音波画像データとして、Bモード処理回路12によって生成された2DのBモードデータから反射波の強度を輝度にて表した2DのBモード画像データを生成する。また、画像生成回路14は、超音波画像として、ドプラ処理回路13によって生成された2Dのドプラデータから移動態情報を表す平均速度画像、分散画像、パワー画像、又は、これらの組み合わせ画像としての2Dのカラードプラ画像データを生成する。以下、2DのBモード画像データや、2Dのカラードプラ画像データ等の2Dの超音波画像データを、単に「2D画像データ」と呼ぶ。
ここで、画像生成回路14は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の画像データを生成する。具体的には、画像生成回路14は、超音波プローブ20による超音波の走査形態に応じて座標変換を行なうことで、表示用の画像データを生成する。また、画像生成回路14は、スキャンコンバート以外に、種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成回路14は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。
すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の画像データであり、画像生成回路14が生成するデータは、スキャンコンバート処理後の表示用の画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像生成回路14は、スキャンコンバート処理前の2D画像データから、表示用の2D画像データを生成する。
更に、画像生成回路14は、Bモード処理回路12によって生成された3DのBモードデータに対して座標変換を行なうことで、3DのBモード画像データを生成する。また、画像生成回路14は、ドプラ処理回路13によって生成された3Dのドプラデータに対して座標変換を行なうことで、3Dのドプラ画像データを生成する。画像生成回路14は、3DのBモード画像データや3Dドプラ画像データを3Dの超音波画像データ(ボリュームデータ)として生成する。
さらに、画像生成回路14は、3D画像データをディスプレイ40にて表示するための各種の2D画像データを生成するために、3D画像データに対してレンダリング処理を行なう。また、画像生成回路14は、レンダリング処理として、例えば、3Dの情報を反映した2D画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理を行う。また、画像生成回路14は、断面再構成法(MPR:Multi Planer Reconstruction)を行なって3D画像データからMPR画像データを生成する処理を行う。なお、画像生成回路14は、画像生成部の一例である。
画像メモリ15は、1フレーム当たり2軸方向に複数のメモリセルを備え、それを複数フレーム分備えたメモリである2次元メモリを含む。画像メモリ15としての2次元メモリは、処理回路17の制御による制御の下、画像生成回路14によって生成された1フレーム、又は、複数フレームに係る2D画像データを記憶する。なお、画像メモリ15は、記憶部の一例である。
画像生成回路14は、処理回路17による制御の下、画像メモリ15としての2次元メモリに配列された2D画像データに対し、必要に応じて補間処理を行う3次元再構成を行うことで、画像メモリ15としての3次元メモリ内に2D画像データを3D画像データとして生成する。補間処理方法としては、公知の技術が用いられる。
画像メモリ15は、3軸方向(X軸、Y軸、及びZ軸方向)に複数のメモリセルを備えたメモリである3次元メモリを含む場合もある。画像メモリ15としての3次元メモリは、処理回路17の制御による制御の下、画像生成回路14によって生成された2D画像データを3D画像データとして記憶する。
ネットワークインターフェース16は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装する。ネットワークインターフェース16は、この各種プロトコルに従って、超音波診断装置10と、外部の医用画像管理装置60及び医用画像表示装置70等の他の機器とを接続する。この接続には、電子ネットワークを介した電気的な接続等を適用することができる。ここで、電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線の病院基幹のLAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワーク及び衛星通信ネットワーク等を含む。
また、ネットワークインターフェース16は、非接触無線通信用の種々のプロトコルを実装してもよい。この場合、超音波診断装置10は、例えば超音波プローブ20と、ネットワークを介さず直接にデータ送受信することができる。なお、ネットワークインターフェース16は、ネットワーク接続部の一例である。
処理回路17は、専用又は汎用のCPU(Central Processing Unit)、MPU(Micro Processor Unit)、又はGPU(Graphics Processing Unit)の他、ASIC、及び、プログラマブル論理デバイス等を意味する。プログラマブル論理デバイスとしては、例えば、単純プログラマブル論理デバイス(SPLD:Simple Programmable Logic Device)、複合プログラマブル論理デバイス(CPLD:Complex Programmable Logic Device)、及び、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)等が挙げられる。
また、処理回路17は、単一の回路によって構成されてもよいし、複数の独立した回路要素の組み合わせによって構成されてもよい。後者の場合、メインメモリ18は回路要素ごとに個別に設けられてもよいし、単一のメインメモリ18が複数の回路要素の機能に対応するプログラムを記憶するものであってもよい。
メインメモリ18は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスク、光ディスク等によって構成される。メインメモリ18は、USB(Universal Serial Bus)メモリ及びDVD(Digital Video Disk)等の可搬型メディアによって構成されてもよい。メインメモリ18は、処理回路17において用いられる各種処理プログラム(アプリケーションプログラムの他、OS(Operating System)等も含まれる)や、プログラムの実行に必要なデータを記憶する。また、OSに、操作者に対するディスプレイ40への情報の表示にグラフィックを多用し、基礎的な操作を入力インターフェース30によって行うことができるGUI(Graphical User Interface)を含めることもできる。なお、メインメモリ18は、記憶部の一例である。
超音波プローブ20は、前面部に複数個の微小な振動子(圧電素子)を備え、撮像部位を含む領域に対して超音波の送受波を行う。各振動子は電気音響変換素子であり、送信時には電気パルスを超音波パルスに変換し、また、受信時には反射波を電気信号(受信信号)に変換する機能を有する。超音波プローブ20は小型、軽量に構成されており、ケーブル(又は無線通信)を介して超音波診断装置10に接続される。
超音波プローブ20は、スキャン方式の違いにより、リニア型、コンベックス型、及びセクタ型等の種類に分けられる。また、超音波プローブ20は、アレイ配列次元の違いにより、アジマス方向に1次元(1D)的に複数個の振動子が配列された1Dアレイプローブと、アジマス方向かつエレベーション方向に2次元(2D)的に複数個の振動子が配列された2Dアレイプローブとの種類に分けられる。なお、1Dアレイプローブは、エレベーション方向に少数の振動子が配列されたプローブを含む。
ここで、パノラミックスキャン等の撮像が実行される場合、超音波プローブ20として、リニア型、コンベックス型、及びセクタ型等のスキャン方式を備えた2Dアレイプローブが利用される。又は、撮像が実行される場合、超音波プローブ20として、リニア型、コンベックス型、及びセクタ型等のスキャン方式を備え、エレベーション方向に機械的に揺動する機構を備えた1Dプローブが利用される。後者のプローブは、メカ4Dプローブとも呼ばれる。
入力インターフェース30は、操作者によって操作が可能な入力デバイスと、入力デバイスからの信号を入力する入力回路とを含む。入力デバイスは、トラックボール、スイッチ、マウス、キーボード、操作面に触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一化されたタッチスクリーン、光学センサを用いた非接触入力デバイス、及び音声入力デバイス等によって実現される。操作者により入力デバイスが操作されると、入力回路はその操作に応じた信号を生成して処理回路17に出力する。なお、入力インターフェース30は、入力部の一例である。
ディスプレイ40は、例えば液晶ディスプレイやOLED(Organic Light Emitting Diode)ディスプレイ等の一般的な表示出力装置により構成される。ディスプレイ40は、処理回路17の制御に従って各種情報を表示する。なお、ディスプレイ40は、表示部の一例である。
また、図1は、超音波診断装置10の外部機器である医用画像管理装置60及び医用画像表示装置70を示す。医用画像管理装置60は、例えば、DICOM(Digital Imaging and Communications in Medicine)サーバであり、ネットワークNを介してデータ送受信可能に超音波診断装置10等の機器に接続される。医用画像管理装置60は、超音波診断装置10によって生成された超音波画像等の医用画像をDICOMファイルとして管理する。
医用画像表示装置70は、ネットワークNを介してデータ送受信可能に超音波診断装置10や医用画像管理装置60等の機器に接続される。医用画像表示装置70としては、例えば、超音波診断装置10によって生成された超音波画像に対して各種画像処理を施すワークステーションや、タブレット端末等の携帯型情報処理端末等が挙げられる。なお、医用画像表示装置70はオフラインの装置であって、超音波診断装置10によって生成された超音波画像を可搬型の記憶媒体を介して読み出し可能な装置であってもよい。
続いて、医用画像処理装置M1を備えた超音波診断装置10の機能について説明する。
図2は、医用画像処理装置M1を備えた超音波診断装置10の機能を示すブロック図である。
処理回路17は、メインメモリ18に記憶された、又は、処理回路17内に直接組み込まれたプログラムを読み出して実行することで、画像取得機能171と、必要性情報生成機能172と、保存制御機能173とを実現する。以下、機能171~173がソフトウェア的に機能する場合を例に挙げて説明するが、機能171~173の全部又は一部は、超音波診断装置10にASIC等の回路等として設けられるものであってもよい。
画像取得機能171は、送受信回路11と、Bモード処理回路12と、ドプラ処理回路13と、画像生成回路14等を制御して、超音波プローブ20を用いた超音波撮像を実行させて時系列で複数の超音波画像データ(例えば、造影画像データ)を取得する機能を含む。画像取得機能171は、画像取得部の一例である。
ここで、各造影画像データに、当該造影画像データに含まれる病変部位の造影剤による染影状態により分類される時相帯に関する情報(以下、「時相帯」又は「時相帯情報」と称する)を紐づけることも可能である。時相帯情報は、一般的には、造影剤の注入開始を基準とした経過時間に応じて分類されるものだからである。ここで、時相帯情報とは、早期血管相と、動脈優位相と、門脈優位相と、後血管相等を意味する。
必要性情報生成機能172は、各時相帯に係る複数の造影画像データの中の、腫瘍の確定診断で必要となる造影画像データに基づいて、保存の必要性に関する情報(必要性情報)を生成するための学習済みモデルに対して、被検体の造影画像データを入力することで、被検体の造影画像データの保存の必要性情報を生成する機能を含む。なお、必要性情報生成機能172は、処理部の一例である。
保存制御機能173は、必要性情報生成機能172によって生成された必要性情報に従って、被検体の当該造影画像データのメインメモリ18への保存を制御する機能を含む。また、保存制御機能173は、超音波撮像により生成された被検体の複数フレームの造影画像データのうち、保存の必要があると判断された造影画像データを、複数フレームの造影画像データからなる動画像データと関連付けてメインメモリ18に保存する機能を有することが好適である。その場合、超音波診断装置10や医用画像表示装置70で動画像データを参照する医師等の操作者は、抽出されたフレームの造影画像データを容易に参照することができる。なお、保存制御機能173は、保存制御部の一例である。
機能171~173の詳細については、図3~図9を用いて説明する。
図3は、医用画像処理装置M1を備えた超音波診断装置10の動作をフローチャートとして示す図である。図3において、「ST」に数字を付した符号はフローチャートの各ステップを示す。
まず、画像取得機能171は、造影剤の注入を開始し(ステップST1)、送受信回路11と、Bモード処理回路12と、ドプラ処理回路13と、画像生成回路14等を制御して、超音波プローブ20を用いた超音波撮像(例えば、CHI(Contrast Harmonic Imaging))を開始させる(ステップST2)。画像取得機能171は、画像生成回路14等を制御して、造影画像データを生成して画像メモリ15に記憶させる(ステップST3)。また、画像取得機能171は、ステップST3によって生成された造影画像データをディスプレイ40にライブ表示させる(ステップST4)。
必要性情報生成機能172は、ステップST3によって生成された最新フレームの造影画像データに基づいて、当該造影画像データの保存に関する必要性情報を生成する(ステップST5)。ここで、各造影画像データに、「時相帯情報」を紐づけることも可能である。
ここで、必要性情報生成機能172は、造影画像データに基づいて当該造影画像データの保存に関する必要性情報を生成する処理を行うものである。この処理には、例えば造影画像データと保存に関する必要性情報とを関連付けたルックアップテーブル(LUT)が用いられてもよい。また、この処理には、機械学習が用いられてもよい。また、機械学習としてCNN(畳み込みニューラルネットワーク)や畳み込み深層信念ネットワーク(CDBN:Convolutional Deep Belief Network)等の、多層のニューラルネットワークを用いた深層学習が用いられてもよい。
第1の実施形態の説明では、必要性情報生成機能172がニューラルネットワークN1を含み、深層学習を用いて、造影画像データに基づいて、当該造影画像データの保存に関する必要性情報を生成する場合の例を示す。
図4(A)は、学習時におけるデータフローの一例を示す説明図である。図4(B)は、トレーニングデータの例を表として示す図である。なお、図4(B)では、各造影画像データに、当該造影画像データに含まれる病変部位の造影剤による染影状態により分類される時相帯情報が紐づけられている。必要性情報生成機能172が、画像取得機能171で順次取得される複数の造影画像データについて、略リアルタイム(又は、ライブ)で必要性情報を生成する場合、各造影画像データに時相帯情報を紐付けることができる。なお、「略リアルタイム」は、超音波の送信と同時に超音波画像を生成(又は、表示)する場合に加え、超音波の送信から超音波画像を生成(又は、表示)するまでの処理時間の分だけ、超音波の送信から超音波画像を生成(又は、表示)するまでにタイムラグがある場合を含む。
必要性情報生成機能172は、トレーニングデータが多数入力されて学習を行うことにより、パラメータデータP1を逐次的に更新する。トレーニングデータは、トレーニング入力データとしての造影画像データS1,S2,S3,…と、必要性情報T1,T2,T3,…との組みからなる。造影画像データS1,S2,S3,…は、トレーニング入力データ群Sを構成する。必要性情報T1,T2,T3,…は、トレーニング出力データ群Tを構成する。
必要性情報生成機能172は、トレーニングデータが入力されるごとに、造影画像データS1,S2,S3,…をニューラルネットワークN1で処理した結果が必要性情報T1,T2,T3,…に近づくようにパラメータデータP1を更新していく、いわゆる学習を行う。一般に、パラメータデータP1の変化割合が閾値以内に収束すると、学習は終了と判断される。以下、学習後のパラメータデータP1を特に学習済みパラメータデータP1´(図5に図示)という。
なお、トレーニング入力データの種類と図5に示す運用時の入力データの種類は一致させるべきことに注意する。例えば、運用時の入力データが被検体の造影画像データである場合は、学習時のトレーニング入力データ群Sもまた、造影画像データとする。
また、「画像データ」は、超音波診断装置等の医用画像生成装置が生成する生データを含む。すなわち、ニューラルネットワークN1の入力データは、スキャンコンバート前の生データであってもよい。
図5は、運用時におけるデータフローの一例を示す説明図である。
運用時には、必要性情報生成機能172は、学習済みモデルD1に、診断対象となる被検体の造影画像データSaを入力し、学習済みパラメータデータP1´を用いて被検体の造影画像データの保存に関する必要性情報Taを出力する。
なお、ニューラルネットワークN1と学習済みパラメータデータP1´は、学習済みモデルD1を構成する。ニューラルネットワークN1は、プログラムの形態でメインメモリ18に記憶される。学習済みパラメータデータP1´は、メインメモリ18に記憶されてもよいし、ネットワークNを介して超音波診断装置10と接続された記憶媒体に記憶されてもよい。この場合、処理回路17のプロセッサにより実現される必要性情報生成機能172は、メインメモリ18から学習済みモデルD1を読み出して実行することで、造影画像データに基づいて、保存に関する必要性情報を生成する。なお、学習済みモデルD1は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路によって構築されてもよい。
なお、必要性情報生成機能172を含む学習済みモデルD1が出力する被検体の造影画像データの保存に関する必要性情報Taは、例えば、必要「1」か不要「0」かのいずれかを示すデータであればよい。
また、必要性情報生成機能172による判断精度を向上させるように、入力データとして、造影画像データに加えて、撮影対象の身長、体重、既往歴、及び血縁者の病歴の少なくとも1つを含む識別情報を用いてもよい。
この場合、学習時には、トレーニング入力データとしての造影画像データS1,S2,S3,…のそれぞれの撮影対象者の識別情報も、トレーニング入力データとしてニューラルネットワークN1に入力する。運用時には、必要性情報生成機能172は、メインメモリ18から読み出した学習済みモデルD1に対して診断対象となる被検体の造影画像データSaと共に被検体の識別情報を入力することで、被検体の造影画像データの保存に関する必要性情報Taを出力する。入力データとして造影画像データと撮影対象者の識別情報とを用いることで、撮影対象者のタイプに応じた学習を行った学習済みパラメータデータP1´を生成することができるため、造影画像データのみを入力データとする場合に比べて診断精度を向上させることができる。
図3の説明に戻って、保存制御機能173は、ステップST5によって生成された保存に関する必要性情報に従って、ステップST3によって生成された造影画像データの保存の必要があるか否かを判断する(ステップST6)。ステップST6の判断にてYES、つまり、ステップST3によって生成された造影画像データの保存の必要があると判断された場合、保存制御機能173は、ステップST3によって生成された造影画像データをメインメモリ18に保存する(ステップST7)。ステップST7の保存は、ステップST3による記憶とは別に行われる。なお、保存制御機能173は、保存の必要があると判断された造影画像データを、複数フレームの造影画像データからなる動画像データと関連付けてメインメモリ18に保存する機能を有することが好適である。
図6は、造影画像データの動画像データへの関連付の概念を示す図である。
図6に示すように、保存に関する必要性ありと判断された被検体の造影画像データは、複数フレームの造影画像データからなる動画像データと関連付けてメインメモリ18に保存される。各時相帯において少なくとも1つの造影画像データについて保存の必要ありと判断されることが好適である。
図3の説明に戻って、ステップST7の後と、ステップST6の判断にてNO、つまり、ステップST3によって生成された造影画像データの保存の必要がないと判断された場合、画像取得機能171は、ステップST2によって開始された超音波撮像を終了するか否かを判断する(ステップST8)。
ステップST8の判断にてNO、即ち、ステップST2によって開始された超音波撮像を終了しないと判断された場合、画像取得機能171は、画像生成回路14等を制御して、次のフレームについて、造影画像データを生成して画像メモリ15に記憶させる(ステップST3)。つまり、超音波撮像が継続される。
一方で、ステップST8の判断にてYES、即ち、ステップST2によって開始された超音波撮像を終了すると判断された場合、画像取得機能171は、操作者が入力インターフェース30を介して終了指示を行ったと判断して、超音波撮像を終了させる。
つまり、図3に示すフローチャートによると、超音波診断装置10は、ステップST3~ST8のセットを繰り返すことで、フレームごとに、保存に関する必要性情報を生成して、それに従った保存を行うことになる。
なお、造影画像データは、1フレーム画像データである場合に限定されるものではない。造影画像データは、連続する複数のフレームによって構成される動画像データであってもよい。その場合、現在までの複数の造影画像データからなる動画像データをトレーニング入力データとし、診断対象となる被検体の動画像データを造影画像データSaとして学習済みモデルD1の入力とする。これにより、造影剤に含まれるバブルの動的な動きを学習することができる。
また、図3に示すフローチャートによれば、必要性情報生成機能172は、連続する各フレームの造影画像データが生成される度に必要性情報を生成することになるが、その場合に限定されるものではない。例えば、必要性情報生成機能172は、一定のフレーム間隔をおいて生成された各フレームの造影画像データが生成される度に必要性情報を生成してもよいし、各時相帯の最初の1フレームの造影画像データが生成される度に必要性情報を生成してもよい。
医用画像処理装置M1によれば、フレーム全体の動画像データとは別に診断に必要と推測される造影画像データを保存することにより、保存画像による後処理で、医師等の操作者の経験や主観によらない腫瘍の確定診断を可能にすると共に、診断時間の短縮を実現することができる。
2.第2の実施形態に係る医用画像処理装置
前述の第1の実施形態では、時相帯を問わず、1つのニューラルネットワークを構成するもの、つまり、必要性情報生成機能172が、1個の学習済みモデルに対して、各時相帯に係る被検体の造影画像データを入力することで、各時相帯に係る被検体の造影画像データの保存に関する必要性情報を生成するものとして説明した。しかしながら、その場合に限定されるものではない。
例えば、時相帯ごとに1つのニューラルネットワークを構成するもの、つまり、必要性情報生成機能172が、複数の時相帯に対応する複数の学習済みモデルのうち時相帯が対応する学習済みモデルに対して、被検体の造影画像データを入力することで、被検体の造影画像データの保存に関する必要性情報を生成するものであってもよい。その場合を、第2の実施形態に係る医用画像処理装置M2(図1及び図2に図示)として説明する。
医用画像処理装置M2の構成及び機能は、図1及び図2に示すものと同等であり、医用画像処理装置M2の動作は、図3に示すものと同等であるので、説明を省略する。
図2に示す必要性情報生成機能172は、図3に示すステップST5において、ステップST3によって生成された最新フレームの造影画像データに基づいて、当該造影画像データの保存に関する必要性情報を生成する。
ここで、必要性情報生成機能172は、対象フレームに該当する時相帯に応じて、保存に関する必要性情報を生成する処理を行うものである。この処理には、例えば、造影画像データと保存に関する必要性情報とを関連付けた時相帯ごとのルックアップテーブルが用いられてもよい。また、この処理には、機械学習が用いられてもよい。また、機械学習としてCNNや畳み込み深層信念ネットワーク等の、多層のニューラルネットワークを用いた深層学習が用いられてもよい。
第2の実施形態の説明では、必要性情報生成機能172が複数のニューラルネットワークN2(例えば、(図7(A),(B)等に図示する「N21」、「N22」))を含み、深層学習を用いて、造影画像データに基づいて、保存に関する必要性情報を生成する場合の例を示す。
図7(A)は、第1の時相帯の場合の、学習時におけるデータフローの一例を示す説明図である。図7(B)は、第2の時相帯の場合の、学習時におけるデータフローの一例を示す説明図である。
図7(A)について説明する。必要性情報生成機能172は、第1の時相帯で生成された造影画像データがトレーニングデータとして多数入力されて学習を行うことにより、パラメータデータP21を逐次的に更新する。トレーニングデータは、トレーニング入力データとしての、第1の時相帯で生成された造影画像データU1,U2,U3,…と、保存の必要性情報V1,V2,V3,…との組みからなる。第1の時相帯で生成された造影画像データU1,U2,U3,…は、トレーニング入力データ群Uを構成する。保存の必要性情報V1,V2,V3,…は、トレーニング出力データ群Vを構成する。
必要性情報生成機能172は、トレーニングデータが入力されるごとに、第1の時相帯で生成された造影画像データU1,U2,U3,…をニューラルネットワークN21で処理した結果が保存に関する必要性情報V1,V2,V3,…に近づくようにパラメータデータP21を更新していく、いわゆる学習を行う。一般に、パラメータデータP21の変化割合が閾値以内に収束すると、学習は終了と判断される。以下、学習後のパラメータデータP21を特に学習済みパラメータデータP21´(図8(A)に図示)という。
なお、トレーニング入力データの種類と図8(A)に示す運用時の入力データの種類は一致させるべきことに注意する。例えば、運用時の入力データが被検体の造影画像データである場合は、学習時のトレーニング入力データ群Uもまた、造影画像データとする。
また、「画像データ」は、超音波診断装置等の医用画像生成装置が生成する生データを含む。すなわち、ニューラルネットワークN21の入力データは、スキャンコンバート前の生データであってもよい。
一方で、図7(B)について説明する。図7(A)の場合と同様に、必要性情報生成機能172は、第2の時相帯で生成された造影画像データがトレーニングデータとして多数入力されて学習を行うことにより、パラメータデータP22を逐次的に更新する。
図8(A)は、第1の時相帯の場合の、運用時におけるデータフローの一例を示す説明図である。図8(B)は、第2の時相帯の場合の、運用時におけるデータフローの一例を示す説明図である。
図8(A)について説明する。運用時には、必要性情報生成機能172は、診断対象となる被検体の対象フレーム(例えば、最新フレーム)に対応する時相帯を得る。そして、必要性情報生成機能172は、当該時相帯が第1の時相帯であると判断する場合に、学習済みモデルD21に、造影画像データUaを入力し、学習済みパラメータデータP21´を用いて被検体の造影画像データの保存に関する必要性情報Vaを出力する。
なお、ニューラルネットワークN21と学習済みパラメータデータP21´は、学習済みモデルD21を構成する。ニューラルネットワークN21は、プログラムの形態でメインメモリ18に記憶される。学習済みパラメータデータP21´は、メインメモリ18に記憶されてもよいし、ネットワークNを介して超音波診断装置10と接続された記憶媒体に記憶されてもよい。この場合、処理回路17のプロセッサにより実現される必要性情報生成機能172は、メインメモリ18から学習済みモデルD21を読み出して実行することで、造影画像データに基づいて、当該造影画像データの保存に関する必要性情報を生成する。なお、学習済みモデルD21は、ASIC、FPGA等の集積回路によって構築されてもよい。
なお、必要性情報生成機能172を含む学習済みモデルD21が出力する被検体の造影画像データの保存に関する必要性情報Vaは、例えば、必要「1」か不要「0」かのいずれかを示すデータであればよい。
また、必要性情報生成機能172による判断精度を向上させるように、入力データとして、造影画像データに加えて撮影対象の身長、体重、既往歴、及び血縁者の病歴の少なくとも1つを含む識別情報を用いてもよい。
一方で、図8(B)について説明する。図8(A)の場合と同様に、運用時には、必要性情報生成機能172は、診断対象となる被検体の対象フレーム(例えば、最新フレーム)に対応する時相帯を得る。そして、必要性情報生成機能172は、当該時相帯が第2の時相帯であると判断する場合に、学習済みモデルD22に、造影画像データWaを入力し、学習済みパラメータデータP22´を用いて被検体の造影画像データの保存に関する必要性情報Xaを出力する。
なお、造影画像データは、1フレーム画像データである場合に限定されるものではない。造影画像データは、連続する複数のフレームによって構成される、時相帯毎の動画像データであってもよい。その場合、第1の時相帯に係る動画像データを、第1の時相帯に係るトレーニング入力データとし、被検体の、第1の時相帯に係る動画像データUaを、学習済みモデルD21に入力する。また、第2の時相帯に係る動画像データを、第2の時相帯に係るトレーニング入力データとし、被検体の、第2の時相帯に係る動画像データWaを学習済みモデルD22に入力する。これらにより、造影剤に含まれるバブルの動的な動きを学習することができる。
また、造影画像データは、連続する複数のフレームによって構成される、インデックスで複数の時相帯に分けれる1つの動画像データであってもよい。その場合、インデックスによって分けられる第1の時相帯に係る動画像の部分データを、第1の時相帯に係るトレーニング入力データとし、被検体の、第1の時相帯に係る動画像の部分データUaを学習済みモデルD21に入力する。
医用画像処理装置M2によれば、時相帯ごとに1つの学習済みモデルを構築・運用することで、医用画像処理装置M1による効果に加え、より確度の高い保存精度を得ることができる。
3.第3の実施形態に係る医用画像処理装置
前述の第1の実施形態では、時相帯を問わず、1つのニューラルネットワークを構成するもの、第2の実施形態では、時相帯ごとに1つのニューラルネットワークを構成するものとして説明したが、その場合に限定されるものではない。
例えば、腫瘍のカテゴリー分類を問わず、1つのニューラルネットワークを構成するもの、つまり、必要性情報生成機能172が、1個の学習済みモデルに対して、腫瘍の各カテゴリー分類に係る被検体の造影画像データを入力することで、各カテゴリー分類に係る被検体の造影画像データの保存に関する必要性情報を生成するものであってもよい。
また、例えば、腫瘍のカテゴリー分類ごとに1つのニューラルネットワークを構成するもの、つまり、必要性情報生成機能172が、腫瘍の複数のカテゴリー分類に対応する複数の学習済みモデルのうちカテゴリー分類が対応する学習済みモデルに対して、被検体の造影画像データを入力することで、被検体の造影画像データの保存に関する必要性情報を生成するものであってもよい。その場合を、第3の実施形態に係る医用画像処理装置M3(図1及び図2に図示)として説明する。
医用画像処理装置M3の構成及び機能は、図1及び図2に示すものと同等であり、医用画像処理装置M3の動作は、図3に示すものと同等であるので、説明を省略する。
その場合、必要性情報生成機能172は、腫瘍の第1のカテゴリー分類に係る造影画像データに基づいて保存に関する必要性情報を生成する第1の学習済みモデルに対して、第1のカテゴリー分類に係る被検体の造影画像データを入力することで、被検体の造影画像データの保存に関する必要性情報を生成する。一方で、必要性情報生成機能172は、腫瘍の第2のカテゴリー分類に係る造影画像データに基づいて保存に関する必要性情報を生成する第2の学習済みモデルに対して、第2のカテゴリー分類に係る被検体の造影画像データを入力することで、被検体の造影画像データの保存に関する必要性情報を生成する。
なお、腫瘍のカテゴリー分類に関する情報は、例えば、HCC(肝細胞癌)、Meta(転移性肝腫瘍)、Hema(肝血管腫)、及びFNH(限局性結節)等である。
第3の実施形態に係る医用画像処理装置M3によれば、腫瘍のカテゴリー分類ごとに1つの学習済みモデルD3を構築・運用することで、医用画像処理装置M1による効果に加え、より確度の高い保存精度を得ることができる。
4.第1の変形例
前述の第1~第3の実施形態に係る医用画像処理装置M1~M3において、トレーニング入力データや学習済みモデルへの入力が、造影画像データである場合や、造影画像データと識別情報等の付帯情報とである場合について説明したが、その場合に限定されるものではない。トレーニング入力データや学習済みモデルへの入力に、Bモード画像データ、カラードプラ画像データ、及びパワードプラ画像データのうち少なくとも1つの画像データを加えてもよい。
なお、Bモード画像データは、CHIによる造影画像データとは別の撮像で生成されたいわゆるBモード画像データや、基本波成分の反射波データ(受信信号)から生成された、造影画像と同一のスキャンで生成されたファンダメンタル画像データ等を含む。
第1~第3の実施形態に係る医用画像処理装置M1~M3の第1の変形例によれば、医用画像処理装置M1~M3による効果に加え、より確度の高い診断結果を得ることができる。
5.第2の変形例
前述の第1の実施形態において、トレーニング出力データが、保存の必要性情報である場合について説明したが、その場合に限定されるものではない。トレーニング出力データに、必要性情報の他、時相帯情報及び確定診断結果データのうち少なくとも1つを加えてもよい。時相帯情報の例について、後述の第4の実施形態で説明する。
確定診断結果データは、例えば、良性か悪性かのいずれかを示すデータであってもよいし、HCC、Meta、Hema、及びFNH等のカテゴリー分類のいずれに属するかを示すデータであってもよいし、カテゴリー分類の可能性をパーセントで示すデータ(例えば、良性x%、悪性y%)であってもよい。さらに、カテゴリー分類は、HCC等をさらに細分化した分化度(高分化、低分化等)であってもよい。
医用画像処理装置M1~M3(変形例含む)によれば、医師等の操作者の経験や主観によらない腫瘍の確定診断を可能にすると共に、診断時間の短縮を実現することができる。
6.第4の実施形態に係る医用画像処理装置
以上の第1~第3の実施形態では、画像取得機能171がライブで造影画像データを取得し、必要性情報生成機能172が略リアルタイムで各造影画像データの必要性情報を生成する場合について説明した。つまり、各造影画像データの時相帯情報が既知の場合である。ここでは、各造影画像データの時相帯情報が不知の場合について、第4の実施形態に係る医用画像処理装置M4(図1及び図2に図示)として説明する。各造影画像データの時相帯情報が不知の場合は、画像取得機能171が撮像終了後に画像メモリ15から複数の造影画像データを取得し、必要性情報生成機能172が、複数の造影画像データに基づいてポストプロセス(後処理)で必要性情報を生成する場合はもちろん、必要性情報生成機能172が略リアルタイムで必要性情報を生成する場合も含み得る。
必要性情報生成機能172は、画像取得機能171によって取得された造影画像データに基づいて、当該造影画像データに含まれる病変部位の造影剤による染影状態により分類される時相帯情報を生成するための学習済みモデルに対して、造影画像データを入力することで、時相帯情報を生成する。
図9(A)は、運用時におけるデータフローの一例を示す説明図である。
図9(A)について説明する。必要性情報生成機能172は、所定のフレームに係る造影画像データがトレーニングデータとして多数入力されて学習を行うことにより、パラメータデータP4を逐次的に更新する。トレーニングデータは、トレーニング入力データとしての、各フレームの造影画像データS1,S2,S3,…と、時相帯情報Y1,Y2,Y3,…との組みからなる。造影画像データS1,S2,S3,…は、トレーニング入力データ群Sを構成する。時相帯情報Y1,Y2,Y3,…は、トレーニング出力データ群Yを構成する。
必要性情報生成機能172は、トレーニングデータが入力されるごとに、造影画像データS1,S2,S3,…をニューラルネットワークN4で処理した結果が保存に関する時相帯情報Y1,Y2,Y3,…に近づくようにパラメータデータP4を更新していく、いわゆる学習を行う。一般に、パラメータデータP4の変化割合が閾値以内に収束すると、学習は終了と判断される。以下、学習後のパラメータデータP4を特に学習済みパラメータデータP4´という。
なお、トレーニング入力データの種類と図9(B)に示す運用時の入力データの種類は一致させるべきことに注意する。例えば、運用時の入力データが被検体の造影画像データである場合は、学習時のトレーニング入力データ群Sもまた、造影画像データとする。
また、「画像データ」は、超音波診断装置等の医用画像生成装置が生成する生データを含む。すなわち、ニューラルネットワークN4の入力データは、スキャンコンバート前の生データであってもよい。
一方で、図9(B)について説明する。図9(A)の場合と同様に、必要性情報生成機能172は、造影画像データがトレーニングデータとして多数入力されて学習を行うことにより、パラメータデータP4を逐次的に更新する。
図9(B)は、第1の時相帯の場合の、運用時におけるデータフローの一例を示す説明図である。
図9(B)について説明する。運用時には、必要性情報生成機能172は、診断対象となる被検体の対象フレームに対応する造影画像データSaを入力し、学習済みパラメータデータP4´を用いて被検体の造影画像データの保存に関する時相帯情報Yaを出力する。
なお、ニューラルネットワークN4と学習済みパラメータデータP4´は、学習済みモデルD4を構成する。ニューラルネットワークN4は、プログラムの形態でメインメモリ18に記憶される。学習済みパラメータデータP4´は、メインメモリ18に記憶されてもよいし、ネットワークNを介して超音波診断装置10と接続された記憶媒体に記憶されてもよい。この場合、処理回路17のプロセッサにより実現される必要性情報生成機能172は、メインメモリ18から学習済みモデルD4を読み出して実行することで、造影画像データに基づいて、当該造影画像データの時相帯情報を生成する。なお、学習済みモデルD4は、ASIC、FPGA等の集積回路によって構築されてもよい。
また、必要性情報生成機能172による判断精度を向上させるように、入力データとして、造影画像データに加えて撮影対象の身長、体重、既往歴、及び血縁者の病歴の少なくとも1つを含む識別情報を用いてもよい。
これにより、各造影画像データの時相帯情報が既知となる。必要性情報生成機能172は、第1~第3の実施形態で説明したように、複数の造影画像データと、それらの時相帯情報とに基づいて、必要性情報を生成するための学習済みモデルに対して、被検体の造影画像データを入力することで、被検体の造影画像データの保存の必要性情報を生成することができる。つまり、第4の実施形態を、第1~第3の実施形態のいずれかに適用することができる。
医用画像処理装置M4によれば、造影剤注入開始を基準とする経過時間のみならず、造影画像データから時相帯情報を推測することができる。また、推測された時相帯情報を第1~第3の実施形態に適用することで、撮像終了後のポストプロセスで、医師等の操作者の経験や主観によらない腫瘍の確定診断を可能にすると共に、診断時間の短縮を実現することができる。
7.第5の実施形態に係る医用画像処理装置
前述の第1~第4の実施形態では、各造影画像データの時相帯情報の設定や、各造影画像データの必要性情報の設定を特徴とするものである。本実施形態は、前述の各造影画像データの時相帯情報又は必要性情報に基づいて、腫瘍に関する被検体の診断結果データを生成するものである。この場合について、第5の実施形態に係る医用画像処理装置M5(図1に図示)として説明する。
第5の実施形態に係る医用画像処理装置M5の構成は、図1に示すものと同等であるので、説明を省略する。
図10は、医用画像処理装置M5の機能を示すブロック図である。
処理回路17は、メインメモリ18に記憶された、又は、処理回路17内に直接組み込まれたプログラムを読み出して実行することで、画像取得機能171と、診断結果生成機能174と、出力制御機能175とを実現する。以下、機能171,174,175がソフトウェア的に機能する場合を例に挙げて説明するが、機能171,174,175の全部又は一部は、超音波診断装置10にASIC等の回路等として設けられるものであってもよい。
なお、図10において、図2に示す部材と同一部材には同一符号を付して説明を省略する。
診断結果生成機能174は、異なる複数の時相帯に係る複数の造影画像データに基づいて腫瘍に関する診断結果データを生成するための学習済みモデルに対して、複数の時相帯に係る被検体の複数の造影画像データを入力することで、病変部位の種類に係る情報(例えば、腫瘍に関する被検体の診断結果データ)を生成する機能を含む。なお、診断結果生成機能174は、診断結果生成部の一例である。
出力制御機能175は、診断結果生成機能174によって生成された診断結果データをディスプレイ40に表示させ、又は、スピーカ(図示省略)を介して音声出力することにより医師等の操作者に診断結果データを提示する機能を含む。なお、出力制御機能175は、出力制御部の一例である。
機能171,174,175の詳細については、図11~図17を用いて説明する。
続いて、超音波診断装置10の動作について説明する。ここでは、異なるn(n=2,3,4,…)個の時相帯として異なる2個(又は3個)の時相帯の組み合わせを例にとって説明するが、その場合に限定されるものではない。異なる複数の時相帯は、例えば、異なる4個以上の時相帯の組み合わせであってもよい。
図11は、超音波診断装置10の動作をフローチャートとして示す図である。図11において、「ST」に数字を付した符号はフローチャートの各ステップを示す。
図11において、図3と同一ステップには同一符号を付して説明を省略する。
ステップST4に続き、診断結果生成機能174は、ステップST3によって生成された造影画像データの時相が、造影剤注入後の2番目以降の時相帯に係るか否かを判断する(ステップST15)。造影剤注入後は、造影剤による腫瘍の染影の程度によって複数の時相帯に分類される。例えば、撮像部位が肝臓である場合、造影剤の注入開始からの経過時間に従って、早期血管相、動脈優位相、門脈優位相、及び後血管相等の時相帯に分類される。
ステップST15の判断にてNO、つまり、ステップST3によって生成された造影画像データの時相が、造影剤注入後の最初の時相帯(例えば、早期血管相)に係ると判断される場合、画像取得機能171は、画像生成回路14等を制御して、次のフレームについて、造影画像データを生成して画像メモリ15に記憶させる(ステップST3)。
一方で、ステップST15の判断にてYES、つまり、ステップST3によって生成された造影画像データの時相が、造影剤注入後の2番目以降の時相帯(例えば、動脈優位相)に係ると判断される場合、診断結果生成機能174は、ステップST3によって生成された最新フレームの造影画像データと、画像メモリ15に記載されている過去フレームの造影画像データとに基づいて、腫瘍に関する診断結果データを生成する(ステップST16)。ここで、過去フレームの造影画像データは、最新フレームの時相帯とは異なる時相帯に係るフレームの画像データである。
ここで、診断結果生成機能174は、異なる2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせに基づいて腫瘍に関する診断結果データを生成する処理を行うものである。この処理には、例えば、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせと腫瘍に関する診断結果データとを関連付けたルックアップテーブル(LUT)が用いられてもよい。また、この処理には、機械学習が用いられてもよい。また、機械学習としてCNNや畳み込み深層信念ネットワーク等の、多層のニューラルネットワークを用いた深層学習が用いられてもよい。
第5の実施形態の説明では、診断結果生成機能174がニューラルネットワークN5を含み、深層学習を用いて、2個の時相帯でそれぞれ生成された2個の造影画像データ(第1の時相帯に係る1個の造影画像データと第2の時相帯に係る1個の造影画像データ)の組み合わせに基づいて、腫瘍に関する診断結果データを生成する場合の例を示す。
図12(A)は、学習時におけるデータフローの一例を示す説明図である。図12(B)は、トレーニングデータの例を表として示す図である。
診断結果生成機能174は、トレーニングデータが多数入力されて学習を行うことにより、パラメータデータP5を逐次的に更新する。トレーニングデータは、トレーニング入力データとしての2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせF1,F2,F3,…と、理想的な診断結果G1,G2,G3,…との組みからなる。2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせF1,F2,F3,…は、トレーニング入力データ群Fを構成する。理想的な診断結果G1,G2,G3,…は、トレーニング出力データ群Gを構成する。理想的な診断結果G1,G2,G3,…はそれぞれ、対応する組み合わせF1,F2,F3,…の撮影対象者から組織を取り出して診断することで確定した腫瘍に関する確定診断結果であるとよい。
診断結果生成機能174は、トレーニングデータが入力されるごとに、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせF1,F2,F3,…をニューラルネットワークN5で処理した結果が腫瘍に関する確定診断結果G1,G2,G3,…に近づくようにパラメータデータP5を更新していく、いわゆる学習を行う。一般に、パラメータデータP5の変化割合が閾値以内に収束すると、学習は終了と判断される。以下、学習後のパラメータデータP5を特に学習済みパラメータデータP5´(図13に図示)という。
なお、トレーニング入力データの種類と図13に示す運用時の入力データの種類は一致させるべきことに注意する。例えば、運用時の入力データが被検体の造影画像データである場合は、学習時のトレーニング入力データ群Fもまた、造影画像データとする。
また、「画像データ」は、超音波診断装置等の医用画像生成装置が生成する生データを含む。すなわち、ニューラルネットワークN5の入力データは、スキャンコンバート前の生データであってもよい。
図13は、運用時におけるデータフローの一例を示す説明図である。
運用時には、診断結果生成機能174は、学習済みモデルD5に、診断対象となる被検体の、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせFaを入力し、学習済みパラメータデータP5´を用いて被検体の腫瘍に関する診断結果データGaを出力する。
なお、ニューラルネットワークN5と学習済みパラメータデータP5´は、学習済みモデルD5を構成する。ニューラルネットワークN5は、プログラムの形態でメインメモリ18に記憶される。学習済みパラメータデータP5´は、メインメモリ18に記憶されてもよいし、ネットワークNを介して超音波診断装置10と接続された記憶媒体に記憶されてもよい。この場合、処理回路17のプロセッサにより実現される診断結果生成機能174は、メインメモリ18から学習済みモデルD5を読み出して実行することで、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせに基づいて、腫瘍に関する診断結果データを生成する。なお、学習済みモデルD5は、ASIC、FPGA等の集積回路によって構築されてもよい。
なお、診断結果生成機能174を含む学習済みモデルD5が出力する被検体の腫瘍に関する診断結果データGaは、例えば、良性か悪性かのいずれかを示すデータであってもよいし、HCC(肝細胞癌)、Meta(転移性肝腫瘍)、Hema(肝血管腫)、及びFNH(限局性結節)等のカテゴリー分類のいずれに属するかを示すデータであってもよいし、カテゴリー分類の可能性をパーセントで示すデータ(例えば、良性x%、悪性y%)であってもよい。さらに、カテゴリー分類は、HCC等をさらに細分化した分化度(高分化、低分化等)であってもよい。
また、診断結果生成機能174による腫瘍に関する診断精度を向上させるように、入力データとして、2個の造影画像データの組み合わせに加えて、撮影対象の身長、体重、既往歴、及び血縁者の病歴の少なくとも1つを含む識別情報を用いてもよい。
この場合、学習時には、トレーニング入力データとしての2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせF1,F2,F3,…のそれぞれの撮影対象者の識別情報も、トレーニング入力データとしてニューラルネットワークN5に入力する。運用時には、診断結果生成機能174は、メインメモリ18から読み出した学習済みモデルD5に対して診断対象となる被検体の2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせFaと共に被検体の識別情報を入力することで、被検体の腫瘍に関する診断結果データGaを出力する。入力データとして2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせと撮影対象者の識別情報とを用いることで、撮影対象者のタイプに応じた学習を行った学習済みパラメータデータP5´を生成することができるため、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせのみを入力データとする場合に比べて診断精度を向上させることができる。
図11の説明に戻って、出力制御機能175は、ステップST16によって生成された診断結果データをディスプレイ40に表示させる(ステップST17)。又は、出力制御機能175は、スピーカ(図示省略)を介して音声出力することにより医師等の操作者に診断結果データを提示する。
図14は、診断結果の表示例を示す図である。
図14に示すように、表示画面は、最新フレームの造影画像データに基づく画像と、それに組み合わされた過去フレームの造影画像データに基づく画像と、診断結果生成機能174の出力である診断結果データとを含む。診断結果として、カテゴリー分類の可能性をパーセントで示すデータを含む。
図11の説明に戻って、画像取得機能171は、ステップST2によって開始された超音波撮像を終了するか否かを判断する(ステップST18)。
ステップST18の判断にてNO、即ち、ステップST2によって開始された超音波撮像を終了しないと判断された場合、画像取得機能171は、画像生成回路14等を制御して、次のフレームについて、造影画像データを生成して画像メモリ15に記憶させる(ステップST3)。つまり、超音波撮像が継続される。
一方で、ステップST18の判断にてYES、即ち、ステップST2によって開始された超音波撮像を終了すると判断された場合、画像取得機能171は、操作者が入力インターフェース30を介して終了指示を行ったと判断して、超音波撮像を終了させる。
つまり、図11に示すフローチャートによると、超音波診断装置10は、2番目以降の時相帯においてステップST3,ST4,ST15~ST18のセットを繰り返すことで、フレームごとに、腫瘍に関する診断結果データを生成して表示することになる。
なお、造影画像データは、1フレーム画像データである場合に限定されるものではない。造影画像データは、連続する複数のフレームによって構成される動画像データであってもよい。その場合、2個の動画像データの組み合わせをトレーニング入力データとし、診断対象となる被検体の2個の動画像データの組み合わせFaを学習済みモデルD5の入力とする。これにより、造影剤に含まれるバブルの動的な動きを学習することができる。
また、図11に示すフローチャートによれば、診断結果生成機能174は、連続する各フレームの造影画像データが生成される度に診断結果データを生成することになるが、その場合に限定されるものではない。例えば、診断結果生成機能174は、一定のフレーム間隔をおいて生成された各フレームの造影画像データが生成される度に診断結果データを生成してもよいし、各時相帯の最初の1フレームの造影画像データが生成される度に診断結果データを生成してもよい。
医用画像処理装置M5によれば、異なる複数の時相帯で得られた複数の造影画像データに基づく腫瘍の確定診断を支援することができるので、リアルタイムで医師等の操作者の経験や主観によらない腫瘍の確定診断が可能となる。
8.第6の実施形態に係る医用画像処理装置
前述の第5の実施形態では、時相帯を問わず、1つのニューラルネットワークを構成するもの、つまり、診断結果生成機能174が、1個の学習済みモデルに対して、各時相帯に係る被検体の造影画像データを入力することで、各時相帯に係る被検体の診断結果データを生成するものとして説明した。しかしながら、その場合に限定されるものではない。
例えば、所定の時相帯以前に係る複数の時相帯の組み合わせに基づいて1つのニューラルネットワークを構成すると共に、別の時相帯以前に係る複数の時相帯の組み合わせに基づいて1つのニューラルネットワークを構成するものであってもよい。つまり、診断結果生成機能174は、複数の時相帯に係る複数の造影画像データの組み合わせに対応する複数の学習済みモデルのうち組み合わせが対応する学習済みモデルに対して、被検体の複数の造影画像データの組み合わせを入力することで、被検体の診断結果データを生成する。その場合を、第6の実施形態に係る医用画像処理装置M6(図1及び図10に図示)として説明する。
医用画像処理装置M6の構成及び機能は、図1及び図10に示すものと同等であり、医用画像処理装置M6の動作は、図11に示すものと同等であるので、説明を省略する。
図10に示す診断結果生成機能174は、図11に示すステップST16において、ステップST3によって生成された最新フレームの造影画像データと、画像メモリ15に記載されている過去フレームの造影画像データとの組み合わせに基づいて、腫瘍に関する診断結果データを生成する。
ここで、診断結果生成機能174は、対象フレームが、第1の時相帯の場合とその次の第2の時相帯の場合とで区別して処理を行う。診断結果生成機能174は、対象フレームが第1の時相帯の場合には、第1の時相帯以前に係るn個の時相帯に対応するn個の造影画像データの組み合わせに基づいて腫瘍に関する診断結果データを生成する処理を行い、対象フレームが第2の時相帯の場合には、第2の時相帯以前に係るn+1個の時相帯に対応するn+1個の造影画像データの組み合わせに基づいて腫瘍に関する診断結果データを生成する処理を行うものである。
この処理には、例えば、第1の時相帯以前の、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせと腫瘍に関する診断結果データとを関連付けたルックアップテーブルと、第2の時相帯以前の、3個の時相帯でそれぞれ生成された3個の造影画像データの組み合わせと腫瘍に関する診断結果データとを関連付けたルックアップテーブルとが用いられてもよい。また、この処理には、機械学習が用いられてもよい。また、機械学習としてCNNや畳み込み深層信念ネットワーク等の、多層のニューラルネットワークを用いた深層学習が用いられてもよい。
第6の実施形態の説明では、診断結果生成機能174が複数のニューラルネットワークN6(例えば、(図15(A),(B)等に図示する「N61」、「N62」))を含み、深層学習を用いて、n個の時相帯でそれぞれ生成されたn個の造影画像データの組み合わせに基づいて、腫瘍に関する診断結果データを生成する場合の例を示す。
図15(A)は、第1の時相帯以前に対応する複数の時相帯を組み合わせる場合の、学習時におけるデータフローの一例を示す説明図である。図15(B)は、第2の時相帯以前に対応する複数の時相帯を組み合わせる場合の、学習時におけるデータフローの一例を示す説明図である。
図15(A)について説明する。診断結果生成機能174は、第1の時相帯以前に係るトレーニングデータが多数入力されて学習を行うことにより、パラメータデータP61を逐次的に更新する。トレーニングデータは、トレーニング入力データとしての、第1の時相帯、例えば動脈優位相以前における2個の早期血管相と動脈優位相とでそれぞれ生成された2個の造影画像データの組み合わせH1,H2,H3,…と、理想的な診断結果I1,I2,I3,…との組みからなる。動脈優位相以前における2個の早期血管相と動脈優位相でそれぞれ生成された2個の造影画像データの組み合わせH1,H2,H3,…は、トレーニング入力データ群Hを構成する。理想的な診断結果I1,I2,I3,…は、トレーニング出力データ群Iを構成する。理想的な診断結果I1,I2,I3,…はそれぞれ、対応する組み合わせH1,H2,H3,…の撮影対象者から組織を取り出して診断することで確定した腫瘍に関する確定診断結果であるとよい。
診断結果生成機能174は、トレーニングデータが入力されるごとに、動脈優位相以前における2個の早期血管相と動脈優位相とでそれぞれ生成された2個の造影画像データの組み合わせH1,H2,H3,…をニューラルネットワークN61で処理した結果が腫瘍に関する確定診断結果I1,I2,I3,…に近づくようにパラメータデータP61を更新していく、いわゆる学習を行う。一般に、パラメータデータP61の変化割合が閾値以内に収束すると、学習は終了と判断される。以下、学習後のパラメータデータP61を特に学習済みパラメータデータP61´(図16(A)に図示)という。
なお、トレーニング入力データの種類と図16(A)に示す運用時の入力データの種類は一致させるべきことに注意する。例えば、運用時の入力データが被検体の造影画像データである場合は、学習時のトレーニング入力データ群Hもまた、造影画像データとする。
また、「画像データ」は、超音波診断装置等の医用画像生成装置が生成する生データを含む。すなわち、ニューラルネットワークN61の入力データは、スキャンコンバート前の生データであってもよい。
一方で、図15(B)について説明する。図15(A)の場合と同様に、診断結果生成機能174は、第2の時相帯以前に係るトレーニングデータが多数入力されて学習を行うことにより、パラメータデータP62を逐次的に更新する。診断結果生成機能174は、トレーニングデータが入力されるごとに、門脈優位相以前における3個の早期血管相と動脈優位相と門脈優位相でそれぞれ生成された3個の造影画像データの組み合わせJ1,J2,J3,…をニューラルネットワークN62で処理した結果が腫瘍に関する確定診断結果K1,K2,K3,…に近づくようにパラメータデータP62を更新していく、いわゆる学習を行う。
図16(A)は、第1の時相帯以前に対応する複数の時相帯を組み合わせる場合の、運用時におけるデータフローの一例を示す説明図である。図16(B)は、第2の時相帯以前に対応する複数の時相帯を組み合わせる場合の、運用時におけるデータフローの一例を示す説明図である。
図16(A)について説明する。運用時には、診断結果生成機能174は、診断対象となる被検体の対象フレーム(例えば、最新フレーム)に対応する時相帯を得る。そして、診断結果生成機能174は、当該時相帯が第1の時相帯、例えば、動脈優位相であると判断する場合に、学習済みモデルD61に、動脈優位相以前の2個の早期血管相と動脈優位相とでそれぞれ生成された2個の造影画像データの組み合わせHaを入力し、学習済みパラメータデータP61´を用いて被検体の腫瘍に関する診断結果データIaを出力する。
なお、ニューラルネットワークN61と学習済みパラメータデータP61´は、学習済みモデルD61を構成する。ニューラルネットワークN61は、プログラムの形態でメインメモリ18に記憶される。学習済みパラメータデータP61´は、メインメモリ18に記憶されてもよいし、ネットワークNを介して超音波診断装置10と接続された記憶媒体に記憶されてもよい。この場合、処理回路17のプロセッサにより実現される診断結果生成機能174は、メインメモリ18から学習済みモデルD61を読み出して実行することで、2個の早期血管相と動脈優位相とでそれぞれ生成された2個の造影画像データの組み合わせに基づいて、腫瘍に関する診断結果データを生成する。なお、学習済みモデルD61は、ASIC、FPGA等の集積回路によって構築されてもよい。
なお、診断結果生成機能174を含む学習済みモデルD61が出力する被検体の腫瘍に関する診断結果データIaは、例えば、良性か悪性かのいずれかを示すデータであってもよいし、HCC、Meta、Hema、及びFNH等のカテゴリー分類のいずれに属するかを示すデータであってもよいし、カテゴリー分類の可能性をパーセントで示すデータ(例えば、良性x%、悪性y%)であってもよい。さらに、カテゴリー分類は、HCC等をさらに細分化した分化度(高分化、低分化等)であってもよい。
また、診断結果生成機能174による腫瘍に関する診断精度を向上させるように、入力データとして、造影画像データに加えて撮影対象の身長、体重、既往歴、及び血縁者の病歴の少なくとも1つを含む識別情報を用いてもよい。
一方で、図16(B)について説明する。図16(A)の場合と同様に、運用時には、診断結果生成機能174は、診断対象となる被検体の対象フレーム(例えば、最新フレーム)に対応する時相帯を得る。そして、診断結果生成機能174は、当該時相帯が第2の時相帯、例えば、門脈優位相であると判断する場合に、学習済みモデルD62に、3個の早期血管相と動脈優位相と門脈優位相とでそれぞれ生成された3個の造影画像データの組み合わせJaを入力し、学習済みパラメータデータP62´を用いて被検体の腫瘍に関する診断結果データKaを出力する。
なお、医用画像処理装置M6では、複数の時相帯からなる組み合わせを2個又は3個に分類し、それぞれについてニューラルネットワークを構成するものとして説明したが、その場合に限定されるものではない。例えば、4個以上の時相帯の組み合わせごとに異なるニューラルネットワークを構成するものであってもよい。又は、特徴的な時相帯の組み合わせのみに基づいて1つニューラルネットワークを構成するものであってもよい。
前者について、例えば、2個の早期血管相と動脈優位相との組み合わせについて1つのニューラルネットワークを構成し、3個の早期血管相と動脈優位相と門脈優位相との組み合わせについて1つのニューラルネットワークを構成し、4個の早期血管相と動脈優位相と門脈優位相と後血管相との組み合わせについて1つのニューラルネットワークを構成する。診断対象となる被検体の対象フレーム(例えば、最新フレーム)に対応する時相帯が動脈優位相である場合には2個の早期血管相と動脈優位相との組み合わせに基づくニューラルネットワークを利用し、時相が進んで対象フレームに対応する時相帯が門脈優位相となった場合には3個の早期血管相と動脈優位相と門脈優位相との組み合わせに基づくニューラルネットワークを利用することになり、時相がさらに進んで対象フレームに対応する時相帯が後血管相となった場合には4個の早期血管相と動脈優位相と門脈優位相と後血管相との組み合わせに基づくニューラルネットワークを利用する。
これにより、造影剤の注入開始からの時相が進むと入力画像の数が増えていき、適用するニューラルネットワークがリアルタイムで変化することになる。
また、第6の実施形態において生成された被検体の診断結果データを、第5の実施形態において生成された被検体の診断結果データと共に出力するように構成してもよいことは言うまでもない。
さらに、造影画像データは、1フレーム画像データである場合に限定されるものではない。造影画像データは、連続する複数のフレームによって構成される、時相帯毎の動画像データであってもよい。その場合、早期血管相に係る動画像データと動脈優位相に係る動画像データとの組み合わせを、第1のトレーニング入力データとし、被検体の、早期血管相に係る動画像データと動脈優位相に係る動画像データとの組み合わせHaを学習済みモデルD61に入力する。また、早期血管相に係る動画像データと動脈優位相に係る動画像データと門脈優位相の動画像データとの組み合わせを、第2のトレーニング入力データとし、被検体の、早期血管相に係る動画像データと動脈優位相に係る動画像データと門脈優位相の動画像データとの組み合わせJaを学習済みモデルD62に入力する。これらにより、造影剤に含まれるバブルの動的な動きを学習することができる。
また、造影画像データは、連続する複数のフレームによって構成される、インデックスで複数の時相帯に分けれる1つの動画像データであってもよい。その場合、インデックスによって分けられる早期血管相に係る動画像の部分データと、インデックスによって分けられる動脈優位相に係る動画像の部分データとの組み合わせを、第1のトレーニング入力データとし、被検体の、インデックスによって分けられる早期血管相に係る動画像の部分データと、インデックスによって分けられる動脈優位相に係る動画像の部分データとの組み合わせHaを学習済みモデルD61に入力する。
医用画像処理装置M6によれば、医用画像処理装置M5による効果に加え、より確度の高い診断結果を得ることができる。
9.第7の実施形態に係る医用画像処理装置
前述の第5及び第6の実施形態では、画像取得機能171がライブで造影画像データを取得し、造影画像データが取得される都度、診断結果生成機能174が略リアルタイムで被検体の確定診断結果データを生成する場合について説明した。しかしながら、その場合に限定されるものではない。
例えば、操作者が、ディスプレイ40に表示される画面を操作することで、被検体の確定診断結果データを生成する処理を行うようにしてもよい。その場合を、第7の実施形態に係る医用画像処理装置M7(図1及び図10に図示)として説明する。
第7の実施形態に係る医用画像処理装置M7の構成及び機能は、図1及び図10に示すものと同等であり、第7の実施形態に係る医用画像処理装置M7の動作は、図11に示すものと同等であるので、説明を省略する。
図11に示すステップST15において、入力インターフェース30を介した操作により、早期血管相の中のある時相に加え、動脈優位相の中のある時相が設定される。診断結果生成機能174は、早期血管相の中のある時相に加え、動脈優位相の中のある時相が設定されると、設定された時相の造影画像データの組み合わせを、学習済みモデルD5(図13に図示)又は学習済みモデルD61(図16(A)に図示)に入力することで、被検体の確定診断結果データを生成する。
図17は、時相の設定画面の一例を示す図である。
図17(A)の上段は、ライブ表示される造影画像データを示す。図17(A)の下段は、造影剤注入開始を基準とした経過時間によって予め決まる時相帯と、造影剤注入開始を基準とした実際の経過時間(タイムスライダ)と、「設定」ボタンとを示す。
操作者は、タイムスライダを確認しながら、各時相帯において診断に有効な造影画像データがライブ画像として現れたら、入力インターフェース30を介して「設定」ボタンをクリックする。早期血管相において「設定」ボタンがクリックされると、早期血管相の中のある時相が設定される。そして、設定された時相を視認可能なように、タイムスライダの該当時相にマークが示され、その時相における造影像データが静止画として右上に表示される。
撮像時間が経過し、動脈優位相のある時相で「設定」ボタンがクリックされると、動脈優位相の中のある時相が設定される。この入力インターフェース30を介した造影画像データの設定により、診断結果生成機能174は、当該造影画像データに対応する時相帯情報を、学習済みモデルに入力する時相帯情報として設定することができる。
図17(B)は、図17(A)と同様に、ライブ表示される造影画像データと、時相帯と、タイムスライダと、「設定」ボタンとを示す。
操作者は、タイムスライダを確認しながら、各時相帯において診断に有効な造影画像データがライブ画像として現れたら、入力インターフェース30を介して「設定」ボタンをクリックする。加えて、診断に有効な造影画像データが消滅したら、入力インターフェース30を介して「設定」ボタンをクリックする。早期血管相において「設定」ボタンが2回クリックされると、早期血管相の中のある時相幅が設定される。そして、設定された時相幅を視認可能なように、タイムスライダの該当2時相にマークが示され、その2時相間における複数の造影像データが動画として右上に表示される。
撮像時間が経過し、動脈優位相のある時相で「設定」ボタンが2回クリックされると、動脈優位相の中のある時相幅が設定される。この入力インターフェース30を介した造影画像データの設定により、診断結果生成機能174は、当該造影画像データに対応する時相帯情報を、学習済みモデルに入力する時相帯情報として設定することができる。
また、設定画面上には、設定された造影画像データの組み合わせに従って生成された確定診断結果データを都度表示するように構成されてもよい。その場合の例について、図18に示す。
図18は、確定診断結果データの表示例を示す図である。
図18は、図17(A)の時相の設定画面上で設定された時相に係る造影画像データの組み合わせに応じて生成される確定診断結果データを示す。図17(B)についても、同様に、確定診断結果データを表示し得るものとする。
動脈優位相のある時相が設定された時点で、診断結果生成機能174は、早期血管相の中で設定された時相の造影画像データと、動脈優位相の中で設定された時相の造影画像データとの組み合わせに基づいて、確定診断結果データ「HCC:30%」と、「Meta:10%」とを生成する。出力制御機能175は、確定診断結果データ「HCC:30%」と、「Meta:10%」とを、図18の下段に示すようにディスプレイ40に表示させる。
医用画像処理装置M7によれば、学習済みモデルに入力するデータを厳選することができるので、医用画像処理装置M5による効果に加え、より高速に診断結果を得ることができ、また、ハードウェア資源を節約することもできる。
10.第8の実施形態に係る医用画像処理装置
前述の第5~第7の実施形態では、画像取得機能171がライブで造影画像データを取得し、診断結果生成機能174が略リアルタイムで被検体の確定診断結果データを生成する場合について説明した。つまり、各造影画像データの時相帯情報が既知の場合である。ここでは、各造影画像データの時相帯情報が不知の場合について、第8の実施形態に係る医用画像処理装置M8(図1及び図10に図示)として説明する。各造影画像データの時相帯情報が不知の場合は、画像取得機能171が撮像終了後に画像メモリ15から複数の造影画像データを取得し、診断結果生成機能174が、複数の造影画像データに基づいてポストプロセスで確定診断結果データを生成する場合はもちろん、診断結果生成機能174が略リアルタイムで確定診断結果データを生成する場合も含み得る。
診断結果生成機能174は、画像取得機能171によって取得された造影画像データに基づいて、当該造影画像データに含まれる病変部位の造影剤による染影状態により分類される時相帯情報を生成するための学習済みモデルに対して、造影画像データを入力することで、時相帯情報を生成する。
なお、医用画像処理装置M7における時相帯情報の生成方法は、図9(A),(B)を用いて説明したものと同等であるので、説明を省略する。医用画像処理装置M7における時相帯情報の生成方法は、図9(A),(B)に示す「必要性情報生成機能172」が「診断結果生成機能174」に置換されるだけに過ぎない。
医用画像処理装置M8によれば、造影剤注入開始を基準とする経過時間のみならず、造影画像データから時相帯情報を推測することができる。また、推測された時相帯情報を第5~第7の実施形態に適用することで、撮像終了後のポストプロセスで、医師等の操作者の経験や主観によらない腫瘍の確定診断が可能となる。
11.第1の変形例
前述の第5~第8の実施形態において、トレーニング入力データや学習済みモデルへの入力が、n個の時相帯でそれぞれ生成されたn個の造影画像データの組み合わせである場合や、n個の時相帯でそれぞれ生成されたn個の造影画像データの組み合わせと識別情報等の付帯情報とである場合について説明したが、その場合に限定されるものではない。トレーニング入力データや学習済みモデルへの入力に、Bモード画像データ、カラードプラ画像データ、及びパワードプラ画像データのうち少なくとも1つの画像データを加えてもよい。
加えられる画像データは、対応する1時相帯に係る画像データであってもよいし、対応する2個の時相帯でそれぞれ生成された2個の画像データであってもよい。なお、Bモード画像データは、CHIによる造影画像データとは別の撮像で生成されたいわゆるBモード画像データや、基本波成分の反射波データ(受信信号)から生成された、造影画像と同一のスキャンで生成されたファンダメンタル画像データ等を含む。
医用画像処理装置M5~M8の第1の変形例によれば、医用画像処理装置M5~M8による効果に加え、より確度の高い診断結果を得ることができる。
12.第2の変形例
前述の第5~第8の実施形態に係る医用画像処理装置M5~M8において、トレーニング入力データや学習済みモデルへの入力が、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせである場合や、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせと識別情報等の付帯情報とである場合について説明したが、その場合に限定されるものではない。トレーニング入力データや学習済みモデルへの入力に、バブルのトラッキング軌跡を表した画像データであるBTI(Bubble Tracking Imaging)画像データを加えてもよい。
加えられるBTI画像データは、対応する1時相帯に係り、当該フレームまでのバブルの軌跡を示す画像データである。
なお、トレーニング入力データや学習済みモデルへの入力として、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせにBTI画像データを加える場合について説明したが、その場合に限定されるものではない。トレーニング入力データや学習済みモデルへの入力として、2個の時相帯でそれぞれ生成された2個の造影画像データの組み合わせに代え、BTI画像データを採用してもよい。
第5~第8の実施形態に係る医用画像処理装置M5~M8の第2の変形例によれば、医用画像処理装置M5~M8による効果に加え、より確度の高い診断結果を得ることができる。
13.第3の変形例
前述の第5~第8の実施形態では、ライブで組み合わせが発生する度に確定診断結果データを生成するものとして説明したが、その場合に限定されるものではない。
なお、図17及び図18を用いて、画像取得機能171がライブで造影画像データを取得し、診断結果生成機能174が略リアルタイムで確定診断結果データを生成する場合について説明した。しかしながら、その場合に限定されるものではなく、画像取得機能171が撮像終了後に画像メモリ15から複数の造影画像データを取得し、診断結果生成機能174が、複数の造影画像データの組み合わせに基づいてポストプロセスで確定診断結果データを生成してもよい。
例えば、前述の第1~第4の実施形態に係る医用画像処理装置M1~M4で生成された必要性情報に基づいて、腫瘍に関する被検体の診断結果データを生成してもよい。
14.第9の実施形態に係る医用画像処理装置
図19は、第9の実施形態に係る医用画像処理装置を備えた医用画像表示装置の構成を示す概略図である。
図19は、第9の実施形態に係る医用画像処理装置M9を備えた医用画像表示装置70を示す。医用画像表示装置70は、医用画像管理装置(画像サーバ)や、ワークステーションや、読影端末等であり、ネットワークを介して接続された医用画像システム上に設けられる。なお、医用画像表示装置70は、オフラインの装置であってもよい。
医用画像表示装置70は、処理回路71と、メモリ72と、入力インターフェース73と、ディスプレイ74と、ネットワークインターフェース75とを備える。なお、処理回路71と、メモリ72とにより、医用画像処理装置M9が構成される。又は、処理回路71と、メモリ72とに、入力インターフェース73と、ディスプレイ74との少なくとも一方を加えたものにより、医用画像処理装置M9が構成されてもよい。
なお、処理回路71と、メモリ72と、入力インターフェース73と、ディスプレイ74とは、図1及び図10に示す処理回路17と、メインメモリ18と、入力インターフェース30と、ディスプレイ40と同等の構成を有するものとして説明を省略する。
ネットワークインターフェース75は、パラレル接続仕様やシリアル接続仕様に合わせたコネクタによって構成される。医用画像表示装置70が医用画像システム上に設けられる場合、ネットワークインターフェース75は、ネットワーク上の外部装置と情報の送受信を行なう。例えば、ネットワークインターフェースは、処理回路71の制御の下、外部装置から、造影画像データ等の医用画像データを受信する。
続いて、医用画像処理装置M9を備えた医用画像表示装置70の機能について説明する。
図20は、医用画像処理装置M9を備えた医用画像表示装置70の機能を示すブロック図である。
処理回路71は、メモリ72に記憶されたプログラムを実行することで、画像取得機能711と、必要性情報生成機能712と、保存制御機能713と、診断結果生成機能714と、出力制御機能715とを実現する。なお、機能711~715の全部又は一部は、医用画像処理装置M9のプログラムの実行により実現される場合に限定されるものではなく、医用画像表示装置70にASIC等の回路として備えられる場合であってもよい。
画像取得機能711は、ネットワークインターフェース75を介して医用画像管理装置60又は超音波診断装置10から、造影画像データを取得する機能を含む。なお、画像取得機能711は、画像取得部の一例である。
必要性情報生成機能712は、図2に示す必要性情報生成機能172と同等の機能を含む。なお、必要性情報生成機能712は、処理部の一例である。
保存制御機能713は、図2に示す保存制御機能173と同等の機能を含む。なお、保存制御機能713は、保存制御部の一例である。
診断結果生成機能714は、図10に示す診断結果生成機能174と同等の機能を含む。なお、診断結果生成機能714は、処理部の一例である。
出力制御機能715は、図10に示す出力制御機能175と同等の機能を含む。なお、出力制御機能715は、出力制御部の一例である。
医用画像処理装置M9は、ネットワークNを介して超音波診断装置10を遠隔で制御する場合に、超音波診断装置10からライブ画像を取得して、ライブ画像としての造影画像データを用いて、必要性情報や、確定診断結果データを生成することができる。また、医用画像処理装置M9は、ネットワークNを介して超音波診断装置10又は医用画像管理装置60から、撮影終了後の造影画像データを取得して、ポストスポセスで必要性情報や、確定診断結果データを生成することができる。なお、医用画像表示装置70の動作については、図3又は図11に示す超音波診断装置10の動作と同等であるので、説明を省略する。
医用画像処理装置M9によれば、医用画像生成装置とは別の装置で、医師等の操作者の経験や主観によらない腫瘍の確定診断が可能となる。また、医用画像処理装置M9によれば、異なる複数の時相帯で得られた複数の造影画像データに基づく腫瘍の確定診断を支援することができるので、医師等の操作者の経験や主観によらない腫瘍の確定診断が可能となる。
以上説明した少なくとも1つの実施形態によれば、医師等の操作者の経験や主観によらない腫瘍の確定診断が可能となる。
なお、画像取得機能171,711は、画像取得部の一例である。必要性情報生成機能172,712は、処理部の一例である。保存制御機能173,713は、保存制御部の一例である。診断結果生成機能174,714は、処理部の一例である。出力制御機能175,715は、出力制御部の一例である。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
M1~M9 医用画像処理装置
17,71 処理回路
171,711 画像取得機能
172,712 必要性情報生成機能
173,713 保存制御機能
174,714 診断結果生成機能
175,715 出力制御機能

Claims (4)

  1. 被検体の撮像により生成された影画像データを取得する画像取得部と、
    処理部と、
    を有し、
    前記処理部は、
    前記造影画像データに基づいて、前記造影画像データの保存に関する必要性情報を生成するための第1の学習済みモデルに対して前記造影画像データを入力することで、前記必要性情報を生成し、
    前記造影画像データに基づいて、前記造影画像データに含まれる病変部位の造影剤による染影状態により分類される時相帯情報を生成するための第2の学習済みモデルに対して、前記造影画像データのうち前記必要性情報により保存の必要があると判断された造影画像データを入力することで、当該造影画像データに関する前記時相帯情報を生成する
    医用画像処理装置。
  2. 前記処理部は、前記必要性情報に従って、前記造影画像データを記憶部に保存する、
    請求項に記載の医用画像処理装置。
  3. 前記第の学習済みモデルは、Bモード画像データ、カラードプラ画像データ、及びパワードプラ画像データのうち少なくとも1つの追加画像データにさらに基づくものであり、
    前記処理部は、前記第の学習済みモデルに対して、前記被検体の追加画像データをさらに入力することで、前記必要性情報を生成する、
    請求項に記載の医用画像処理装置。
  4. 記画像取得部は、前記被検体の撮像として、肝臓の超音波撮像により生成された前記造影画像データを取得する、
    請求項1に記載の医用画像処理装置。
JP2020036942A 2019-03-06 2020-03-04 医用画像処理装置 Active JP7437192B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023134260A JP2023155314A (ja) 2019-03-06 2023-08-21 医用画像処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019040211 2019-03-06
JP2019040211 2019-03-06
JP2019040210 2019-03-06
JP2019040210 2019-03-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023134260A Division JP2023155314A (ja) 2019-03-06 2023-08-21 医用画像処理装置

Publications (2)

Publication Number Publication Date
JP2020146455A JP2020146455A (ja) 2020-09-17
JP7437192B2 true JP7437192B2 (ja) 2024-02-22

Family

ID=72431429

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020036942A Active JP7437192B2 (ja) 2019-03-06 2020-03-04 医用画像処理装置
JP2023134260A Pending JP2023155314A (ja) 2019-03-06 2023-08-21 医用画像処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023134260A Pending JP2023155314A (ja) 2019-03-06 2023-08-21 医用画像処理装置

Country Status (2)

Country Link
US (1) US11436729B2 (ja)
JP (2) JP7437192B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7179907B1 (ja) * 2021-05-13 2022-11-29 ジーイー・プレシジョン・ヘルスケア・エルエルシー 装置及びその制御プログラム
JPWO2023032436A1 (ja) * 2021-08-31 2023-03-09
WO2023032437A1 (ja) * 2021-08-31 2023-03-09 富士フイルム株式会社 造影状態判別装置、造影状態判別方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061258A1 (ja) 2012-10-19 2014-04-24 コニカミノルタ株式会社 超音波診断装置、及び超音波診断方法
JP2017064370A (ja) 2015-09-29 2017-04-06 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9370316B2 (en) * 2007-05-18 2016-06-21 Henry Ford Health System MRI estimation of contrast agent concentration using a neural network approach
TW200922528A (en) 2007-11-20 2009-06-01 Univ Nat Taiwan Science Tech Method and apparatus for modifying ultrasonic tissue harmonic amplitude
JP5762076B2 (ja) 2010-03-30 2015-08-12 株式会社東芝 超音波診断装置、超音波画像処理装置及び医用画像診断装置
US20110282194A1 (en) 2010-05-06 2011-11-17 Bruce Reiner Method and apparatus of quantitative analysis and data mining of medical imaging agent administration
US11304681B2 (en) 2016-03-03 2022-04-19 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and image processing method
CN107582096A (zh) 2016-07-08 2018-01-16 佳能株式会社 用于获取信息的装置、方法和存储介质
JP2018014059A (ja) 2016-07-22 2018-01-25 株式会社トプコン 医療情報処理システム及び医療情報処理方法
US11364013B2 (en) * 2017-01-05 2022-06-21 Koninklijke Philips N.V. Ultrasound imaging system with a neural network for image formation and tissue characterization
WO2019056309A1 (en) * 2017-09-22 2019-03-28 Shenzhen United Imaging Healthcare Co., Ltd. METHOD AND SYSTEM FOR GENERATING A PHASE CONTRAST IMAGE

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061258A1 (ja) 2012-10-19 2014-04-24 コニカミノルタ株式会社 超音波診断装置、及び超音波診断方法
JP2017064370A (ja) 2015-09-29 2017-04-06 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム

Also Published As

Publication number Publication date
US20200334818A1 (en) 2020-10-22
JP2023155314A (ja) 2023-10-20
US11436729B2 (en) 2022-09-06
JP2020146455A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7437192B2 (ja) 医用画像処理装置
US10743841B2 (en) Method of displaying elastography image and ultrasound diagnosis apparatus performing the method
JP6382050B2 (ja) 医用画像診断装置、画像処理装置、画像処理方法及び画像処理プログラム
US10922874B2 (en) Medical imaging apparatus and method of displaying medical image
CN112292086B (zh) 超声病变评估及相关联的设备、系统和方法
KR20160080864A (ko) 초음파 영상 장치 및 그에 따른 초음파 영상 처리 방법
US20160089117A1 (en) Ultrasound imaging apparatus and method using synthetic aperture focusing
US11529124B2 (en) Artifact removing method and diagnostic apparatus using the same
US10265045B2 (en) Medical diagnostic imaging apparatus, image processing apparatus, and image processing method
US9911224B2 (en) Volume rendering apparatus and method using voxel brightness gain values and voxel selecting model
US20220313214A1 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
US10849599B2 (en) Method and apparatus for generating body marker
US11026655B2 (en) Ultrasound diagnostic apparatus and method of generating B-flow ultrasound image with single transmission and reception event
JP2018027298A (ja) 医用処理装置、超音波診断装置および医用処理プログラム
US20210280298A1 (en) Methods and systems for detecting abnormalities in medical images
JP2018015150A (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
US10321893B2 (en) Method and apparatus for generating ultrasound image
KR102438750B1 (ko) 아티팩트 제거 방법 및 이를 위한 진단 장치
JP7190316B2 (ja) 超音波診断装置、超音波撮像プログラム、及び超音波撮像方法
JP2019146875A (ja) 超音波診断装置、医用画像処理装置、及び計測キャリパ設定プログラム
JP2018171436A (ja) 超音波プローブ、超音波診断装置及び超音波診断支援プログラム
US20240070817A1 (en) Improving color doppler image quality using deep learning techniques
EP4125046A1 (en) A visual data delivery system, a display system and methods of operating the same
EP4377900A1 (en) A visual data delivery system, a display system and methods of operating the same
JP2020120705A (ja) 超音波診断装置、医用画像処理装置、及び超音波画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240209

R150 Certificate of patent or registration of utility model

Ref document number: 7437192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150