JP2021531885A - 誘導肝イメージングのための人工ニューラルネットワークを有する超音波システム - Google Patents

誘導肝イメージングのための人工ニューラルネットワークを有する超音波システム Download PDF

Info

Publication number
JP2021531885A
JP2021531885A JP2021503763A JP2021503763A JP2021531885A JP 2021531885 A JP2021531885 A JP 2021531885A JP 2021503763 A JP2021503763 A JP 2021503763A JP 2021503763 A JP2021503763 A JP 2021503763A JP 2021531885 A JP2021531885 A JP 2021531885A
Authority
JP
Japan
Prior art keywords
image
interest
neural network
ultrasonic
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021503763A
Other languages
English (en)
Other versions
JP7407790B2 (ja
JPWO2020020809A5 (ja
Inventor
フア シエ
クリスティーン メンキング スウィッシャー
クラウディア エリコ
ビジャイ タークル シャムダサーニ
インフイ デン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021531885A publication Critical patent/JP2021531885A/ja
Publication of JPWO2020020809A5 publication Critical patent/JPWO2020020809A5/ja
Application granted granted Critical
Publication of JP7407790B2 publication Critical patent/JP7407790B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30084Kidney; Renal

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本開示は、肝臓などの生体組織を超音波検査し、1つ以上のニューラルネットワークを使用して、肝臓/腎臓エコー強度比の定量化に適したビューを自動的に特定及び取得するための超音波イメージングシステム及び方法について説明する。1つ以上のニューラルネットワークは、画像分類、セグメンテーション、又はそれらの組合せを行って信頼メトリックを計算し、画像上に測定ROIを配置するための推奨を提供するようにトレーニングされる。

Description

[001] 本開示は、生体組織を超音波検査するための超音波イメージングシステム及び方法、より具体的には人工ニューラルネットワークを使用する、誘導かつ少なくとも部分的に自動化された肝腎比定量化のための超音波イメージングシステム及び方法に関する。
[002] 超音波イメージングは、例えば、任意の数の異なる疾患及びその治療の進行又は成功を診断するために、患者の内部組織又は器官を非侵襲的にイメージングするために一般的に使用されている。例えば、肝臓と腎臓との間のエコー強度の比は、肝臓脂肪含有量についての定量的なバイオマーカである。超音波イメージングを使用してこの比を測定できるが、測定目的に適したフレームを得ることが難しいことから、誤診又は誤判別の可能性がある。既存のシステムは、例えば肝腎比の定量化のための画像データの収集の改善を図るツールを提供できるが、欠点もあり、したがって、超音波イメージングシステムの設計者及び製造業者は、それに対する改善を求め続けている。
[003] 本開示は、いくつかの例では、人工ニューラルネットワークを使用する自動化された肝臓腎臓定量化によく適している超音波イメージングシステム及び方法について説明する。実施形態において、また、以下にさらに説明されるように、例えば、肝腎比の定量化に適した超音波画像の取得を誘導するためだけでなく、(例えば、ROI配置のための)追加のガイダンスを提供するために、及びプロセスの特定の側面を自動化するために、1つ以上の人工ニューラルネットワークが使用される。
[004] 本開示のいくつかの実施例によれば、超音波システムが、被検者の生体組織のリアルタイム(又はライブ)画像を生成するために、被検者に向けて超音波を送信するプローブと、リアルタイム画像を受信し、リアルタイム画像の信頼メトリックを出力するプロセッサとを含む。信頼メトリックは、リアルタイム超音波画像が、ターゲット画像ビューに従って生体組織を視覚化する確率を示す。少なくともいくつかの実施形態では、プロセッサは、少なくとも1つの人工ニューラルネットワークを使用して、信頼メトリックを生成する。信頼メトリックが閾値を超えると決定されると、プロセッサはさらに、リアルタイム超音波画像を自動的にキャプチャし(すなわち、ローカルメモリに記憶し)、第1及び第2の関心領域(ROI)の場所を決定し、第1及び第2のROIのエコー強度値の比を計算する。信頼メトリックが閾値を超えない場合、プロセッサはさらに、1つ以上の連続するリアルタイム画像フレームを自動的に受信し、1つ以上の連続するリアルタイム画像フレームそれぞれの信頼メトリックを出力して、エコー強度比定量化のための適切な画像フレームを特定するプロセスを続ける。一実施形態では、システムは、肝組織を超音波検査するように特に構成され、したがって、画像フレーム内の生体組織は、肝組織、腎組織、又はこれらの組合せのうちの少なくとも1つを含んでもよく、ニューラルネットワークは、入力画像が肝臓/腎臓エコー強度比の計算に適した肝臓及び右腎臓サジタルビューに対応する場合、閾値を超える信頼メトリックを生成するように特にトレーニングされていてもよい。
[005] いくつかの実施形態では、人工ニューラルネットワークは、入力画像をセグメント化してセグメンテーションマップを生成するようにトレーニングされた畳み込みニューラルネットワークを含み、信頼メトリックは、リアルタイム画像のセグメンテーションマップに少なくとも部分的に基づいている。いくつかの実施例では、(例えば、別のニューラルネットワーク又は非機械学習アルゴリズムを実装している)プロセッサが、セグメンテーションニューラルネットワークによって出力されたセグメンテーションマップを、ターゲット画像ビューに対応するセグメンテーションマップ又は画像と比較する。比較は、ニューラルネットワーク又は他の画像処理技法によって、例えば、2つのマップを重ね合わせ、差を定量化することによって行われる。さらに他の実施例では、信頼メトリックは、例えば、マップ、したがってソース画像が十分な量の特定のタイプの組織(例えば、腎組織)を含むかどうか、及び/又は画像が画像内の適切な場所で特定のタイプの組織を視覚化するかどうかを決定するために、セグメンテーションマップの内容を定量的に分析することによって計算される。いくつかのそのような実施形態では、ニューラルネットワークは、入力画像を、縮小パスの後に拡張パスに沿って伝播して、前記セグメンテーションマップを生成する完全畳み込みネットワークを含む。いくつかの実施例では、完全畳み込みネットワークは、縮小パスに沿ったいくつかのダウンサンプリング畳み込み層と、拡張パスに沿った同数のアップサンプリング畳み込み層とを有する対称ネットワークを含む。
[006] いくつかの実施形態では、信頼メトリックは、入力画像を複数のカテゴリのうちの1つに分類することによって決定される。このような実施例では、ニューラルネットワークは、入力画像を複数のカテゴリ又はクラスのうちの1つに分類する深層畳み込みネットワークを含み、カテゴリ又はクラスのそれぞれは、複数の異なる信頼メトリック値のうちの1つに関連している。このような実施例では、画像をカテゴリに分類すると、システムは、(ニューラルネットワーク又は非機械学習ベースのアプローチを使用して)画像をセグメント化し、異なるタイプの組織に対応する画像内の領域を特定し、したがって、エコー強度比を測定するための推奨ROIを自動的に生成することに進む。いくつかの実施例では、推奨ROIは、画像と共に表示され(例えば、画像内のそれぞれの場所にオーバーレイされ)、ユーザによる選択後に、システムは、測定用のROIを推奨ROIに設定し、エコー強度比を計算する。いくつかの実施形態では、システムはさらに、信頼メトリックの現在値を表すグラフィカルインジケータを表示することなどによって、適切なビューの取得中にユーザにガイダンスを提供する。グラフィカルインジケータは、システムがビュー特定又はマッチングをバックグラウンドで行っている間にリアルタイムで動的に更新され、この結果、グラフィカルインジケータは、任意の所与の時間に、信頼メトリックの現在の計算値を表す。
[007] いくつかの実施例による生体組織の超音波検査方法は、超音波システムのプロセッサによって、1つ以上のタイプの生体組織を表すリアルタイム超音波画像を受信するステップと、リアルタイム超音波画像を、各入力画像の信頼メトリックを出力するようにトレーニングされた少なくとも1つの畳み込みニューラルネットワークに提供するステップとを含む。さらに説明されるように、信頼メトリックは、リアルタイム超音波画像がターゲット画像ビューに従って生体組織を視覚化する確率を示す。信頼メトリックが、超音波システムによって閾値を超えると決定された場合、例示的な方法は、リアルタイム超音波画像を超音波システムのローカルメモリに自動的に記憶するステップと、関心領域(ROI)の場所を決定するステップと、第1の関心領域(ROI)のエコー強度値の第2の関心領域(ROI)のエコー強度値に対する比を計算するステップとを続ける。信頼メトリックが閾値を超えないと決定された場合、方法は、例えば、十分に高い信頼メトリックを有する画像が特定されるまで、1つ以上の連続するリアルタイム画像それぞれの信頼メトリックを判定するために、1つ以上の連続するリアルタイム画像を少なくとも1つの畳み込みニューラルネットワークに自動的に提供するステップを続ける。
[008] 本明細書で説明される方法のいずれか、又はそのステップは、実行可能命令を含む非一時的コンピュータ可読媒体で具現化される、実行可能命令は、実行されると、医用イメージングシステムのプロセッサに、本明細書で具現化される方法又はステップを行わせる。
[009]図1は、本開示のいくつかの実施例による、生体組織を超音波検査するためのプロセスのフロー図を示す。 [010]図2は、本開示の原理によるシステムのブロック図である。 [011]図3は、本明細書のいくつかの実施例による、超音波システムによって提供されるグラフィカルユーザインターフェースのスクリーンキャプチャである。 [012]図4は、本明細書のいくつかの実施例による、超音波システムのディスプレイ上に提供される追加のアイコン、又は他のユーザインターフェース要素を示す。 [013]図5は、本開示のいくつかの実施例によるニューラルネットワークアーキテクチャの図を示す。 [014]図6は、本開示の原理によるトレーニングデータ例を示す。 [015]図7は、本開示のいくつかの実施例による、ニューラルネットワークのトレーニング方法の図を示す。 [016]図8は、本開示の原理による、グラフィカルインジケータを含む超音波システムディスプレイのスクリーンキャプチャを示す。 [017]図9は、本開示のさらなる実施例によるニューラルネットワークアーキテクチャの図を示す。 [018]図10Aは、本開示の実施例を実施するために使用され得る追加のニューラルネットワークアーキテクチャの図を示す。 [018]図10Bは、本開示の実施例を実施するために使用され得る追加のニューラルネットワークアーキテクチャの図を示す。 [019]図11は、本開示の原理による、複数の異なるクラスの物体が検出される超音波画像の一例を示す。 [020]図12は、本開示の原理による、自動化されたROI配置推奨を有する例示的な超音波ディスプレイを示す。 [021]図13は、本開示のいくつかの実施例による、H/R比定量化のためのプロセスのフロー図である。
[022] 特定の実施形態の以下の説明は、本質的に単に例示的なものであり、本発明、その応用又は使用を限定することを決して意図するものではない。本システム及び方法の実施形態の以下の詳細な説明では、本明細書の一部を形成し、説明されるシステム及び方法を実施することができる特定の実施形態を例として示す添付の図面を参照する。これらの実施形態は、当業者が、ここに開示されたシステム及び方法を実施することを可能にするのに十分詳細に説明されている。また、他の実施形態が利用されてもよく、構造的及び論理的な変更が本システムの精神及び範囲から逸脱することなく、なされてもよいことが理解されるべきである。さらに、明確にするために、特定の特徴の詳細な説明は、本システムの説明を不明瞭にしないように、当業者に明らかである場合には論じない。したがって、以下の詳細な説明は、限定的な意味で解釈されるべきではなく、本システムの範囲は、添付の特許請求の範囲によってのみ定義される。
[023] 非アルコール性脂肪肝疾患(NAFLD)は、肥満及び糖尿病の割合の上昇による、世界中で最も一般的な肝疾患である。脂肪肝疾患は、非アルコール性脂肪肝炎(NASH)及び肝線維症を含む長期合併症につながる可能性がある。治療せずに放置すると、肝硬変や原発性肝がんという命にかかわる段階にさらに進行する可能性がある。
[024] 現在の臨床診療において、肝疾患を評価するためのゴールドスタンダードは、肝生検であるが、これは、サンプリングエラーや解釈のばらつきが生じやすい侵襲的な手順である。MRプロトン密度脂肪分画(PDFF)が、肝脂肪含有量の定量的バイオマーカを提供することができるので、NAFLD診断のための新しい参照標準と考えられている。しかし、MR−PDFFは高価な診断ツールであり、すべての病院では利用できない可能性がある。超音波に基づく肝腎エコー強度比測定(又は単純に肝腎比、すなわち、H/R比)は、脂肪肝検出のための比較的簡単で費用効果の高い方法である。MRと比べて、超音波はリアルタイムで、費用効果の高いイメージングモダリティであり、一般集団及び低リスク群のスクリーニングにより適している。
[025] 一般に、H/R比を決定するための超音波エコー強度は、肝臓及び腎臓皮質内に同じ深さにある関心領域(ROI)を1つずつ選択し、2つのROIのエコー強度間の比率を(例えば、平均値、中間値、中央値、又は他の何らかの統計値を使用して)計算することによって算出される。肝臓内の過剰な脂肪浸潤は、音響後方散乱係数を増加させ、超音波Bモード画像においてより高いグレースケール値をもたらす。正常な状態では、肝実質及び腎皮質のエコー輝度は同程度である。脂肪沈着が多くなると、肝臓は腎皮質よりもエコー輝度が高いように(すなわち、明るく)見えるようになる。臨床診療におけるH/R比の使用は、提案されている他の脂肪肝診断超音波法より一般的に好まれているが、そのオペレータ依存性及び測定値のばらつきのため、H/R肝の使用は、日常的に使用される臨床ツールとしてまだ受け入れられていない。
[026] 超音波肝臓検査は、例えば、肋骨下又は肋間像を取得するためにプローブを配置することによって、肝臓の異なる領域(例えば、左葉及び右葉)をスキャンするために腹部の様々な位置で行われ得る。しかしながら、H/R比の定量化には、肋間スキャンによる特定の肝臓及び右腎臓サジタルビューが必要である。超音波イメージング中に両方の器官が視野内にあることが重要である。肝臓と右腎臓との境界は、画像の中心付近に配置されるべきである。この画像のビューは、非常に熟練した超音波検査技師にとっては比較的容易に得ることができるが、経験の少ないオペレータでは困難である(また、ばらつきがある)可能性がある。したがって、最適なビューが、スキャンを行うユーザによって変わってしまうので、H/R比測定は依然としてオペレータ依存性の高いプロセスである。オペレータ間及びオペレータ内のばらつきも、H/R比の評価における測定誤差及びばらつきをもたらし、潜在的な誤診につながる可能性がある。H/R比を一次脂肪肝スクリーニングツールにするためには、標準化され自動化された測定が、特に、リソースの少ない環境における経験の少ないユーザのために望ましい。本明細書の実施例によれば、オペレータ依存性を低減し、従って、測定信頼性を向上させ、例えば、H/R比定量化の信頼性を向上させ得る、インテリジェント肝スキャンインターフェースを有する超音波システムが説明される。いくつかの実施形態では、本明細書のシステム及び技法は、1つ以上の適切にトレーニングされたニューラルネットワークを使用することによってさらによくされる。
[027] 本明細書の実施例によれば、超音波イメージングシステムは、H/R比の定量化に適したビューの特定及び/又は捕捉においてユーザを支援するように構成される。本明細書のシステム及び技法はさらに、H/R比定量化のプロセスにおいてユーザを支援するように構成される。上述したように、信頼性のあるH/R比計算は、H/R比の定量化に適したビューを選択することと、深さに依存するエコー強度の減衰を回避するために、同じ深さでの肝臓及び腎臓実質におけるROIの正確な配置とに依存する。ワークフローのこれらの側面は、経験のないユーザにとって特に難しく、したがって、本明細書で説明されるシステム及び方法は、ROIの適切な選択、及びH/R比の計算の実行においてユーザを支援するために、肝スキャンプロトコルの1つ以上のステップを自動化する。
[028] 図1は、本開示の原理によるH/R定量化のための例示的なプロセスのフロー図100を示す。H/R定量化プロセスは、例えば、超音波検査技師が超音波画像データを取得している間にリアルタイムで行われる。例えば、リアルタイム超音波イメージング(ステップ110)中に、例えばユーザ入力に応答して、インテリジェント肝スキャンモードが起動される(ステップ112)。いくつかの実施例では、インテリジェント肝スキャンモードを起動するためのユーザ入力は、イメージングの前又は開始時に、ユーザによるグラフィカルユーザ制御(例えば、図3参照)の選択に応答して、又はインテリジェント肝スキャンモードを呼び出すように適切に構成された任意の他のタイプのユーザ制御の動作に応答して生成される。他の実施例では、インテリジェント肝スキャンモードは、例えばテキストフィールドにおけるスキャンの性質(例えば、肝臓)の指定に応答して、音声コマンドに応答して、又は、画像データ若しくは他の補助データ(例えば、患者病歴、以前の患者検査)に基づいてスキャンの性質を決定するシステムによって自動的に、異なるタイプの入力に応答して起動される。インテリジェントの肝スキャンモード中に、システムは、以下でさらに詳細に説明するように、1つ以上の命令セットを実行する。
[029] 図1に示されるように、インテリジェント肝スキャンモード101の間、システムは、ビューマッチング、自動画像キャプチャ、ROI特定、及びエコー強度比定量化のための1つ以上の命令セットを実行する。図1の例示的なプロセスでは、インテリジェント肝スキャンモード101の起動の後、プロセスは、ビューマッチングステップ(ステップ114)に進み、H/R比の定量化に適した画像ビューが特定される。このプロセスの間、システムは、H/R比の定量化に適したビューに対応するライブ超音波画像を示す信頼メトリックを決定及び/又は(例えば、ユーザに表示するために)出力する。上述したように、H/R比定量化に適切なビューは、肝臓/右腎臓サジタルビューであるので、システムは、画像が適切な画像ビュー(ターゲット画像ビューとも呼ぶ)に対応するかどうかを認識するようにトレーニングされるか、又は他の方法で構成されていてよい。いくつかの実施形態では、ビューマッチングサブプロセスは、1つ以上の機械学習画像分類モデルを用いて行われるか又は強化される(ステップ115)。このような実施例では、適切な画像分類を行うようにトレーニングされた機械学習画像分類モデル(又は分類ニューラルネットワーク)に、生体組織の1つ以上の超音波画像(例えば、患者の肝臓のリアルタイム超音波画像)が提供される。分類ニューラルネットワークは、各入力画像を1つ以上の分類(例えば、「一致」、「一致/不一致」、又は一致と不一致との間の、一致の品質を示す任意の数の中間カテゴリ)に分類し、分類又は他の何らかの形式の信頼メトリック(例えば、コールドホットカラーバーにグラフィカルに表示され得る数値)を出力する。いくつかの実施例では、プロセスは、一致として分類される画像が特定されると(例えば、分類の結果が表示されることなく)、ステップ116に自動的に進む。他の実施例では、ステップ114におけるビューマッチングプロセスは、追加的に又は代替的に、現在知られている又は今後開発される他の画像処理及び分類技術によって行われてもよい。
[030] システムは、適切な画像ビューを表すものとして特定された画像を自動的にキャプチャして(例えば、ローカルメモリに記憶して)(ステップ116)、H/R比定量化のための後続のステップに進んでもよい。例えば、システムは、例えば、従来の画像処理技術を使用して、又は好ましくは機械学習画像セグメンテーションモデルを使用して(ステップ119)画像セグメンテーション(ステップ118)を行い、異なるタイプの組織(例えば、肝臓及び腎臓)に対応する画像内の領域を特定する。セグメンテーションは、適切なビューを特定するために、及び/又は測定ROIの配置を推奨するために使用される。適切なビューが特定されると、システムは、ビューを自動的に(すなわち、ユーザが「取得」ボタンを押す必要なく)キャプチャする。これは、ワークフローを改善し、ユーザがボタンを押す必要がある結果としてプローブが動いてしまうリスクを低減し、したがって、取得された画像ビューが所望の/ターゲットビューから逸脱するリスクを低減する。いくつかの実施形態では、システムは、(例えば、可聴音によって、又は自動的にフリーズモードになって、取得されたビューを表示することによって)所望のビューが取得されたことの通知を提供する。
[031] 次いで、システムは、ガイダンスを提供するか、又は、H/R定量化のためのROIを自動的に選択する。例えば、システムは、第1及び第2のROI(例えば、肝臓及び腎臓のROI)を配置するための場所の1つ以上の適切なペアを特定する。システムは、(例えば、ペアリングを示すために同じペア内のROIを同じ色を使って表示するか、又はペアを順番に表示して、ユーザがペアのセットをスクロールすることを可能にすることによって)適切なペアをユーザに表示し、ROIのペアのユーザ選択を待つ。あるいは、システムは、ROIのペアを自動的に選択し、H/R比を計算するためにステップ120に進んでもよい。適切なROIのペアは、画像内の同じ深さにあるように、第1及び第2のROIがそれぞれ肝臓及び腎臓組織内にあるように、またROIがイメージングアーチファクトとなる傾向がある領域(例えば、組織間の境界に近すぎるか又は重なり合う、血管又は他の不均一な身体構造に近いか又は重なり合う)内にないように特定される。さらに、推奨されるROIは、ROIが(腎洞及び腎髄質を避けた)腎皮質内の場所に確実に配置され、かつ、肝臓の場合は、ROIが血管又は病変のない肝実質に確実に配置されるように、システムによって適応的に(例えば、腎皮質及び肝臓のサイズ及び形状に基づいて)定義される。複数のROIペアがユーザに提案されてユーザ選択を可能にし、測定精度を向上させる。又は、場合によっては、H/R比定量化は、同じ画像上の複数のROIペアに対して行われて、より良好な測定性能が達成される。
[032] ステップ120において、システムは、例えば、ROI内のすべてのピクセルのエコー強度の平均値、中間値、中央値、又は他の何らかの統計的に適切な表現などの、各ROIのエコー強度の代表値を決定し、2つの代表エコー強度値の比をとることによって、H/R比を計算する。計算されたH/R比は、画像と共に、例えば、画像上の注釈として、画像ファイルのヘッダに添付されるメタデータとして、レポートにアーカイブされる測定値として、又は任意の他の適切な関連付けを使用して記憶され、次いで、注釈付けされた/添付された画像は、(最初はローカルに、検査の完了時には、例えば、外部記憶装置に長期保管で)記憶され、これにより、イメージングデータ及び測定値は、臨床決定支援のために使用できる(ステップ122)。
[033] 理解されるように、図1のステップ及びその配列は、単に例示のためのものであり、ステップの組み合わせ、再配列、追加、又は削除などの変形形態が企図される。例えば、図1のプロセスは、リアルタイムイメージングのコンテキストで示されているが、当然ながら、プロセスは以前に取得されたデータを用いて行ってもよい。例えば、インテリジェント肝スキャン特徴を起動したとき、システムは、肝臓及び腎臓を含む被検者のボリュームの以前に取得された3D画像データのセットを受信し、3D画像データ内の各スライスをスクロールするように進んで、ステップ114を参照して説明されたように、H/R比定量化の適切なビューを表す適切なスライス又はMPRビューを特定する。適切なビューが特定されると、システムは、前述したように、画像セグメンテーション及びH/R比定量化に進み、次いで、抽出されたMPRビュー及び計算された測定値を後続の診断目的のために記憶する。
[034] 別の実施例では、例えば、画像セグメンテーションを行うようにトレーニングされた1つ以上のニューラルネットワークを使用して、ビューマッチングサブプロセスとセグメンテーションサブプロセスとを組み合わせてもよい。画像セグメンテーションは、画像が両方のタイプの組織を含むかどうか、また、信頼性のあるH/R比定量化のために必要とされる十分な量の2つのタイプの組織を含むかどうかを決定するために使用されるので、適切なビューの特定の間に、ステップ114において使用される。次に、ステップ118及び119を参照して説明したように、ニューラルネットワークによって生成された画像セグメンテーションを、(例えば、システムによるガイダンス又は自動選択のために)ROI配置のために使用できる。このようなシナリオでは、ステップ119の機械学習画像セグメンテーションモデルは、プロセスの早期に(例えば、ステップ112の後に)呼び出されてもよく、入力画像(例えば、リアルタイム画像フレーム)は、画像ビューマッチングのためにステップ119のニューラルネットワークに提供されてもよく、これは、分類モデル115を不要にする。このようなシナリオでは、自動画像キャプチャ(このプロセスはリアルタイムイメージング中に行われると仮定する)が画像セグメンテーションステップ119の後に続く。任意の数の他の変形又は組合せも可能であり、本開示を考慮すると理解されるであろう。
[035] 図2は、本開示のいくつかの実施例によるシステム200のブロック図を示す。図2のシステムは、プロセス100若しくはその任意のサブプロセスを少なくとも部分的に具現化するか、又は、それを行うために使用される。図2は、超音波トランスデューサ又はプローブ211、ビームフォーマ220、コントローラ224、及び信号プロセッサ222を含む超音波データ取得ユニット210を示す。図2はまた、ディスプレイ238を含むユーザインターフェース236と、メモリ229と、少なくとも1つの画像データプロセッサ223とを示しており、これらはすべて、例えばデータバス226を介して超音波データ取得ユニット210に通信可能に結合されている。図2に示すシステム200の構成要素及びその配置は、単に例示的であり、構成要素の組み合わせ、再配置、追加、又は除去などの変形形態が企図される。
[036] 超音波データ取得ユニット210は、超音波画像データ232を取得する。超音波画像データは、リアルタイムで(すなわち、被検者を超音波スキャンすることによって画像データが取得されるにつれて)ディスプレイ238に表示される。超音波データ取得ユニット210は、典型的な超音波スキャナの構成要素のいくつか又はすべてを含んでいてもよい。例えば、超音波データ取得ユニット210は、超音波センサアレイ212を含む超音波トランスデューサ又はプローブ211を含む。センサアレイ212は、生体組織216(例えば、肝臓、腎臓、乳房、心臓組織、又は被検者の他のタイプの生体組織)に向けて超音波214を送信し、生体組織216からエコー218を検出して、生体組織216を超音波イメージングする。いくつかの実施例では、イメージングされた組織216は、少なくとも2つの異なるタイプの組織、例えば、肝実質217及び腎実質219を含む。例えば、線形アレイ、曲面アレイ、又はフェーズドアレイである様々なトランスデューサアレイを使用できる。アレイ212は、例えば、2D及び/又は3Dイメージングのための仰角寸法及び方位角寸法の両方でスキャンすることができるトランスデューサ素子の2次元アレイを含む。超音波データ取得ユニット210は、信号プロセッサ222を含み、これは、センサアレイ212と、一緒に収容されていても、物理的に分離されていて、通信可能に(例えば、有線又は無線接続を介して)結合されていてもよい。例えば、アレイ212は、ハンドヘルドプローブ内に配置されていて、一方、信号プロセッサ222は、超音波システムベース230内に配置されていて、場合によっては、タブレットなどのポータブルコンピューティングデバイス内に具現化されていてもよい。
[037] アレイ212は、アレイ212の動作を制御するビームフォーマ220を介してシステムベース230に結合される。いくつかの実施形態では、ビームフォーマ220が1つ以上のビームフォーマ(例えば、超音波システムベース内のメインビームフォーマと組み合わせられるマイクロビームフォーマ、送信及び受信マイクロビームフォーマ及び/又はメインビームフォーマの組み合わせ)を含む。ビームフォーマ220は、アレイ212による超音波の送信及びエコー信号の受信を制御する。いくつかの実施形態では、ビームフォーマ220は、プローブ内の超音波アレイと同じ場所に配置され、超音波センサアレイ212のセンサ素子のグループによる信号の送信及び/又は受信のためにセンサ素子のグループに作用するマイクロビームフォーマを含む。いくつかの実施形態では、マイクロビームフォーマは、メインビームフォーマを高エネルギー送信信号から保護するように送信と受信とを切り替える送信/受信(T/R)スイッチ(図示せず)に結合される。いくつかの実施形態では、例えば、ポータブル超音波システムでは、T/Rスイッチ及びシステムの他の要素は、システムベース230ではなく超音波プローブに含まれていてもよい。超音波ベースは、通常、信号処理及び画像データ生成のための回路だけでなく、ユーザインターフェースを提供するための実行可能命令を含むソフトウェア及びハードウェア構成要素を含む。いくつかの実施形態では、超音波プローブは、無線接続(例えば、WiーFi(登録商標)、Bluetooth(登録商標))を介して、又は有線接続(例えば、並列又は直列データ伝送用に構成されたプローブケーブル)を介して、超音波システムベースに結合される。
[038] システム200は、アレイ212によって検出されたエコーから超音波画像を生成するための1つ以上の処理構成要素を含む。例えば、システム200は、超音波画像232を生成するためにトランスデューサ211から受信されたエコー信号を処理する信号プロセッサ222と、システムのディスプレイ上に超音波画像を提示する少なくとも1つの画像データプロセッサ223とを含む。超音波データ取得ユニット210は、ユーザインターフェース236を含むか、又はそれに動作可能に結合される。ユーザインターフェース236は、信号プロセッサ222を収容するシステムベース230と一体化されるか、又は物理的に接続される。いくつかの実施形態では、ユーザインターフェースの少なくともいくつかの構成要素は、信号プロセッサ222に無線で接続されていてもよい。
[039] ユーザインターフェース236は、超音波画像232、場合によっては対話型グラフィカルユーザインターフェース(GUI)構成要素を表示するためのディスプレイ238を含む。ユーザインターフェース236はまた、システム200の動作を制御するための1つ以上のユーザ制御部237を含む。いくつかの実施形態では、ユーザ制御部237は、システムベース230のコントロールパネル上に提供される1つ以上のハード制御部(例えば、ボタン、ノブ、ダイヤル、エンコーダ、マウス、トラックボールなど)を含み得る。いくつかの実施形態では、ユーザ制御部237は、タッチセンシティブディスプレイ上に提供されるソフト制御部(例えば、GUI制御素子又は単に、GUI制御部)を追加的に又は代替的に含み得る。システム200はまた、ローカルメモリ229を含む。ローカルメモリは、1つ以上のハードディスクドライブ、ソリッドステートドライブ、又は不揮発性メモリを含む任意の他のタイプの適切な記憶デバイスによって提供される。ローカルメモリ229は、画像データ、実行可能命令、又はシステム200の動作に必要な他の任意の情報を記憶する。いくつかの実施例では、システム200はまた、外部メモリ、例えば、画像データ及び他の患者情報の長期記憶のための画像保管及び通信システム(PACS)記憶デバイスに(有線又は無線接続を介して)通信可能に接続されていてもよい。
[040] 信号プロセッサ222は、センサアレイ212及び/又はビームフォーマ220に通信可能、動作可能、及び/又は物理的に結合される。信号プロセッサ222は、センサアレイ212によって検出された超音波エコー218を表す、フィルタリングされていない無秩序の超音波データを受信する。このデータから、信号プロセッサ222は、超音波画像データを生成し、この超音波画像データは、例えば、プロセッサ223によって、表示のために画像232に適切に構成される。例えば、信号プロセッサ222は、帯域通過フィルタリング、デシメーション、I及びQ成分分離、及び高調波信号分離などの様々なやり方で受信エコー信号を処理する。また、信号プロセッサ222はまた、スペックル低減、信号複合化、及び雑音除去などの追加の信号強化を行ってもよい。次いで、信号プロセッサ222は、振幅検出、又は、体内の構造のイメージングのための任意の他の既知の又は後で開発される技術を採用するなどして、成分信号からBモード画像データを生成する。Bモード画像データはさらに、例えば信号をそれが受信された空間関係で所望の画像フォーマットで配置するために、スキャン変換によって処理される。例えば、スキャン変換は、信号を、2次元(2D)扇形フォーマット、又は角錐状若しくは他の方法で成形された3次元(3D)フォーマットに配置する。Bモード画像データは、あるいは又はさらに、例えば米国特許第6,443,896号(Detmer)に説明されているように、身体内のボリュメトリック領域内の共通平面内の点から受け取ったエコーを、その平面の超音波画像(例えば、Bモード画像)に変換するマルチプレーナリフォーマッタによって処理されてもよい。システム200の1つ以上のプロセッサ(例えば、プロセッサ222又は223)は、さらに又はあるいは、例えば米国特許第6,530,885号(Entrekin他)に説明されているように、Bモード画像データのボリュームレンダリング(すなわち、所与の基準点から見た3Dデータセットの画像)を生成してもよい。
[041] 信号処理及び画像データの生成は、オペレータが組織216を超音波スキャンする際にリアルタイムで行われ、それにより、画像データは、被検者のリアルタイム(すなわち、ライブ)画像として表示される。あるいは、画像232は、システム200に関連付けられているメモリ(例えば、ローカル又は外部メモリ)に記憶された、以前に取得された画像データから生成されてもよい。上述したように、超音波データ取得ユニット210は、例えば、アレイ212による信号の送受信だけでなく、システム200の特定の信号及び画像処理機能を制御するために、システム200のイメージングパラメータを設定するコントローラ224を含む。コントローラ224はとりわけ、システム200のイメージングパラメータを制御又は設定し、この設定は、アレイ212による信号の送信及び検出のために、アレイの素子の励起を制御する際にビームフォーマ220によって利用される。コントローラ224によって適用される設定はまた、例えば、画像の表示のための圧縮されたダイナミックレンジ、又は他の画像処理もしくは表示設定を制御することによって、取得された超音波データの信号及び画像処理に影響を及ぼす。上述したように、ビームフォーマの制御下でのトランスデューサアレイ212からの超音波パルスの送信は、T/Rスイッチに結合され、ユーザインターフェース236のユーザ操作からの入力を受信する送信/受信コントローラによって指示される。コントローラ224によって制御され得る別の機能は、電子的ステアリング可能なアレイの場合、ビームがステアリングされる方向である。ビームは、トランスデューサアレイ212から(トランスデューサアレイ212に直交して)まっすぐ前にステアリングされても、又はより広い視野のために異なる角度でステアリングされてもよい。
[042] 図2に示されるように、データ取得ユニット210は、例えば、本明細書に説明されるように、インテリジェント又は誘導肝スキャンを行うために、生体組織のインテリジェントスキャン(コンピュータ支援スキャン又はAI支援スキャンとも呼ぶ)に関連する機能のうちの1つ以上を行う少なくとも1つのプロセッサ223に通信可能に接続される。プロセッサ223は、1つ以上の処理ユニット(例えば、1つ以上のシングル又はマルチコアCPU、単一のGPU又はGPUクラスタ、又は、例えば並列処理のために構成された複数のプロセッサの任意の配置)を含み、本明細書に説明する機能を行うように一意的に構成されている。例えば、プロセッサ223は、リアルタイム画像を受信し、リアルタイム画像の信頼メトリックを出力する。信頼メトリックは、ターゲット画像ビューに従ってリアルタイム超音波画像が生体組織を視覚化する確率を示す。少なくともいくつかの実施形態では、プロセッサ223は、少なくとも1つの人工ニューラルネットワークを使用して、信頼メトリックを生成する。信頼メトリックが閾値を超えると決定されると、プロセッサ223はさらに、リアルタイム超音波画像を自動的にキャプチャし(すなわち、ローカルメモリに記憶し)、第1及び第2の関心領域(ROI)の場所を決定し、第1及び第2のROIのエコー強度値の比を計算する。信頼メトリックが閾値を超えない場合、プロセッサ223はさらに、1つ以上の連続するリアルタイム画像フレームを自動的に受信し、1つ以上の連続するリアルタイム画像フレームそれぞれの信頼メトリックを出力して、エコー強度比定量化のための適切な画像フレームを特定するプロセスを続ける。
[043] 1つの例示的な実施形態では、システム200は、肝組織を超音波検査するために具体的に構成され、したがって、画像フレーム内の生体組織は、肝組織、腎組織、又はこれら2つの組合せの少なくとも一部を含み、ニューラルネットワークは、肝臓/腎臓エコー強度比を計算するのに適した肝臓及び右腎臓サジタルビューに所与の入力画像が対応する確率を定量化する信頼メトリックを生成するように具体的にトレーニングされる。このために、ニューラルネットワークは、画像が、閾値を超える数値に関連する少なくとも1つのカテゴリを含む複数のカテゴリのうちの1つ以上に分類されるべき確率を決定するようにトレーニングされる。本明細書の実施例は、肝イメージングのコンテキストで説明されているが、当然ながら、本開示の原理は、他のイメージング用途に適用されてもよい。例えば、生体組織におけるエコー強度を使用して、組織組成、組織の均質性又は不均質性、肝臓以外の生体組織における水及び/又は脂肪含有量を評価することができ、したがって、本明細書に詳細に説明される肝イメージングの実施例以外の他の用途において、組織を特徴付ける又は診断することができる。
[044] プロセッサ223は、生体組織のインテリジェントスキャンに関連する機能を行うことに加えて、画像データ及び関連情報の表示に関連する他の機能を提供する。いくつかの実施形態では、プロセッサ223は、表示プロセッサ234を含み、表示プロセッサは、注釈を生成し、ディスプレイ238に、注釈を画像データ、(例えばビューマッチング中のフィードバックを提供するための)グラフィカルインジケータ、及び/又はシステム200のインテリジェントスキャンモードに関連するグラフィカルユーザインターフェース構成要素のいずれかと共に提示させる機能をさらに含む。例えば、表示プロセッサ234は、ディスプレイ238上に表示される前さらなる強調、バッファリング、及び一時記憶のために画像データを受信する。ディスプレイ238は、LCD、LED、OLED、又はプラズマディスプレイ技術などの、種々の既知のディスプレイ技術を用いて実施されるディスプレイデバイスを含み得る。図2では、例示のために、エンジン227と表示プロセッサ234とは別個の構成要素として示されているが、実際には、これらの構成要素(及び本明細書で説明される任意の他の処理構成要素)の機能は、単一のプロセッサ又は一緒に(例えば、並列に)動作するように構成されたプロセッサのクラスタに統合されていてもよい。
[045] さらに説明されるように、プロセッサ223は、ソフトウェア(例えば、ソースコード又はコンパイルされた/機械命令の形態の実行可能命令)及びハードウェア構成要素(例えば、実行可能命令及び/又はエンジン227の機能のうちの1つ以上を行うように具体的にプログラムされた特定用途向け集積回路ASICなどの配線回路によってプログラム可能な1つ以上のプロセッサ)の任意の適切な組合せで具現化されるエコー強度比定量化エンジン227を含む。エンジン227は、図1を参照して説明したステップのうちの1つ以上を行うための機能を含む。いくつかの実施例では、エンジン227の機能は、プロセッサ実行可能命令225によって実装される。プロセッサ実行可能命令225は、プロセッサ223によって実行されると、イメージングのための適切なビューの特定及び/又は2つのRIOのエコー強度比の定量化に関連する機能を行うようにプロセッサを構成又はプログラムする。いくつかの実施形態では、本明細書でさらに説明するように、エンジン227は、エンジン227の機能の1つ以上を行うようにトレーニングされた少なくとも1つのニューラルパーセプトロンの人工ネットワーク228(本明細書では人工ニューラルネットワーク又は単にニューラルネットワークとも呼ぶ)を含む。任意の適切なタイプの機械学習アルゴリズム(例えば、生成的、判別的、又はこれらの組合せ)及び/又はアーキテクチャを使用して、ニューラルネットワーク228を実装できる。いくつかの実施例では、ニューラルネットワーク228は、画像分類、画像セグメンテーション、画像比較、又はこれらの任意の組合せを実行するようにトレーニングされている深層ニューラルネットワーク、より具体的には深層畳み込みニューラルネットワークを含む。(例えば、PACS又はクラウドストレージ内に)記憶される医用画像データや、トレーニング用画像に必要なラベリングを提供可能な注釈付き画像データのボリュームが増加すると共に、高品質な臨床画像の利用可能性が増加しており、これを利用して、医用画像データに対して分類、セグメンテーション、物体認識、又は他の画像処理タスクを行うようにニューラルネットワークをトレーニングすることができる。トレーニング画像は、イメージングシステムによって生成された完全な画像を含む必要はなく、関連するターゲット生体組織又は器官の医用画像のパッチ又は部分を含むことが理解されるであろう。
[046] ニューラルネットワーク228は、任意の適切なアーキテクチャを有することができ、したがって、任意の数の入力層、出力層及び隠れノード層を任意の適切な構成(例えば、畳み込み層、正規化層、プーリング層、及び/又は高密度若しくは全結合層)で含む。いくつかの実施例では、ネットワーク228は、所望の結果を生成するようにトレーニングされたより大きなネットワークを形成する1つ以上のサブネットワークの任意の適切な構成を含む。さらなる実施例では、ニューラルネットワーク228は、例えば、ニューラルネットワーク228に入力されるデータの前処理及び/又はネットワーク228の出力の後処理を実行して、エコー強度比定量化エンジン227から適切な結果を生成するように、追加のプログラムに動作可能に関連付けられる。
[047] 上述したように、システム200の構成要素のいくつか又はすべては、(例えば、システムベース230内に)同じ場所に配置され、(例えば、データバス226を介して)通信可能に接続される。さらに又はあるいは、システム200の構成要素は、1つ以上の有線又は無線接続を介して遠隔構成要素に接続されてもよい。例えば、システムベース230はさらに、外部ストレージ235(例えば、外部ドライブ又は医療施設のPACS記憶デバイス)に通信可能に結合される。いくつかの実施形態では、エンジン227の機能のいくつか又はすべては、クラウドサーバなどのリモートコンピューティングデバイス239内に常駐していてもよい。例えば、1つ以上のニューラルネットワーク228は、リモートコンピューティングデバイス239上に常駐して、実行され、システムベース230(例えば、タブレット超音波イメージングシステムなどのポータブルシステム)は、分類及び/又はセグメンテーションのためにライブ画像をクラウドに送信し、プローブ211によって取得された関連画像データと共に表示するために、エンジン227の出力(例えば、信頼メトリック)を受信する。
[048] 本明細書に説明されるように、プロセッサ223は、エコー強度比定量化(例えば、H/R比を使用する脂肪定量化のための肝イメージングの場合)に適したビューを(例えば、入力されるリアルタイム画像から)を特定し、エコー強度比の計算に関連するさらなる処理のために、特定された適切なビューを自動的にキャプチャする。これらのプロセスは、集合的にインテリジェントスキャン又はAI支援スキャンと呼ぶ。図3は、本明細書の実施例による超音波イメージングシステムのインテリジェントスキャンモードを起動し、したがって、プロセッサ223の関連機能を呼び出すために使用するグラフィカルユーザインターフェース(GUI)300の一例を示す。GUI300は、超音波システム(例えば、システム200)のタッチセンシティブディスプレイ上に提供され、システムの機能を選択又は起動するための制御部310の1つ以上の対話型GUI要素を含む。例えば、GUI300は、システム200のインテリジェントスキャンモード301(AI支援の肝スキャン)を起動するための制御部310(例えば、脂肪定量化ソフトボタン)を含む。システム200の任意の数のAI支援機能を起動するために、任意の数のそのような制御部が提供されていてよい。インテリジェントスキャンモードで動作すると、システムは、ユーザにガイダンスを提供するか、又は対応するスキャンプロトコルの特定の動作を自動化する。
[049] いくつかの実施例では、システムは、組織の適切なビューの取得においてユーザを誘導する。図4のパネルa〜cは、AI支援の肝スキャン中に提供され得る追加のグラフィック表示を示す。例えば、制御部310−1を介する起動時、システムは、例えば、タッチセンシティブディスプレイ上又はメインディスプレイ上の新しいウィンドウに、アイコン410(図4、パネルa)などの1つ以上のガイダンスアイコンを表示する。このアイコンは、適切な解剖学的ビューを取得するためのプローブの配置においてユーザを誘導するようにデザインされたグラフィックを含む。さらに又はあるいは、システムは、所望の解剖学的ビュー内の器官の相対位置を示すグラフィックであるアイコン412(図4、パネルb)を表示してもよい。アイコン412は、ユーザ(特に、未経験のユーザ)が、スキャンを行う前又はスキャンを行っている間に最適なビューを視覚化するのを支援する。アイコン410、412の1つ以上は、スキャンセッションの開始時に一度表示されても、ユーザがスキャンを行い、システムがディスプレイのアクティブ領域420内にリアルタイム画像422を表示している間に、ディスプレイ上に同時に(例えば、縮小/サムネイル形式で)表示されてもよい(図4、パネルc)。オペレータがプローブを患者に当て、音響ウィンドウを取得すると、システムは(例えば、パネルcに示すように)ライブ画像表示を自動的に起動し、システムは、被検者のリアルタイム画像、すなわち、ライブ画像の表示を開始する。いくつかの実施形態では、システムは、(例えば、プローブの視野内の所望の組織をより良好にキャプチャするために、ユーザにプローブをサジタル面上に沿って又はつま先からかかとに移動させるための視覚的又は聴覚的命令によって)プローブの操作方法に関する命令をユーザに提供するなど、システムがバックグラウンドで画像ビュー解析を行う間に、追加のガイダンスを提供する。
[050] インテリジェントスキャンモード中に、各取得フレームの画像データは、リアルタイムで適切なビューの特定のためにエンジン227に提供される。上述したように、ビュー特定(又はビューマッチング)は、人工ニューロンの1つ又は任意の数の積み重ねられた、接続された、又はその他の適切に構成されたネットワークを含むニューラルネットワーク228によって行われる。いくつかの実施例では、ニューラルネットワーク228は、各入力画像について、信頼メトリック(本明細書ではマッチングスコアとも呼ぶ)を出力する深層畳み込みネットワークを含む。信頼メトリック(又はマッチングスコア)は、所与の画像が所望の又はターゲット画像ビューに対応する確率又は信頼レベルの指標を提供する。マッチングスコアは、少なくとも部分的に、分類、セグメンテーション、物体検出、又は画像の内容を解析するための他の技法、又はこれらの任意の適切な組合せによって導出される。いくつかの実施例では、深層畳み込みネットワークは、画像セグメンテーションを行うようにトレーニングされた完全畳み込みネットワークを含む。いくつかの実施形態では、深層畳み込みネットワークは、物体検出、画像セグメンテーション、又は両方を行う少なくとも1つの畳み込みサブネットワークと、任意選択で、物体検出又はセグメンテーションの出力を分類して信頼メトリックを生成する少なくとも1つの追加サブネットワークとを含む。いくつかの実施例では、完全畳み込みネットワークは、高密度(すなわち、ピクセルごとの)予測によく適しているため、画像を関連するピクセルの複数のセグメントに分割するように効果的にトレーニングできるので、画像セグメンテーションの機械学習に特によく適している。
[051] 一例では、ネットワーク228(例えば、深層畳み込みネットワーク)は、各入力画像を複数のカテゴリのうちの1つに分類するように画像分類を行うようにトレーニングされる。深層畳み込みネットワークは、入力画像を受信する入力層と、分類(例えば、バイナリ分類か、又は入力画像が分類カテゴリのいずれか1つに関連する確率をリストしたベクトル)を出力する出力層と、畳み込み層、プーリング層、正則化層、及び全結合(又は高密度)層を含む任意の数の中間層とを含む。図5は、本開示のいくつかの実施例で使用され得る畳み込みネットワークの例示的なアーキテクチャを示す。ネットワーク500は、入力層510と、各々が1つ以上の正則化層及びプーリング層に関連付けられている4つの畳み込み層512と、2つから4つ(この特定の場合には3つ)の全結合層514とを含み、最後の全結合層が出力層514−3である。しかし、他の実施例では、ネットワークは、例えば、データセットの複雑さに応じて異なる数の層、例えば、より少ない又はより多い数の畳み込み層及び/又は全結合層を含み得る。入力層510は、入力画像501(例えば、肝組織及び/又は腎組織を視覚化する超音波画像)を受信する。画像501は、単一チャネル(グレースケール)又はマルチチャネル(カラー)画像であり得る。図示の例では、入力画像501は、150×150ピクセル解像度を有する3チャネルグレースケール画像であり、したがって、ネットワーク500に入力されるボリュームは、サイズ150×150×3を有するピクセル値の3次元アレイであるが、他の実施例では入力サイズが異なってもよい(例えば、128×128、256×256、又は任意の他の解像度の画像を受け入れる)ことが理解されよう。各畳み込み層において、複数のフィルタが入力画像に畳み込み演算を行い、特徴(又は活性化)マップ(例えば、層512−1で32個、層512−2で16個、層512−3で8個、及び層512−4で4個)のスタックである各畳み込み層の出力を生成する。プーリングを伴う畳み込み層に続いて、空間次元における入力サイズが縮小され(例えば、150から75へ、次いで37)、このダウンサンプリングは、一部のプーリングのタイプ(例えば、最大、平均、L2ノルムなど)、畳み込みストライド、及びプーリングストライドに依存する。図示の具体例では、入力画像は、最後の畳み込み層512−4の出力において、4つの37×37活性化マップのスタックに処理され、次いで、第1の全結合層514−1に提供され、第1の全結合層は32サイズのベクトルを出力する。次に、第1の全結合層514−1の出力は、それぞれ16及び2の出力サイズを有する2つの追加の全結合層514−2、514−3を通って伝播され、最後の全結合(すなわち、出力)層514−3において、2次元ベクトルを出力し、各次元は2つの、すなわち、バイナリ分類(例えば、一致又は不一致)カテゴリのいずれかに入る画像の確率を表す。図5に示す特定のアーキテクチャは、単に例示のために提供されたものであり、特定のアーキテクチャ、層の数、ならびに入力及び出力サイズは、他の実施例では異なってもよいことが理解されるであろう。例えば、他の実施形態では、ネットワーク500は、4、5、6又はそれよりも多い数の分類カテゴリを有するような、異なるサイズの分類ベクトルを(出力層514−3において)出力するようにトレーニングされてもよい。
[052] バイナリ分類(すなわち、一致又は最適なビュー、及び不一致又は準最適なビュー)の場合、ネットワークは、ラベル付けされた画像のセット(トレーニングデータとも呼ぶ)を使用してトレーニングされる。トレーニングデータは、(例えば、数百から数千の)多数の臨床画像を含み、各画像は、一致(又は最適なビュー)又は不一致(準最適なビュー)のいずれかとして(例えば、経験豊富な超音波検査技師又は臨床医によって)ラベル付けされている。図6は、トレーニングデータとして使用される画像600の一例を示す。それぞれが十分な量の肝組織及び腎組織の両方を視覚化する画像のセット610は、「一致」分類カテゴリに属するものとしてラベル付けされている。主に肝組織を示すか、又はH/R比定量化に適していない画像のセット612は、「不一致」分類カテゴリに属するものとしてラベル付けされている。トレーニングデータ600は、ニューラルネットワークに提供され、ネットワークのパラメータは、トレーニングプロセス全体にわたって(例えば、バックプロパゲーション又は他の技法によって)更新される。ニューラルネットワーク500の1つの実験的なバージョンでは、5400枚以上の臨床画像をトレーニング及び検証に使用した。トレーニング画像は、トレーニングセットと、テスト又は検証セットとに分割された。トレーニング及び検証データセットは、トレーニングのためにネットワークに提供されるラベル付き画像を含む。トレーニング中にネットワークに示されることのなかったラベル付きテスト画像を使用して、システムの性能がテストされ、これは、実験的な使用では、少なくとも85%の正確な予測を提供することが示された。このようにして、ニューラルネットワーク(例えばネットワーク500)はトレーニングされて、新しい未知の画像を、ネットワークがそれに対してトレーニングされた分類カテゴリの1つに分類する。
[053] 理解されるように、ネットワーク500は、入力画像を3つ以上のカテゴリに分類するようにトレーニングされてもよい。このシナリオでは、トレーニングされているすべてのカテゴリがトレーニングデータで表現されるように、ネットワークは3つ以上のカテゴリにラベル付けされた画像でトレーニングされる。例えば、トレーニングデータは、不一致を表す画像(例えば、ビュー内に肝実質及び腎実質を共に含まない画像)、したがって、0の値でラベル付けされる画像と、画像内の肝臓及び腎臓の理想的な位置付けを含み、一致(又は最適なビュー)としてラベル付けされ、及び/又は1の値が割り当てられる画像とを含む。最適ビューと許容できないビューとの間のどこかに該当する残りの画像は、任意の数の中間カテゴリに分割され、対応して0と1との間の値でラベル付けされて、一致の質を示す。例えば、腎組織を含まない任意の画像を、例えば、ほとんど不一致(0.2)、許容できる一致(0.4)、良好な一致(0.6)、及び非常に良好な一致(0.8)と示すことができる。トレーニング画像の中間分類は、部分的に、経験豊富な超音波検査技師又は臨床医が判断したビュー、又は、画像中に視覚化されている肝組織及び腎組織の割合の計算、肝臓と腎臓との境界の場所などの定量的評価による質に基づいていてもよい。
[054] 本開示によるニューラルネットワークをトレーニングするために、VGGNet又はResNetのようなアーキテクチャなど、任意の適切なアーキテクチャを使用してもよく、また、「ブランクスレート」ネットワークを一から(すなわち、重みの事前構成なしに)トレーニングしてもよい。図7に示すように、必要とされるトレーニングデータの量を減らすために、(図7に示すように)Inception V3などの事前トレーニングされたネットワーク又は別のネットワークを開始点として使用できる。次いで、事前トレーニングされたネットワーク710は、具体的には、特定の臨床用途(この場合は肝イメージング)の医用画像(例えば、超音波画像712)のはるかに小さいトレーニングデータセットで医用画像データを分類するために微調整される。微調整は、例えば、Inception V3ネットワークの最後から2番目の層を、所望の分類(例えば、一致/不一致)を生成する新しい出力分類器714(例えば、全結合層から構成される)に入力することによって、又は、Inception V3ネットワークによって出力された特徴ベクトルを、トレーニングデータが少なくて済む新しい分類器に提供することによって行われる。
[055] 上述したように、適切なビューが特定されると、システムは、適切なビューを表す画像を自動的にキャプチャする(例えば、ローカルメモリに記憶する)。適切なビューの特定は、エンジン227が一致を示すメトリック又はスコアを出力することに基づき得る。例えば、所与の画像が、75%以上で良好ビューのカテゴリ内であり、25%以下で不良ビューのカテゴリ内であると分類される場合、システムは、入力画像が適切なビューに対応すると決定する。同様に、非バイナリ分類の場合、システムは、例えば、分類値によって重み付けされた各分類の確率を合計することによって、ビューマッチングスコアを計算する。例えば、ネットワークが、画像をn個のカテゴリに分類するようにトレーニングされ(各カテゴリは、例えば0と1との間の一意の値に関連付けられる)、それぞれのカテゴリに対応する画像の確率を表す分類ベクトルy(c、c、c)を出力する場合、エンジン227は、分類ベクトルの重み付けされた値を合計することによってビューマッチングスコアMを計算する。すなわち、
Figure 2021531885
である。エンジンは、ビューマッチングスコアが閾値(例えば、0.5、0.65、0.70以上)を超える場合、ビューは一致である(例えば、定量化に適している)ことを決定する。他の実施例では、システムは、非常に良好との分類又は最適との分類のいずれかの確率が特定の値(例えば、50%以上)を超える場合にのみ、ビューは一致であると決定してもよい。
[056] いくつかの実施形態では、マッチングは、バックグラウンドで行われてもよいし、ユーザに対して実質的に透過的であってもよい。いくつかのそのような実施例では、ユーザがプローブを操作し、ディスプレイがリアルタイム画像を表示し続ける間は、システムが適切なビューを特定するまで、ビューマッチングプロセスによって生成される他の情報は提供されない。ビューが特定されると、システムはフリーズモードに入り、適切なビューを表す画像はディスプレイ上に(フリーズモードで)表示される。フリーズモードの自動起動は、適切なビューが特定されたことの指示を提供する。
[057] インテリジェントスキャンモード中、システムは、適切なビューの取得においてユーザを支援するために(例えば、プローブの操作においてユーザを支援する命令の形態で)、ユーザにガイダンスを提供する。いくつかの実施形態では、システムは、システムのプロセッサ(例えば、プロセッサ223)によって計算されている信頼メトリックの現在値を表すグラフィカルインジケータを表示するなどによってガイダンスを提供する。
[058] 図8は、グラフィカルインジケータを有する、超音波システムの例示的なスクリーンキャプチャを示す。グラフィカルインジケータは、任意の所与のライブ画像の信頼メトリックのリアルタイムの視覚的指示を提供するために動的に更新される。この例では、グラフィカルインジケータは、可動ゲージを有するカラーバー(例えば、ホット又は赤色が一致に対応し、コールド又は青色が不一致に対応するホットコールドカラーバー)の形態のマッチインジケータ820として実装される。図8のパネルa〜dの各々は、肝組織802のライブ超音波画像810、812、814、及び816のスクリーンキャプチャを示し、各ライブ画像は、カラーバーマッチインジケータ820と同時に表示される。マッチインジケータ820は、現在表示されている画像フレームのビューマッチングスコアの値を示すためにカラーバーを上下に移動する動的構成要素822(例えば、スライドレベル又はバー)を含む。最小値及び最大値は、分類カテゴリの最小値及び最大値、ここでは0及び1に対応し、動的構成要素822は、計算された又は別の方法で導出されたビューマッチングスコアを表す。図示のように、画像810では、ビューマッチングスコアは約0.2であり、これは腎組織がビューに含まれていないことを反映する比較的低いマッチング確率を示す。ユーザがプローブを操作すると、システムは、連続するフレームについてビューマッチングスコアを連続的に再計算し、カラーバーに沿った動的構成要素822の位置を動的に更新する。画像816内のビューは、4つのビューマッチングスコアのうち最も高いものに関連付けられ、図8に示す4つのビューのうちの最良のものを表す。上述したように、好ましい実施形態では、ビューマッチングスコアは、ニューラルネットワークの動作に応答して生成されるが、ビューマッチングスコアは、従来のコンピュータビジョンアプローチ及び/又は手作りの特徴生成(例えば、キャニーエッジ検出、輝度勾配ヒストグラム、及びサポートベクターマシン)を追加的に又は代替的に使用して取得されてもよい。他の実施例では、一致インジケータは、ゼロ速度が最小値の信頼メトリックに対応し、最大速度が最大値の信頼メトリックに対応し、ダイヤル内の矢印が信頼メトリックの現在地を示すように動的に更新されるスピードダイヤルなど、異なるタイプのグラフィカル要素を使用して実装されてもよい。さらなる実施例では、信頼メトリックは、画像と共に数値的に表示されてもよい。他のグラフィカルインジケータを使用して、ディスプレイ上に信頼メトリックを視覚化してもよい。
[059] いくつかの実施形態では、ビューマッチングは、画像セグメンテーションを使用して行われる。例えば、図2に戻って参照すると、システム200が採用する1つ以上のニューラルネットワーク228は、入力画像をセグメント化し、画像のセグメンテーションに基づいて、画像がターゲットビューに対応するかどうか(例えば、画像がビュー内に組織/器官のターゲット配置を含むかどうか)の決定を行うようにトレーニングされる。ネットワーク228は、各入力画像のセグメンテーションマップを生成するようにトレーニングされた任意の数の層(例えば、畳み込み層、プーリング層、及び正則化層)を含む。非機械学習技法と同様に、セグメンテーションプロセスは、デジタル画像を複数の領域又はセグメント(すなわち、ピクセルのセット、又は、3D画像データの場合はボクセルのセット)に分割する。具体的な例では、ネットワーク228は、ピクセルごとに意味的セグメンテーションを行うようにトレーニングされ、それによって、画像内の各ピクセルを複数のカテゴリ(例えば、肝臓、腎臓、肺、モリソン窩、血管、病変など)のうちの1つに割り当てる。
[060] 図9は、画像セグメンテーションを行うようにトレーニングされた完全畳み込みニューラルネットワーク900の一例を示す。ネットワーク900は、ラベル付き画像(例えば、異なるタイプの組織の、手動又はコンピュータ支援のいずれかで描写された境界が重ね合わされた肝臓及び/又は腎臓の画像)を含むトレーニングデータを使用してトレーニングされる。したがって、ネットワーク900は、入力超音波画像をセグメント化して、セグメンテーションマップを生成するようにトレーニングされる。セグメンテーションマップでは、同じカテゴリ(例えば、同じ組織タイプ)に関連していると機械学習アルゴリズムによって決定された隣接ピクセルのグループが、同じ意味カテゴリに割り当てられる。セグメンテーションマップは、複数のセグメンテーションマスクから構築されてもよく、各セグメンテーションマップは、複数のカテゴリのうちの1つに対応する。所与のセグメント内のすべてのピクセル(すなわち、スーパーピクセル)には、同じピクセル値(グレースケール又はカラーのいずれか)が割り当てられ、最終的なセグメンテーションマップは、スーパーピクセルを単一のマップとなるように組み合わせることによって組み立てられる(例えば、セグメンテーションマップ920参照)。ネットワーク900は、少なくとも部分的に、図2のネットワーク228を実施するために使用される。ネットワーク900は、同じ「レベル」上にあるエンコーダ層からデコーダ層へのスキップ接続を有する畳み込みオートエンコーダとして実装されてもよい。このようなアーキテクチャの例としては、2D画像のセグメンテーションに適している、図10Aに示すU−netアーキテクチャ1010や、3D画像データのセグメンテーションによく適している、図10Bに示すV−netアーキテクチャ1020がある。図9及び図10に示すように、このようなネットワークは、縮小パス(例えば、図10Aのパス1012)を含み、それに続いて、畳み込み層及び最大プーリング層のカスケードを伴う拡張パス(例えば、図10Aのパス1014)を含み得る。縮小パスは、空間次元において画像データをダウンサンプリングし、拡張パスは、データを元の画像サイズにアップサンプリングする。実施形態では、機械学習において画像セグメンテーションが使用され、このようなニューラルネットワークは、例えば、図10A及び図10Bに示すように、拡張パスに沿ったアップサンプリング層の数と同数のダウンサンプリング畳み込み層を縮小パスに沿って有する左右対称の完全畳み込みネットワークを含み得る。
[061] 他のタイプの深層畳み込みニューラルネットワークをトレーニングして、入力画像をセグメント化し、セグメンテーションマップを生成し、その結果、信頼メトリックは、リアルタイム超音波画像のセグメンテーションマップに少なくとも部分的に基づいて計算される。いくつかの実施形態では、信頼メトリックの計算は、セグメンテーションを使用する場合、ニューラルネットワークによって出力されたセグメンテーションマップを所望のビューのセグメンテーションマップと比較することを含む。いくつかの実施形態では、ニューラルネットワークは複数のサブネットワークを含み、そのうちの1つがセグメンテーションを行うようにトレーニングされ、そのうちの別の1つが、例えば、セグメンテーションマップを一致の質に対応するクラスに分類することによって、信頼メトリックを計算するようにトレーニングされ得る。このような例では、第1のサブネットワークが入力画像を受信して、セグメンテーションを行ってセグメンテーションマップを生成する。セグメンテーションマップは、セグメンテーションマップがターゲットビュー(例えば、最適な肝臓/右腎臓のサジタルビュー)に対応するかどうかを認識するようにトレーニングされている第2のサブネットワーク(例えば、畳み込み分類アルゴリズム又は別のタイプの畳み込みネットワーク)に提供される。さらに他の実施例では、信頼メトリックは、セグメンテーションマップ、したがって、ソース画像が十分な量の特定のタイプの組織(例えば、腎組織)を含むかどうか、及び/又は画像が画像内の適切な位置で特定のタイプの組織を視覚化しているかどうかを決定するためなど、セグメンテーションマップの内容のみを定量的に解析することによって(すなわち、最適マップと比較することなく)計算される。
[062] 図9に示すように、ネットワーク900は入力画像(例えば、肝臓の超音波画像910)を受信し、ピクセル単位の予測を行ってセグメンテーションマップ920を導出するようにトレーニングされる。例えば、ネットワーク900は、画像910の各ピクセルを、複数のセグメンテーションカテゴリ又はマスク(例えば、肝臓、腎臓、肺、若しくは背景、又は例えば腎髄質から腎皮質をさらにセグメント化する他の組合せ)のうちの1つに分類するようにトレーニングされる。トレーニングのために、ネットワーク900には、複数のトレーニング画像が提供される。各トレーニング画像は、それぞれのピクセルをセグメンテーションに割り当てるために適切にラベル付けされている。例えば、トレーニング画像は、臨床画像に、オペレータが描写した又はコンピュータが特定したセグメンテーションマップと重ね合わせることによって準備される。特定の例におけるネットワーク900の特定のアーキテクチャは、用途(例えば、セグメント化される画像データの複雑さ)に基づいて異なるが、いくつかの実施例では、ネットワークは、縮小パスに沿ったいくつかの畳み込み層912と、アップサンプリングパスに沿った等しい数の拡張畳み込み層とを含み、それぞれ(例えば、図10A及び図10Bに示すように)正則化及びプーリングに関連付けられる。
[063] さらに別の例では、1つ以上のネットワークが、追加的に又は代替的に物体検出を行うようにトレーニングされてもよい。YOLO(you only look once)ネットワークなどのいくつかのニューラルネットワークアーキテクチャが、画像内の物体を検出するために開発されており、任意のそのような物体検出ネットワークを開始点(例えば、事前にトレーニングされたネットワーク)として使用してよく、これは、後に、特に医用画像データでさらにトレーニングされて、超音波画像内の臨床的に関連する物体を検出するように微調整される。例えば、図11に示すように、物体検出ネットワークは、好ましい実施例では、リアルタイムで(例えば、各フレームが受信されるときに)、任意の数のカテゴリの物体(例えば、腎臓(例えば、境界ボックス1110)、血管(例えば、境界ボックス1112−1、1112−2、及び1112−3))、ならびにターゲット解剖学的構造の画像内に存在し得る他のカテゴリ又はクラスの物体(例えば、境界ボックス1114)の存在及び位置を認識するようにトレーニングされる。このような物体検出ネットワークは、入力画像が物体のクラスのうちの1つ以上及びそれらのそれぞれの場所(例えば、検出された物体の周りの境界ボックスの形態で)を含む確率を出力する。物体検出ネットワークは、(例えば、物体検出ネットワークの出力を結合することによって)1つ以上の他のネットワーク(例えば、分類又は他のタイプのニューラルネットワーク)又は非機械学習後処理構成要素に動作可能に接続されて、入力画像がターゲット画像ビューに対応するかどうかを決定し、この決定に基づいて信頼スコアを出力する。
[064] システムは、セグメンテーション又は物体検出の結果を利用して、ROI配置を推奨する。例えば、入力画像のセグメンテーションが完了すると、システムは、セグメンテーションマップを利用して、推奨ROIがエコー強度比の正確な計算のために信頼性をもって使用できるように、ROI配置のための適切な場所を推奨する。同様に、物体検出プロセスの結果を使用して、ROI配置を誘導できる。例えば、画像内の異なるクラスの物体及びそれらの場所/境界ボックス(例えば、腎臓に対応する領域、ならびに血管及び病変などの他の構造に対応する1つ以上の領域)を特定した後、システムは、適切な測定ROIの基準を満たす画像内のピクセルのグループ、例えば、肝臓及び腎臓内の同じ深さにあり、ほぼ均一な組織に対応する(例えば、血管又は病変などの他の身体構造に重ならない)ピクセルのグループを自動的に特定する。図11に示すように、プロセッサは、画像上に、例えば、検出された物体のカテゴリ、腎臓に関連付けられた境界ボックス(例えば、境界ボックス1110)で第1のピクセルグループを示すことによって、また、画像内の同じ深さであるが境界ボックス1110の外側にあり、他の構造(例えば、血管、病変など)に関連付けられた他の境界ボックスに重ならない第2のピクセルグループを示すことによって、定量化のために推奨されるROI1116−R及び1116−Hの1つ以上のペアを示す。
[065] 図12は、超音波システムディスプレイの例示的なスクリーンキャプチャ1210を示し、これは、定量化のための適切なビューを表すように特定された画像1212を示す。推奨ROIの1つ以上のセットがシステムによって(例えば、プロセッサ223によって)提供される。図示の実施例では、推奨ROIの2つのセットが表示画像上に示されているが、他の実施例では、異なる数のROIのペア、例えば、最適な場所にあると考えられる単一のペアのみ、又は複数(2、3、4、又はそれ以上)のペアが推奨されて、統計的解析を使用して最終的に計算されるエコー強度比を決定できるように、比率がペアのそれぞれについて計算されてもよいことが理解されるであろう。いくつかの実施例では、比率は、ROIの1つのペアに関してしか計算されない。
[066] 図12の特定の例では、肝臓ROI1221−H及び腎臓ROI1221−Rを含む第1のROIセットが、例えば、プロセッサ223によって特定され、第1のROIセットには、プロセッサ223に応答して、第1の深さにおいて画像上に円形のマーカが配置される。肝臓ROI1222−H及び腎臓ROI1222−Rを含む第2のROIセットが、例えば、プロセッサ223によって特定され、第2のROIセットには、プロセッサ223に応答して、画像内の第2の深さにおいて第2のセットの円形マーカが配置される。特に、各推奨ROIペアは、ペア内のROIが同じ深さにあるように選択され、これは、曲面トランスデューサの場合、同じ円弧1224−1又は1224−2に沿って存在するROIに対応する。推奨ROIセットは、複数のセットが決定された場合、同時に又は順番にユーザに提示されて、ユーザが所望のROIペアを確認又は選択することを可能にする。いくつかの実施例では、ディスプレイはまた、ユーザが推奨ROIの配置を視覚化し、より良く認識することができるように、セグメンテーションステップによって決定される腎組織を描写するインジケータや、こちらもユーザが推奨ROIの適切な配置を認識し、視覚的に確認することを可能にする深さインジケータ(例えば、円弧1224−1及び1224−2)を含んでもよい。いくつかの実施形態では、適切なROIの選択が、ユーザの関与なしに、例えば、システムが最適なROI配置を決定することによって行われる。このような実施形態では、システムが事前にプログラムされた論理(例えば、ルールベースの決定木)又は適切にトレーニングされたニューラルネットワークを使用して、選択されたROIが各実質(例えば、肝臓及び腎臓)の実質的に均一な組織を表すように、ROIがアーチファクト誘発構造と重ならないように、かつ、それらが同じ深さに配置されるように、測定ROIの最も適切な配置を決定してもよい。
[067] (例えば、所与のペアの2つのROIのうちのいずれか1つをクリックするか又は深さインジケータ(例えば、円弧1224−1又は1224−2)をクリックすることによる)ユーザ入力に応答して、又はシステムによる自動選択に応答して所望のROIペアが選択されると、システムは、H/Rエコー強度比の計算を自動的に進める。H/Rエコー強度比を計算するために、システムは、第1の又は肝臓ROIにおけるエコー強度の代表値を、第2の又は腎臓ROIにおけるエコー強度の代表値で割る。代表値は、ROI内のすべてのピクセルのエコー強度値の平均値、又は、例えば、ヒストグラミング処理又は他の統計的解析技法によって取得される、何らかの他の代表値(例えば、平均値、中央値など)であってよい。H/Rエコー強度比の計算は、生のRFデータを使用して(例えば、対数圧縮の前に)行われ、これは、定量化の精度を高めることができる。
[068] 本明細書のいくつかの実施例による、生体組織を超音波検査する方法は、超音波システムのプロセッサによって、1つ以上のタイプの生体組織を表すリアルタイム超音波画像を受信するステップと、リアルタイム超音波画像を、各入力画像の信頼メトリックを出力するようにトレーニングされた少なくとも1つの畳み込みニューラルネットワークに提供するステップとを含む。図13は、本開示の原理による例示的なプロセスのフロー図を示す。図13に示すように、プロセスは、超音波システムのプロセッサ1301が、超音波画像を受信し(ステップ1304)、H/R定量化プロセスを起動するための入力を受信する(ステップ1302)ことによって開始される。超音波画像データは、入力超音波画像内の画像ビューが所望のビューに対応するかどうかを特定するようにトレーニングされたニューラルネットワークに結合される(ステップ1310)。画像を、定量化に対する画像の適合性を定性的に表す複数のカテゴリのうちの1つに分類することなどによって、本明細書の実施例のいずれかに従って、ビューマッチング又は特定が行われる。ステップ1310において、ニューラルネットワークは、信頼メトリック(例えば、ビューマッチングスコア1306)を計算する。上述したように、信頼メトリックは、ターゲットビュー、例えば、肝イメージングのコンテキストでは、肝実質及び腎皮質の実質的に均一な組織内への測定ROIを配置することを可能にするように、十分な量の肝臓及び右腎皮質を視覚化するサジタルビューに従って生体組織を視覚化するリアルタイム超音波画像の確率を示す。
[069] ステップ1312において、信頼メトリックが基準を満たすと決定された場合(例えば、ビューマッチングスコアがある値を超えるなどして、信頼メトリックが、ビューは適切なビューであることを示す場合)、プロセスは、ステップ1314に続いて、画像を自動的にキャプチャする(ローカルメモリに記憶する)。信頼メトリックが基準を満たさないと決定される場合、プロセスはステップ1310に戻り、ニューラルネットワークは、次の画像フレームを受信し、解析する。システムがインテリジェントスキャンモードにある間(例えば、H/R定量化アプリケーションの実行中)、適切なビューが特定されるまでビューマッチングが繰り返される。システムは、例えば、システムによって生成される可聴音の形態で、システムがディスプレイ上に表示された取得画像を用いて自動的にフリーズモードを開始することによって(ステップ1318)、又はその2つの組合せで、一致ビューが取得されたことの指示を提供する(ステップ1316)。他のタイプのフィードバック(例えば、適切なビューの取得に続くプローブのわずかな振動による触覚によって)が、ビューが特定されたことの指示として提供されてもよい。
[070] 次いで、プロセスは進んで、ステップ1320に示すように、ROI配置のためのガイダンスを提供する。システムは、例えば、キャプチャされた画像をセグメント化して、異なるタイプの組織(例えば、肝臓及び腎臓)に対応する画像内の領域を特定することによって、少なくとも1つのROIペアの位置を決定する。次いで、プロセッサは、表示された画像上に、肝臓領域内のピクセルのグループを推奨肝臓ROIとして示し、画像内の同じ深さであるが腎臓皮質内のピクセルの別のグループを推奨腎臓ROIとして示す。複数のこのような推奨ペアが画像上に提示される。システムは、推奨ROIペアのうちの1つ以上の選択を待ち、選択を受信すると、各ROIペアについてH/R比を計算する(ステップ1322)。計算された比は、画像データと共に記憶され(ステップ1324)、プロセスは終了する(ステップ1326)。本明細書で説明するように、画像セグメンテーションだけでなく、プロセスの他のステップは、1つ以上の適切にトレーニングされたニューラルネットワークによって行われる。これらのネットワークは、商用システム内への配備の前にトレーニングされていても、(例えば、システム又は診断臨床医によって、その後にさらなるトレーニングデータとして使用するのに適したやり方で自動的に注釈付け又はラベル付けされる、実際の患者検査からの)その後に取得された画像データを使用して追加のトレーニングが現場で行われてもよい。
[071] 本明細書では、超音波画像データを参照して疎にサンプリングされたデータから医用画像を生成する実施例を説明しているが、本明細書の実施例は、磁気共鳴イメージング(MRI)、コンピュータ断層撮影法(CT)、陽電子放出断層撮影法(PET)、及び実質的にすべての他のイメージングモダリティなど、任意のイメージングモダリティの疎のデータセットから画像を生成するためにニューラルネットワークをトレーニングすることに等しく適用可能であることを理解されたい。
[072] 構成要素、システム、及び/又は方法が、コンピュータベースのシステム又はプログラマブル論理などのプログラマブルデバイスを使用して実装される様々な実施形態では、上述のシステム及び方法が、「C」、「C++」、「FORTRAN」、「パスカル」、「VHDL」などの様々な既知の又は後に開発されるプログラミング言語のいずれかを使用して実装できることを理解されたい。したがって、上述のシステム及び/又は方法を実装するようにコンピュータなどのデバイスに指示することができる情報を含むことができる、磁気コンピュータディスク、光ディスク、電子メモリなどの様々な記憶媒体を準備することができる。適切なデバイスが、記憶媒体に含まれる情報及びプログラムにアクセスできると、記憶媒体は情報及びプログラムをデバイスに提供することができ、したがって、デバイスは、本明細書に説明するシステム及び/又は方法の機能を行うことができる。例えば、ソースファイル、オブジェクトファイル、実行可能ファイルなどの適切な材料を含むコンピュータディスクが、コンピュータに提供された場合、コンピュータは情報を受信し、適切に自身を構成し、様々な機能を実装するために、上述の図及びフローチャートに概説された様々なシステムの機能及び方法を行うことができる。すなわち、コンピュータは、上述のシステム及び/又は方法の異なる要素に関連する情報の様々な部分をディスクから受信し、個々のシステム及び/又は方法を実装し、上述の個々のシステムの機能及び/又は方法を調整することができる。
[073] 本開示を考慮して、本明細書で説明される様々な方法及びデバイスは、ハードウェア、ソフトウェア、及びファームウェアで実装され得ることに留意されたい。さらに、様々な方法及びパラメータは、例としてのみ含まれ、いかなる限定的な意味においても含まれない。本開示を考慮して、当業者は、本発明の範囲内に留まりながら、当業者自身の技術及びこれらの技術に影響を及ぼすために必要とされる機器を決定する際に、本教示を実施することができる。本明細書で説明される1つ以上のプロセッサの機能は、より少ない数又は単一の処理ユニット(例えば、CPU)に組み込まれてもよく、また、本明細書で説明される機能を行うために実行可能命令に応答してプログラムされる特定用途向け集積回路(ASIC)又は汎用処理回路を使用して実装されてもよい。
[074] 本システムは、超音波イメージングシステムを特に参照して説明されてきたが、本システムは、1つ以上の画像が系統的な方法で得られる他の医用イメージングシステムに拡張することができることも想定される。したがって、本システムは、次に限定されないが、腎臓、精巣、乳房、卵巣、子宮、甲状腺、肝臓、肺、筋骨格、脾臓、心臓、動脈及び血管系、ならびに超音波誘導介入に関連する他のイメージング用途に関連する画像情報を取得及び/又は記録するために使用され得る。さらに、本システムはまた、本システムの特徴及び利点を提供するように、従来のイメージングシステムと共に使用できる1つ以上のプログラムを含んでもよい。本開示の特定の追加の利点及び特徴は、本開示を検討することにより当業者に明らかであり得るか、又は本開示の新規なシステム及び方法を採用する当業者によって経験され得る。本システム及び方法の別の利点は、従来の医用画像システムが、本システム、デバイス、及び方法の特徴及び利点を組み込むように容易にアップグレードされ得ることである。
[075] 当然のことながら、本明細書で説明される実施例、実施形態、又はプロセスのうちの任意の1つは、1つ以上の他の実施例、実施形態、及び/又はプロセスと組み合わせることができ、又は本システム、デバイス、及び方法に従って、別個のデバイス又はデバイス部分間で分離及び/又は行うことができることを理解されたい。
[076] 最後に、上記の議論は、単に本システムを例示することを意図しているものであり、添付の特許請求の範囲を任意の特定の実施形態又は実施形態のグループに限定するものとして解釈されるべきではない。したがって、本システムは、例示的な実施形態を参照して特に詳細に説明されてきたが、当業者であれば、以下の特許請求の範囲に記載される本システムのより広くかつ意図された精神及び範囲から逸脱することなく、多数の変更実施形態及び代替実施形態を考案することができることも理解されたい。したがって、本明細書及び図面は、例示的と見なされるべきであり、添付の特許請求の範囲を限定することを意図するものではない。

Claims (23)

  1. 被検者の生体組織の画像を生成するために、前記被検者に向けて超音波を送信するプローブと、
    前記画像を受信し、少なくとも1つのニューラルネットワークを使用して、前記画像がターゲット画像ビューに従って前記生体組織を視覚化する確率を示す信頼メトリックを出力するプロセッサと、
    を含み、
    前記プロセッサはさらに、前記信頼メトリックの値が閾値を超える場合、
    前記画像を選択し、
    前記画像内の第1の関心領域及び第2の関心領域の場所を決定し、
    前記第1の関心領域及び前記第2の関心領域のエコー強度値の比を計算する、
    超音波イメージングシステム。
  2. 前記プロセッサはさらに、前記信頼メトリックの前記値が前記閾値を超えない場合、1つ以上の連続リアルタイム画像フレームを自動的に受信し、前記1つ以上の連続リアルタイム画像フレームそれぞれの信頼メトリックを出力する、請求項1に記載の超音波イメージングシステム。
  3. 前記生体組織は、肝組織、腎組織、又はこれらの組み合わせのうちの少なくとも1つを含み、前記少なくとも1つのニューラルネットワークは、前入力画像が、肝臓/腎臓エコー強度比の計算に適した肝臓及び右腎臓サジタルビューに対応する場合に、前記閾値を超える信頼メトリックを生成するようにトレーニングされる、請求項1に記載の超音波イメージングシステム。
  4. 前記少なくとも1つの人工ニューラルネットワークは、入力画像をセグメント化してセグメンテーションマップを生成するようにトレーニングされた畳み込みニューラルネットワークを含み、前記信頼メトリックは、前記リアルタイム画像の前記セグメンテーションマップに少なくとも部分的に基づいている、請求項1に記載の超音波イメージングシステム。
  5. 前記深層畳み込みニューラルネットワークは、前記入力画像を、縮小パスの後に拡張パスに沿って伝播して、前記セグメンテーションマップを生成する完全畳み込みネットワークを含む、請求項4に記載の超音波イメージングシステム。
  6. 前記少なくとも1つの人工ニューラルネットワークは、入力画像内の物体を検出し、検出された前記物体の場所と、前記検出された物体がターゲット物体カテゴリに対応する確率とを出力するようにトレーニングされた深層畳み込みネットワークを含み、前記信頼メトリックは、前記確率に基づいている、請求項1に記載の超音波イメージングシステム。
  7. 前記プロセッサは、前記検出された物体の前記場所に基づいて、第1の関心領域及び第2の関心領域の場所を決定する、請求項6に記載のシステム。
  8. 前記少なくとも1つの人工ニューラルネットワークは、入力画像を、複数の信頼メトリックに対応する複数の分類のうちの1つに分類する深層畳み込みネットワークを含む、請求項1に記載の超音波イメージングシステム。
  9. 前記プロセッサは、
    記憶された前記画像と同時に少なくとも1つの推奨関心領域ペアを自動的に特定及び表示し、
    前記少なくとも1つの推奨関心領域ペアからの1つの推奨関心領域ペアの選択の指示を受信することによって、
    前記第1の関心領域及び前記第2の関心領域の場所を決定し、
    前記プロセッサは、前記第1の関心領域及び前記第2の関心領域を、選択された前記推奨関心領域ペアに対応するように設定する、
    請求項1に記載の超音波イメージングシステム。
  10. 前記プロセッサはさらに、記憶された前記画像をセグメント化して、少なくとも2つの異なるタイプの生体組織に関連する領域を特定し、前記少なくとも2つの異なるタイプの生体組織のうちの1つにそれぞれ関連する、第1の複数のピクセル及び第2の複数のピクセルを特定することによって、前記第1の関心領域及び前記第2の関心領域の前記場所を決定する、請求項1に記載の超音波イメージングシステム。
  11. 前記プロセッサはさらに、前記信頼メトリックの現在値を表すグラフィカルインジケータを生成し、前記グラフィカルインジケータを、前記超音波イメージングシステムのディスプレイに表示させ、かつ、前記少なくとも1つの人工ニューラルネットワークによって新しい信頼メトリックが出力されるたびに前記ディスプレイ上で動的に更新させる、請求項1に記載の超音波イメージングシステム。
  12. 被検者の生体組織の超音波検査方法であって、
    超音波システムのプロセッサが、1つ以上のタイプの生体組織を表すリアルタイム超音波画像を受信するステップと、
    前記リアルタイム超音波画像を、各入力画像の信頼メトリックを出力するようにトレーニングされた少なくとも1つの畳み込みニューラルネットワークに提供するステップであって、前記信頼メトリックは、前記リアルタイム超音波画像が、ターゲット画像ビューに従って前記生体組織を視覚化する確率を示す、提供するステップと、
    前記信頼メトリックが閾値を超える場合は、
    前記リアルタイム超音波画像を、前記超音波システムのメモリに自動的に記憶するステップと、
    第1の関心領域及び第2の関心領域の場所を決定するステップと、
    前記第1の関心領域のエコー強度値と前記第2の関心領域のエコー強度値との比を計算するステップと、
    前記信頼メトリックが前記閾値を超えない場合は、
    1つ以上の連続リアルタイム画像それぞれの信頼メトリックを決定するために、前記1つ以上の連続リアルタイム画像を前記少なくとも1つの畳み込みニューラルネットワークに自動的に提供するステップと、
    を含む、超音波検査方法。
  13. 前記リアルタイム超音波画像内に表される前記生体組織は、肝組織、腎組織、又はこれらの組合せのうちの少なくとも1つを含み、前記ターゲット画像ビューは、肝臓/腎臓エコー強度比の計算に適した肝臓及び右腎臓サジタルビューに対応する、請求項12に記載の超音波検査方法。
  14. 前記少なくとも1つの畳み込みニューラルネットワークは、入力画像をセグメント化してセグメンテーションマップを生成するようにトレーニングされ、前記リアルタイム画像の前記セグメンテーションマップに基づいて前記信頼メトリックを計算するステップを含む、請求項12に記載の超音波検査方法。
  15. 前記少なくとも1つの畳み込みニューラルネットワークは、前記入力画像を、縮小パスの後に拡張パスに沿って伝播して、前記セグメンテーションマップを生成する完全畳み込みネットワークを含む、請求項14に記載の超音波検査方法。
  16. 前記少なくとも1つの畳み込みニューラルネットワークは、1つ以上の物体カテゴリの物体が前入力画像内に存在する確率と、前入力画像内の前記物体の場所とを決定するようにトレーニングされた深層畳み込みネットワークを含む、請求項12に記載の超音波検査方法。
  17. 前記少なくとも1つの畳み込みニューラルネットワークは、入力画像を、前記閾値を超える値に関連する分類を含む複数の分類のうちの1つに分類する深層畳み込みネットワークを含む、請求項12に記載の超音波検査方法。
  18. 第1の関心領域及び第2の関心領域の場所を決定するステップは、
    前記記憶された画像と同時に少なくとも1つの推奨関心領域ペアを自動的に特定及び表示するステップと、
    前記少なくとも1つの推奨関心領域ペアからの1つの推奨関心領域ペアの選択の指示を受信するステップと、
    を含み、
    前記第1の関心領域及び前記第2の関心領域は、選択された前記推奨関心領域ペアに対応するように設定されている、
    請求項12に記載の超音波検査方法。
  19. 少なくとも2つの異なるタイプの生体組織に関連する領域を特定するために前記記憶された画像をセグメント化するステップをさらに含み、前記第1の関心領域及び前記第2の関心領域の場所を決定するステップは、前記少なくとも2つの異なるタイプの生体組織のうちの1つにそれぞれ関連する、第1の複数のピクセル及び第2の複数のピクセルを特定するステップを含む、請求項12に記載の超音波検査方法。
  20. コンピュータ支援の肝イメージングモードの起動の指示を受信するステップと、前記閾値を超える信頼メトリックが前記少なくとも1つの畳み込みニューラルネットワークによって出力されるまで、各入力リアルタイム超音波画像を前記少なくとも1つの畳み込みニューラルネットワークに自動的に提供するステップとをさらに含む、請求項12に記載の超音波検査方法。
  21. 前記信頼メトリックの現在値を表すグラフィカルインジケータを表示するステップをさらに含み、前記表示するステップは、リアルタイム超音波画像が入力されるたびに更新される前記信頼メトリックの前記現在値を表すように前記グラフィカルインジケータを動的に更新するステップを含む、請求項20に記載の超音波検査方法。
  22. 前記信頼メトリックが前記閾値を超えるという決定に応答して、前記超音波システムのリアルタイムイメージングモードからフリーズモードに自動的に遷移するステップをさらに含み、前記遷移するステップは、前記記憶された超音波画像を表示するステップを含む、請求項12に記載の超音波検査方法。
  23. 実行されると、医用イメージングシステムのプロセッサに、請求項12から22のいずれか一項に記載の方法を行わせる実行可能命令を含む、非一時的コンピュータ可読媒体。
JP2021503763A 2018-07-26 2019-07-22 誘導肝イメージングのための人工ニューラルネットワークを有する超音波システム Active JP7407790B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN2018097194 2018-07-26
CNPCT/CN2018/097194 2018-07-26
US201862711974P 2018-07-30 2018-07-30
US62/711,974 2018-07-30
PCT/EP2019/069637 WO2020020809A1 (en) 2018-07-26 2019-07-22 Ultrasound system with an artificial neural network for guided liver imaging

Publications (3)

Publication Number Publication Date
JP2021531885A true JP2021531885A (ja) 2021-11-25
JPWO2020020809A5 JPWO2020020809A5 (ja) 2022-07-28
JP7407790B2 JP7407790B2 (ja) 2024-01-04

Family

ID=67544165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021503763A Active JP7407790B2 (ja) 2018-07-26 2019-07-22 誘導肝イメージングのための人工ニューラルネットワークを有する超音波システム

Country Status (5)

Country Link
US (1) US20210177373A1 (ja)
EP (1) EP3826544B1 (ja)
JP (1) JP7407790B2 (ja)
CN (1) CN112469340A (ja)
WO (1) WO2020020809A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230100245A (ko) * 2021-12-28 2023-07-05 전주대학교 산학협력단 초음파 영상에서 초음파 주사 주파수별 지방간 정량화를 진단하기 위한 방법 및 장치

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102591371B1 (ko) * 2017-12-28 2023-10-19 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어 방법
EP3536245A1 (en) * 2018-03-08 2019-09-11 Koninklijke Philips N.V. A system and method of identifying characteristics of ultrasound images
KR102258776B1 (ko) * 2019-05-20 2021-05-31 주식회사 힐세리온 인공지능형 초음파 지방간 자동 진단 장치 및 이를 이용한 원격 의료 진단 방법
KR20210045891A (ko) * 2019-10-17 2021-04-27 삼성전자주식회사 전자 장치 및 전자 장치의 화면 캡쳐 운용 방법
CN111513762B (zh) * 2019-10-30 2024-08-23 深圳迈瑞生物医疗电子股份有限公司 超声数据处理方法、超声数据处理系统及计算机存储介质
US11461594B2 (en) * 2020-03-23 2022-10-04 Raytheon Company Transform disentangling auto-encoder and related methods
CN111415311B (zh) * 2020-03-27 2023-03-14 北京航空航天大学杭州创新研究院 资源节约型图像质量增强模型
CN111513765B (zh) * 2020-04-26 2022-08-09 深圳华声医疗技术股份有限公司 呼吸肌组织的超声测量方法、超声测量装置及存储介质
US11532084B2 (en) 2020-05-11 2022-12-20 EchoNous, Inc. Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification
US11523801B2 (en) 2020-05-11 2022-12-13 EchoNous, Inc. Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured
CN111598868B (zh) * 2020-05-14 2022-12-30 上海深至信息科技有限公司 一种肺部超声图像识别方法和系统
US11782685B2 (en) * 2020-06-17 2023-10-10 Bank Of America Corporation Software code vectorization converter
CN112070119B (zh) * 2020-08-11 2024-06-14 深圳蓝湘智影科技有限公司 超声切面图像质量控制方法、装置和计算机设备
US11636593B2 (en) * 2020-11-06 2023-04-25 EchoNous, Inc. Robust segmentation through high-level image understanding
IT202000030767A1 (it) * 2020-12-14 2022-06-14 Ente Ospedaliero Specializzato In Gastroenterologia Istituto Nazionale Di Ricovero E Cura A Caratter Metodo per validare la diagnosi di steatosi epatica non alcolica, (nafld), su pazienti in cura senza ricorrere alle tecnologie di imaging, utilizzando un algoritmo di machine learning.
US11610306B2 (en) 2020-12-16 2023-03-21 Industrial Technology Research Institute Medical image analysis method and device
CA3103872A1 (en) * 2020-12-23 2022-06-23 Pulsemedica Corp. Automatic annotation of condition features in medical images
US12026886B2 (en) * 2021-01-22 2024-07-02 The General Hospital Corporation Method and system for automatically estimating a hepatorenal index from ultrasound images
US20220273261A1 (en) * 2021-02-26 2022-09-01 GE Precision Healthcare LLC Ultrasound imaging system and method for multi-planar imaging
US20220277175A1 (en) * 2021-02-28 2022-09-01 Clarius Mobile Health Corp. Method and system for training and deploying an artificial intelligence model on pre-scan converted ultrasound image data
TWI790572B (zh) * 2021-03-19 2023-01-21 宏碁智醫股份有限公司 影像相關的檢測方法及檢測裝置
CN113177953B (zh) * 2021-04-27 2024-04-26 平安科技(深圳)有限公司 肝脏区域分割方法、装置、电子设备及存储介质
US20220414402A1 (en) * 2021-06-28 2022-12-29 Varian Medical Systems, Inc. Automatic localized evaluation of contours with visual feedback
US11977605B2 (en) * 2021-08-16 2024-05-07 Intel Corporation Methods and apparatus to automatically evolve a code recommendation engine
AU2021240229B1 (en) * 2021-09-21 2023-02-02 Sensetime International Pte. Ltd. Stacked object recognition method, apparatus and device, and computer storage medium
US20230125779A1 (en) * 2021-10-25 2023-04-27 EchoNous, Inc. Automatic depth selection for ultrasound imaging
US12070357B2 (en) * 2021-12-09 2024-08-27 GE Precision Healthcare LLC System and method for automatic association and display of video loop subject matter for enhanced identification
WO2024058849A2 (en) * 2022-07-01 2024-03-21 Massachusetts Institute Of Technology Systems and methods for guided airway cannulation
EP4327750A1 (en) * 2022-08-25 2024-02-28 Koninklijke Philips N.V. Guided ultrasound imaging for point-of-care staging of medical conditions
WO2024042044A1 (en) * 2022-08-25 2024-02-29 Koninklijke Philips N.V. Guided ultrasound imaging for point-of-care staging of medical conditions
TWI846052B (zh) * 2022-09-12 2024-06-21 長庚醫療財團法人林口長庚紀念醫院 利用人工智慧分析泌尿系統結石之方法及泌尿系統結石分析系統
WO2024068347A1 (en) * 2022-09-28 2024-04-04 Koninklijke Philips N.V. Method and system for performing stiffness measurements using ultrasound shear wave elastography

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160155227A1 (en) * 2014-11-28 2016-06-02 Samsung Electronics Co., Ltd. Computer-aided diagnostic apparatus and method based on diagnostic intention of user
US20170360403A1 (en) * 2016-06-20 2017-12-21 Alex Rothberg Automated image acquisition for assisting a user to operate an ultrasound device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
US7736313B2 (en) * 2004-11-22 2010-06-15 Carestream Health, Inc. Detecting and classifying lesions in ultrasound images
JP5481108B2 (ja) * 2009-06-26 2014-04-23 株式会社東芝 超音波診断装置及び自動診断支援装置
JP2012122727A (ja) * 2010-12-06 2012-06-28 Furuno Electric Co Ltd 底質判別装置、超音波探知機、パラメータ設定方法及びパラメータ設定プログラム
CN102895003B (zh) * 2011-07-27 2015-10-28 复旦大学附属中山医院 一种超声波图像量化诊断系统
CN102737382B (zh) * 2012-06-22 2017-02-08 刘怡光 一种前列腺超声图像自动精确分割方法
WO2016141449A1 (en) * 2015-03-09 2016-09-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of The Department Of National Defence Computer-assisted focused assessment with sonography in trauma
US10588605B2 (en) * 2015-10-27 2020-03-17 General Electric Company Methods and systems for segmenting a structure in medical images
US10339650B2 (en) * 2016-01-07 2019-07-02 Koios Medical, Inc. Method and means of CAD system personalization to reduce intraoperator and interoperator variation
EP3287127A1 (en) * 2016-08-26 2018-02-28 Marios Theodotou Resveratrol's effect on non- alcoholic fatty liver disease
US20180103912A1 (en) * 2016-10-19 2018-04-19 Koninklijke Philips N.V. Ultrasound system with deep learning network providing real time image identification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160155227A1 (en) * 2014-11-28 2016-06-02 Samsung Electronics Co., Ltd. Computer-aided diagnostic apparatus and method based on diagnostic intention of user
US20170360403A1 (en) * 2016-06-20 2017-12-21 Alex Rothberg Automated image acquisition for assisting a user to operate an ultrasound device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANDRADE ANDREIA, ET AL.: "Classifier Approaches for Liver Steatosis using Ultrasound Images", PROCEDIA TECHNOLOGY, vol. 5, JPN6023001164, December 2012 (2012-12-01), pages 763 - 770, ISSN: 0004968844 *
KIM KWANG BAEK, ET AL.: "Quantification of Hepatorenal Index for Computer-Aided Fatty Liver Classification with Self-Organizi", BIOMED REAEARCH INTERNATIONAL, vol. 2015(6):535894, JPN7023000113, 13 July 2015 (2015-07-13), pages 1 - 9, ISSN: 0004968842 *
SANTOS JAIME, ET AL.: "Detection of pathologic liver using ultrasound images", BIOMEDICAL SIGNAL PROCESSING AND CONTROL, vol. 14, JPN6023001163, 6 September 2014 (2014-09-06), pages 248 - 255, ISSN: 0004968843 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230100245A (ko) * 2021-12-28 2023-07-05 전주대학교 산학협력단 초음파 영상에서 초음파 주사 주파수별 지방간 정량화를 진단하기 위한 방법 및 장치
KR102670008B1 (ko) 2021-12-28 2024-05-29 전주대학교 산학협력단 초음파 영상에서 초음파 주사 주파수별 지방간 정량화를 진단하는 장치 및 사용방법

Also Published As

Publication number Publication date
CN112469340A (zh) 2021-03-09
EP3826544B1 (en) 2024-06-05
JP7407790B2 (ja) 2024-01-04
WO2020020809A1 (en) 2020-01-30
EP3826544A1 (en) 2021-06-02
US20210177373A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP7407790B2 (ja) 誘導肝イメージングのための人工ニューラルネットワークを有する超音波システム
US11950959B2 (en) Ultrasound system with automated dynamic setting of imaging parameters based on organ detection
US20240252150A1 (en) 3d ultrasound imaging system
US10515452B2 (en) System for monitoring lesion size trends and methods of operation thereof
KR101565311B1 (ko) 3 차원 심초음파 검사 데이터로부터 평면들의 자동 검출
CN110678933B (zh) 超声临床特征检测与相关联的设备、系统和方法
CN111971688A (zh) 具有用于检索复发患者的成像参数设置的人工神经网络的超声系统
CN113034375A (zh) 用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统
CN114795276A (zh) 用于从超声图像自动估计肝肾指数的方法和系统
US11250564B2 (en) Methods and systems for automatic measurement of strains and strain-ratio calculation for sonoelastography
JP2022513225A (ja) フレームのインデックス付け及び画像レビューのためのシステム及び方法
JP7008713B2 (ja) 解剖学的特徴の超音波評価
EP3105741B1 (en) Systems for monitoring lesion size trends and methods of operation thereof
US20240212132A1 (en) Predicting a likelihood that an individual has one or more lesions
CN115969414A (zh) 用于在超声成像期间使用分析辅助的方法和系统
CN113081030A (zh) 用于基于m模式分析进行辅助超声扫描平面识别的方法和系统
EP3274959B1 (en) Optimal ultrasound-based organ segmentation
EP4327750A1 (en) Guided ultrasound imaging for point-of-care staging of medical conditions
US11382595B2 (en) Methods and systems for automated heart rate measurement for ultrasound motion modes
WO2024042044A1 (en) Guided ultrasound imaging for point-of-care staging of medical conditions
WO2024068347A1 (en) Method and system for performing stiffness measurements using ultrasound shear wave elastography
CN118434368A (zh) 超声成像中的自适应双焦点肺部特征可视化
CN117982171A (zh) 胃部超声扫查提示方法及超声成像设备
CN117982172A (zh) 胃壁位置标示方法及超声成像设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231219

R150 Certificate of patent or registration of utility model

Ref document number: 7407790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150