JP2023549093A - 高レベル画像理解によるロバストセグメンテーション - Google Patents

高レベル画像理解によるロバストセグメンテーション Download PDF

Info

Publication number
JP2023549093A
JP2023549093A JP2023526329A JP2023526329A JP2023549093A JP 2023549093 A JP2023549093 A JP 2023549093A JP 2023526329 A JP2023526329 A JP 2023526329A JP 2023526329 A JP2023526329 A JP 2023526329A JP 2023549093 A JP2023549093 A JP 2023549093A
Authority
JP
Japan
Prior art keywords
image
probability
machine learning
visualized
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023526329A
Other languages
English (en)
Inventor
アインデ、ババジデ
チャン、ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EchoNous Inc
Original Assignee
EchoNous Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EchoNous Inc filed Critical EchoNous Inc
Publication of JP2023549093A publication Critical patent/JP2023549093A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30084Kidney; Renal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

設備は、医用撮像画像によって視覚化された解剖学的オブジェクトを識別する。設備は、2つの機械学習モデルを画像に適用する。第1の機械学習モデルは、ビューのリストの各々について、画像がビューから捕捉された確率に帰属するビュー確率ベクトルを予測するように訓練され、第2の機械学習モデルは、解剖学的オブジェクトのリストの各々について、オブジェクトが画像によって視覚化される確率に帰属するオブジェクト確率ベクトルを予測するように訓練される。各オブジェクトについて、設備は、(1)オブジェクトが許可されているビューのリストにアクセスする。(2)オブジェクトが画像によって視覚化される予測確率に、アクセスされた画像がオブジェクトが許可されるビューから捕捉された予測確率の合計を乗算し、(3)得られた確率が閾値を超える場合、オブジェクトがアクセスされた画像によって視覚化されると決定する。

Description

(関連出願の相互参照)
本出願は、その全体が参照により本明細書に組み込まれる、2020年11月6日に出願され、「ROBUST SEGMENTATION THROUGH HIGH-LEVEL IMAGE UNDERSTANDING」と題された米国特許出願第17/091,263号の利益を主張する。
本出願が参照により組み込まれる文書と矛盾する場合、本出願が優先される。
超音波撮像は、有用な医療撮像モダリティである。例えば、患者の身体の内部構造は、治療的介入の前、最中、又は後に撮像され得る。医療専門家は通常、「トランスデューサ」と呼ばれることもある携帯型超音波プローブを患者に近接して保持し、必要に応じてトランスデューサを移動させて、患者の関心領域内の1つ以上の標的構造を視覚化する。トランスデューサは、体の表面上に配置されてもよく、又はいくつかの手順では、トランスデューサが患者の体内に挿入される。医療専門家は、三次元容積の二次元断面などの、スクリーン上の所望の表現を得るために、トランスデューサの動きを座標化する。
器官若しくは他の組織又は身体特徴(体液、骨、関節など)の特定のビューは臨床的に重要であることがある。そのようなビューは、標的器官、診断目的などに応じて、超音波検査技師が捕捉すべきビューとして臨床基準によって規定される場合がある。
いくつかの超音波画像では、画像内で視覚化された解剖学的構造を識別することが有用である。例えば、体の特定の領域を示す超音波画像ビューでは、示された器官及び/又は器官内の構成構造を識別することが有用であることができる。一例として、右上象限図は、肝臓、腎臓、及び横隔膜器官の部分を示し得る。
既存のソフトウェアソリューションは、超音波画像内の器官又は他の解剖学的構造を自動的に識別することを求めてきた。これらの既存の解決策は、それぞれが可視である境界ボックスを指定することによって構造を「検出」すること、又は例えば、画像内の各構造の境界を追跡することによって構造を「セグメント化」することを求める。
特許又は出願ファイルは、カラーで作成された少なくとも1つの図面を包含する。カラー図面を有する本特許又は特許出願公開のコピーは、請求及び必要な料金の支払いに応じて庁によって提供されるであろう。
生理学的感知装置の概略図である。 コンピュータシステム及び設備が動作する他の装置のうちの少なくともいくつかに通常組み込まれる構成要素のうちのいくつかを示すブロック図である。 設備によって使用される機械学習モデルを訓練するために、いくつかの実施形態において設備によって実行されるプロセスを示すフロー図である。 設備によって使用される機械学習モデルの設計の詳細を示すモデルアーキテクチャ図である。 設備によって使用されるデータフローを示すデータフロー図である。 設備によって実行されるプロセスを示すフロー図である。 設備によって受信されるサンプル患者ビデオフレームを示す画像図である。 許容オブジェクト表のサンプル内容を示す表図である。 現在のフレームにおいて視覚化されるものとして識別されたオブジェクトを視覚的に示すために設備が拡張したサンプル患者ビデオフレームのバージョンを示す表示図である。
本発明者らは、超音波画像に示される解剖学的オブジェクトを自動的に識別する従来のアプローチが有意な欠点を有することを認識している。特に、これらの従来のアプローチは、しばしば不正確な結果を生成する。信頼度閾値を調整することは、高い偽陽性率を高い偽陰性率と交換することがあるが、総誤差は、多くの場合、許容できないほど高い。
これらの欠点を認識することに応答して、本発明者らは、各画像が捕捉された特定のビューと視覚化されたオブジェクト(「設備」)に関する機械学習予測を活用する方法で、超音波画像などの医療画像内の器官、サブ器官構造、又はその他の解剖学的オブジェクトを自動的に識別するソフトウェア及び/又はハードウェア設備を考案及び実施した。そうすることによって、オブジェクトベクトルがオブジェクトの発生の確率を直接推定し、ビューベクトルがビューの確率を直接推定するので、設備は、画像内のオブジェクトの外観を制御する効率的な方法を提供する。これらの2つの補助確率出力ベクトルは相関され、それらの関係に基づいてオブジェクト精緻化モジュールを使用してオブジェクト発生尤度の更にロバストな推定値を生成するために使用することができる。したがって、設備は、多くの偽陰性率を損なうことなく、偽陽性予測マスクを最小限に抑える。
いくつかの実施形態では、設備は、超音波ビデオのフレームなどの画像に、画像の3つの特性を予測するように訓練された機械学習モデルを適用し、(1)いくつかの可能なビューの各々について、画像がビューから捕捉された尤度を示すビュー確率ベクトル、(2)いくつかの可能なオブジェクトの各々について、画像がオブジェクトを視覚化する尤度を示すオブジェクト確率ベクトル、及び(3)画像の各ピクセルについて、可能なオブジェクトの各々について、ピクセルがオブジェクトの視覚化の一部である確率を示すセグメンテーションマスクのセット、又は「キューブ」。いくつかの実施形態では、設備は、これらの予測された特性を、30などのある数の最近のフレームにわたって平均化するか、又はそうでなければ集約する。
各可能なオブジェクトに対して、オブジェクトが視覚化される確率を決定するために、設備は、オブジェクトが識別することが許されるビューのリストを調べる。ビュー確率ベクトルによって含まれるそれらのビューについての確率を合計し、オブジェクト確率ベクトルによって含まれるそのオブジェクトについての確率によってそのいくらかを乗算する。
いくつかの実施形態では、設備は、決定されたオブジェクト確率を使用して、画像内に視覚化されたオブジェクトの形状及び位置で画像を拡張するために使用するセグメンテーションマスクを選択する。いくつかの実施形態では、設備は、決定されたオブジェクト確率がオブジェクト確率閾値を超えるオブジェクトのセグメンテーションマスクを選択する。様々な実施形態では、設備は、決定されたオブジェクト確率及び/又は選択されたセグメンテーションマスクを様々な他の方法で使用する。
上述の方法のいくつか又は全てで動作することにより、設備は、従来よりも高い精度で医療画像内の解剖学的構造を自動的に識別する。
更に、設備は、特定のタスクを実行するために必要な動的表示領域、処理、記憶、及び/又はデータ送信リソースを低減させ、それによって、タスクをより性能が低く、より容量が少なく、及び/若しくはより安価なハードウェア装置によって実行するのを可能にし、並びに/又はタスクをより短い待ち時間で実行するのを可能にし、並びに/又は保存されたリソースのうちのより多くを他のタスクを実行する際に使用できるように維持することなどによって、コンピュータ又は他のハードウェアの機能を向上させる。例えば、有意に少ない偽陽性で視覚化された全ての構造をより頻繁に識別することによって初期医療画像の有用性を最大化することにより、設備は、再画像化が必要である多くのケースを回避する。設備は、再撮像の必要性を低減させることにより、全体的により少ないメモリ及び処理リソースを消費して追加の画像を捕捉し、追加の自動構造識別ラウンドを実行する。
図1は、本開示の1つ以上の実施形態による、生理学的感知装置10の概略図である。装置10は、図示した実施形態では、ケーブル17によってハンドヘルドコンピューティング装置14に電気的に結合されたプローブ12を含む。ケーブル17は、プローブ12をコンピューティング装置14に取り外し可能に接続するコネクタ18を含む。ハンドヘルドコンピューティング装置14は、タブレットコンピュータ、スマートフォンなどの、ディスプレイを有する任意のポータブルコンピューティング装置であってもよい。いくつかの実施形態では、プローブ12は、ハンドヘルドコンピューティング装置14に電気的に結合されている必要はないが、ハンドヘルドコンピューティング装置14とは独立して動作してもよく、かつプローブ12は、無線通信チャネルを介してハンドヘルドコンピューティング装置14と通信してもよい。
プローブ12は、超音波信号を標的構造に向けて送信し、超音波信号の送信に応答して標的構造から戻って来たエコー信号を受信するように構成されている。プローブ12は、様々な実施形態では、超音波信号を送信し、その後のエコー信号を受信することができるトランスデューサ素子(例えば、トランスデューサアレイ)のアレイを含み得る超音波センサ20を含む。
装置10は、処理回路及び駆動回路を更に含む。部分的には、処理回路は、超音波センサ20からの超音波信号の送信を制御する。駆動回路は、例えば、処理回路から受信した制御信号に応答して、超音波信号の送信を駆動するための超音波センサ20に動作可能に結合される。駆動回路及びプロセッサ回路は、プローブ12及びハンドヘルドコンピューティング装置14の一方又は両方に含まれてもよい。装置10はまた、例えば、パルス波動作モード又は連続波動作モードで超音波信号を送信するための駆動回路に電力を供給する電源を含む。
プローブ12の超音波センサ20は、超音波信号を送信する1つ以上の送信トランスデューサ素子と、超音波信号の送信に応答して標的構造から戻って来るエコー信号を受信する1つ以上の受信トランスデューサ素子と、を含んでもよい。いくつかの実施形態では、超音波センサ20のトランスデューサ素子の一部又は全部は、第1の期間中に送信トランスデューサ素子として機能し、第1の期間とは異なる第2の期間中に受信トランスデューサ素子として機能してもよい(すなわち、同じトランスデューサ素子が異なる時間に、超音波信号を送信し、エコー信号を受信するために使用可能であってもよい)。
図1に示すコンピューティング装置14は、ディスプレイ画面22及びユーザインターフェース24を含む。ディスプレイ画面22は、LCD又はLEDディスプレイ技術を含むがこれに限定されない、任意の種類のディスプレイ技術を組み込んだディスプレイであってもよい。ディスプレイ画面22を使用して、超音波信号の送信に応答して受信されたエコー信号から得られたエコーデータから生成された1つ以上の画像を表示し、いくつかの実施形態では、ディスプレイ画面22は、例えば、カラードプライメージング(Color Doppler imaging、CDI)モードで提供され得るようなカラーフロー画像情報を表示するために使用されてもよい。更に、いくつかの実施形態では、ディスプレイ画面22は、取得された又は調整された聴診信号を表す波形などの音声波形を表示するために使用され得る。
いくつかの実施形態では、ディスプレイ画面22は、画面にタッチするユーザから入力を受け取ることができるタッチスクリーンであってもよい。そのような実施形態では、ユーザインターフェース24は、タッチを介してユーザ入力を受信することが可能な、ディスプレイ画面22の一部分又は全体を含んでもよい。いくつかの実施形態では、ユーザインターフェース24は、超音波装置10のユーザから入力を受け取ることが可能な1つ以上のボタン、ノブ、スイッチなどを含んでもよい。いくつかの実施形態では、ユーザインターフェース24は、音声コマンドなどの可聴入力を受け取ることができるマイクロフォン30を含んでもよい。
コンピューティング装置14は、取得若しくは調整された聴診信号、又はエコー信号、ドップラー超音波撮像中の血流、若しくは装置10の動作から導出される他の特徴の可聴表現を出力するために使用され得る1つ以上のオーディオスピーカ28を更に含んでもよい。
プローブ12は、プローブ12の外側部分を形成するハウジングを含む。ハウジングは、ハウジングの遠位端の近くに位置するセンサ部分、及びハウジングの近位端と遠位端との間のハンドル部分を含む。ハンドル部分は、センサ部分に対して近位側に位置する。
ハンドル部分は、使用中にプローブ12を保持、制御、及び操作するためにユーザによって把持される、ハウジングの一部分である。ハンドル部分は、1つ以上の滑り止めなどの把持機構を含んでもよく、いくつかの実施形態では、ハンドル部分は、ハンドル部分の遠位側又は近位側のハウジングの部分と同じ概略形状を有してもよい。
ハウジングは、例えば、駆動回路、処理回路、発振器、ビーム形成回路、フィルタリング回路などの電子機器を含む、プローブ12の内部電子構成要素及び/又は回路を取り囲む。ハウジングは、感知面などのプローブ12の外部に配置された部分を取り囲むか、又は少なくとも部分的に取り囲むように形成されてもよい。ハウジングは、水分、液体、又は他の流体がハウジングに入ることが防止されるように、封止されたハウジングであってもよい。ハウジングは、任意の好適な材料で形成されてもよく、いくつかの実施形態では、ハウジングはプラスチック材料で形成される。ハウジングは、単一の部品(例えば、内部構成要素を取り囲むように成形される単一の材料)で形成されてもよい。あるいは、互いに接合されるか又は別の方法で互いに取り付けられる、2つ以上の部品(例えば、上側半体及び下側半体)で形成されてもよい。
いくつかの実施形態では、プローブ12は、動きセンサを含む。動きセンサは、プローブ12の動きを感知するように動作可能である。動きセンサは、プローブ12内又はプローブ12上に含まれ、例えば、プローブ12の動きを感知するための1つ以上の加速度計、磁力計、又はジャイロスコープを含んでもよい。例えば、動きセンサは、プローブ12の動きを感知することが可能な圧電式、ピエゾ抵抗式、又は静電容量式の加速度計のいずれかであってもよく、それらの加速度計のいずれかを含んでもよい。いくつかの実施形態では、動きセンサは、3つの軸のうちのいずれかの周りの動きを感知することが可能な3軸動きセンサである。いくつかの実施形態では、2つ以上の動きセンサ16がプローブ12内又はプローブ12上に含まれる。いくつかの実施形態では、動きセンサは、少なくとも1つの加速度計及び少なくとも1つのジャイロスコープを含む。
動きセンサは、プローブ12のハウジング内に少なくとも部分的に収容されてもよい。いくつかの実施形態では、動きセンサは、プローブ12の感知面に又は感知面の近くに配置される。いくつかの実施形態では、感知面は、超音波撮像又は聴診感知などの検査中に患者と動作可能に接触する表面である。超音波センサ20及び1つ以上の聴診センサは、感知面上、感知面の部分、又は感知面の近くに位置付けられる。
いくつかの実施形態では、超音波センサ20のトランスデューサアレイは、トランスデューサ素子の一次元(one-dimensional、1D)アレイ又は二次元(two-dimensional、2D)アレイである。トランスデューサアレイは、例えばチタン酸ジルコン酸鉛(lead zirconate titanate、PZT)などの圧電セラミックを含んでもよく、又は微小電気機械システム(microelectromechanical system、MEMS)に基づいたものであってもよい。例えば、様々な実施形態では、超音波センサ20は、微小電気機械システム(MEMS)ベースの圧電超音波トランスデューサである圧電微小加工超音波トランスデューサ(piezoelectric micromachined ultrasonic transducers、PMUT)を含んでもよいか、又は、超音波センサ20は、静電容量の変化に起因してエネルギー変換が提供される静電容量式微小加工超音波トランスデューサ(capacitive micromachined ultrasound transducer、CMUT)を含んでもよい。
超音波センサ20は、トランスデューサアレイ上に位置付けられ得、かつ感知面の一部を形成し得る超音波集束レンズを更に含んでもよい。集束レンズは、トランスデューサアレイから患者に向かって送信された超音波ビームを集束させるように、及び/又は患者からトランスデューサアレイへと反射された超音波ビームを集束させるように動作可能な任意のレンズであってもよい。いくつかの実施形態では、超音波集束レンズは、湾曲した表面形状を有してもよい。超音波集束レンズは、所望の用途、例えば所望の動作周波数などに応じて、異なる形状を有してもよい。超音波集束レンズは、任意の好適な材料で形成されてもよく、いくつかの実施形態では、超音波集束レンズは、室温加硫(room-temperature-vulcanizing、RTV)ゴム材料で形成される。
いくつかの実施形態では、第1の膜及び第2の膜が、超音波センサ20の互いに向かい合う側に隣接して位置付けられ、感知面の一部を形成してもよい。膜は、任意の好適な材料で形成されてもよく、いくつかの実施形態では、膜は、室温加硫(RTV)ゴム材料で形成される。いくつかの実施形態では、膜は、超音波集束レンズと同じ材料で形成される。
図2は、コンピュータシステム及び設備が動作する他の装置のうちの少なくともいくつかに通常組み込まれる構成要素のうちのいくつかを示すブロック図である。様々な実施形態では、これらのコンピュータシステム及び他の装置200は、サーバコンピュータシステム、クラウドコンピューティングプラットフォーム又は他の構成の仮想マシン、デスクトップコンピュータシステム、ラップトップコンピュータシステム、ネットブック、携帯電話、パーソナルデジタルアシスタント、テレビ、カメラ、自動車コンピュータ、電子メディアプレーヤー、生理学的感知装置及び/又はそれらの関連ディスプレイ装置などを含むことができる。様々な実施形態では、コンピュータシステム及び装置は、以下のそれぞれを0個以上含み、CPU、GPU、TPU、NNP、FPGA、又はASICなどの、コンピュータプログラムを実行するため、及び/又は機械学習モデルを訓練若しくは適用するためのプロセッサ201、設備及び関連するデータ、カーネルを含むオペレーティングシステム、並びに装置ドライバを含む、プログラム及びデータが使用されている間そのプログラム及びデータを記憶するためのコンピュータメモリ202、プログラム及びデータを持続的に記憶するためのハードドライブ又はフラッシュドライブなどの永続的記憶装置203、コンピュータ可読媒体に記憶されたプログラム及びデータを読み取るためのフロッピー、CD-ROM、又はDVDドライブなどのコンピュータ可読媒体ドライブ204、並びにインターネット又は別のネットワーク、並びにスイッチ、ルータ、リピータ、電気ケーブル及び光ファイバ、発光体及び光受信器、無線送信機及び受信機などの、そのネットワーク化ハードウェアを介してデータを送受信するためにコンピュータシステムを他のコンピュータシステムに接続するためのネットワーク接続205である。上記のように構成されたコンピュータシステムは、典型的には、設備の動作を支持するために使用されるが、当業者は、設備が様々なタイプ及び構成の装置を使用して実装され、様々な構成要素を有してもよいことを理解するであろう。
図3は、設備によって使用される機械学習モデルを訓練するために、いくつかの実施形態において設備によって実行されるプロセスを示すフロー図である。動作301では、設備は、訓練観測値を受信する。動作302において、設備は、動作301において受信された訓練観測値を使用して、機械学習モデルを訓練する。動作303では、設備は、動作302で訓練されたモデルを記憶する。動作303の後、このプロセスは、終了する。
当業者は、図3に示され、以下で考察されるフロー図の各々における動作は、様々な方法で変更され得ることを理解するであろう。例えば、動作の順序が並べ替えられてもよいこと、いくつかの動作が並列に実行されてもよいこと、図示した動作が省略されてもよいこと、又は他の動作が含まれてもよいこと、図示した動作が部分動作に分割されてもよいこと、又は複数の図示した動作が単一の動作に組み合わされてもよい。
図4は、いくつかの実施形態において設備によって使用される機械学習モデルの設計の詳細を示すモデルアーキテクチャ図である。アーキテクチャ400に示されるように、患者超音波画像などの画像401に基づいて、設備は、画像の3つの特性を予測し、すなわち、いくつかの可能なビューの各々について、画像がそのビューから捕捉された尤度を示すビュー確率ベクトル421と、いくつかの可能なオブジェクトの各々について、画像がオブジェクトを視覚化する尤度を示すオブジェクト確率ベクトル431と、画像の各ピクセルについて、可能なオブジェクトの各々について、ピクセルがオブジェクトの視覚化の一部である確率を示すセグメンテーションマスクのセット又はキューブ441である。モデルは、ディープラーニングニューラルネットワークとして示されており、共有セクション410と、ビュー確率ベクトル特性を予測することに専用のビュー確率分岐420と、オブジェクト確率ベクトル特性を予測することに専用のオブジェクト確率分岐430と、セグメンテーションマスクキューブを予測することに専用のセグメンテーション分岐440とから構成されている。凡例402は、ネットワークアーキテクチャを図式化する際に使用される記号を説明する。特に、「conv」は畳み込み層を表し、「BN」はバッチ正規化層を表し、「ReLU」は整流線形ユニットを表す。各層の下の数字は、チャネル数又は次元数のいずれかを表す。全ての畳み込み層は、3×3カーネルである。様々な実施形態において、設備は、設備によって使用される3つの画像特性を予測するために、様々な他のニューラルネットワーク又は他の機械学習モデルアーキテクチャを使用する。
図5は、患者ビデオフレーム内の解剖学的オブジェクトを識別し、この情報を使用して表示のためにフレームを拡張するために、いくつかの実施形態において設備によって使用されるデータフローを示すデータフロー図である。データフローは、撮像ハードウェアから受信された現在の患者ビデオフレーム501から始まる。
図6は、図5に示すデータフローを実行して、患者ビデオ内の解剖学的オブジェクトを識別し、この情報を使用してビデオのフレームを拡張するために、設備によって実行されるプロセスを示すフロー図である。動作601において、設備は、撮像ハードウェアから最新のフレームを受信する。
図7は、設備によって受信された患者のビデオフレームのサンプルを示す画像図である。特に、フレーム700は、患者超音波ビデオのフレームである。
図6に戻ると、動作602において、AI予測モジュール510において、設備は、フレームを構成する画像の以下の特性、すなわち、ビュー確率ベクトル521、オブジェクト確率ベクトル522、及びセグメンテーションマスクキューブ523を取得するために、設備によって訓練された機械学習モデルを動作601において受信された最新のフレーム501に適用する。
動作603では、バッファモジュール530において、設備は、動作602で生成された3つの画像特性520を、4、9、19、又は29個の前のフレームなどの前のフレームについてバッファ内に維持された画像特性の前のセットと集約する。様々な実施形態において、設備は、平均値、中央値、最頻値、最小値、最大値などを含む様々な集約関数を使用する。動作603は、集約された画像特性のセット540を生成する。
設備の動作は、図7においてフレーム700としてより大きな倍率で示される現在のフレーム501に基づく特定の例に関して説明される。以下の表1は、現在のフレームに対して設備によって決定される集約ビュー確率ベクトル541の内容を示す。
Figure 2023549093000002
例えば、このビュー確率ベクトルは、現在のフレーム及びその情報が集合体に含まれるフレームに先行するフレームが左上象限ビューから捕捉された20%の尤度を示す。
この例の集約オブジェクト確率ベクトル542の内容を以下の表2に示す。
Figure 2023549093000003
例えば、このオブジェクト確率ベクトルの内容は、脾臓オブジェクトがサンプル画像及びそれに先行するものにおいて視覚化される50%の尤度を示す。この例では、現在のフレーム及びそれに先行するフレームに対応するセグメンテーションマスクキューブ543も生成される。簡潔にするために、マスクキューブのセグメント化の内容は示されていない。
動作604では、オブジェクト精緻化モジュール550において、設備は、ビュー確率ベクトル集約結果541及び許容オブジェクト表を使用して、オブジェクト確率ベクトル集約結果542を精緻化し、したがって、精緻化されたオブジェクト確率ベクトル集約結果562を生成する。
図8は、いくつかの実施形態において設備によって使用される許容オブジェクト表のサンプル内容を示す表図である。特に、許容オブジェクト表800は、多数のビュー801~806の各々について、ビューが多数の器官又は他のオブジェクト811~819の各々を視覚化することが許容されるか否かを示す。例えば、列811と行801及び802との交差は、肝臓が右上象限ビューにおいて視覚化されることを許可されるが、左上象限ビューにおいては許可されないことを示す。
図8及び以下に説明する表図の各々は、内容及び構成が人間の読者によってよりよく理解できるように設計された表を示すが、当業者には、この情報を記憶するために設備によって使用される実際のデータ構造が、例えば、異なるように構成され得、図示したよりも多いか又は少ない情報を含み得、圧縮、暗号化、及び/又はインデックス付けされ得、図示したよりはるかに多くの行を含み得るという点で、図示の表とは異なる場合があることが理解されよう。
ステップ604を実行する際、設備は、表2に示されるオブジェクト確率ベクトル集約結果の各値を以下のように精緻化する。まず、設備は、許容オブジェクト表を使用して、ベクトルの値が対応するオブジェクトについて、どのビューがオブジェクトを視覚化することを許可されるかを決定する。腎臓オブジェクトを例として使用すると、許容オブジェクト表の列812は、腎臓が右上象限ビュー及び左上象限ビューの2つのビューのみで視覚化されることが許容されることを示す。これに応答して、設備は、これらのオブジェクトに対するビュー確率ベクトル集約結果におけるビュー確率を合計する。腎臓オブジェクトに関して、設備は、右上象限ビューのビュー確率0.7と左上象限ビューのビュー確率0.2とを合計して、合計0.9を得る。次に、設備は、選択されたビュー確率のこの合計にオブジェクトに対するオブジェクト確率を乗算する。腎臓オブジェクトの例では、設備は、合計0.9に0.8の初期オブジェクト確率を乗算して、0.72の腎臓についての精緻化されたオブジェクト確率を得る。設備は、精緻化されたオブジェクト確率ベクトル集約結果562を得るために、オブジェクトの各々に関してこのプロセスを実行し、この例におけるその内容は以下の表3に示されている。
Figure 2023549093000004
動作605では、セグメント精緻化モジュール570において、設備は、動作604で得られた精緻化されたオブジェクト確率ベクトル集約結果562を使用して、オブジェクトセグメンテーションマスク集約結果543に含まれるマスクをフィルタリングする。特に、設備は、精緻化されたオブジェクト確率ベクトル集約結果内の各オブジェクトの値に、60%などの最小確率を適用する。この例に関して、0.6の最小確率を適用すると、設備は、精密化された確率が0.63である肝臓、ならびに精密化された確率が両方とも0.72である腎臓及び横隔膜のみについてセグメンテーションマスクを選択する。したがって、設備は、フィルタリングされたセグメンテーションマスクキューブ580内の肝臓、腎臓、及び横隔膜オブジェクトのためのキューブ543内のセグメンテーションマスクを含む。動作606において、設備は、現在のフレーム501を、動作605において生成されたフィルタリングされたオブジェクトセグメンテーションマスク集約結果580に基づく識別されたオブジェクトの視覚的指示で拡張して、表示されたフレーム590を取得する。
図9は、現在のフレームにおいて視覚化されるものとして識別されたオブジェクトを視覚的に示すために設備が拡張したサンプル患者ビデオフレームのバージョンを示す表示図である。拡張フレーム900は、肝臓オブジェクトの視覚表示901と、腎臓オブジェクトの表示902と、横隔膜オブジェクトの表示903とを含むことが分り得かる。様々な実施形態において、これらの視覚的表示は、様々な特性のものである。例えば、様々な実施形態において、これらは充填されていない形状であり、対応するセグメンテーションマスクにおける確率及び/又は元の画像における視覚データに基づいて輝度及び強度が変化する充填された形状、一定の強度の充填された形状などである。
図6に戻ると、動作607において、設備は、動作606において生成された拡張された最新のフレーム590を、撮像センサに物理的に接続された表示装置、撮像センサに無線で接続されたローカル表示装置、遠隔表示装置などに表示させる。動作607の後、設備は、動作601に続き、患者ビデオの次のフレームを処理する。
上に記載した様々な実施形態を組み合わせ、更なる実施形態を提供することができる。本明細書で言及される、かつ/又は出願データシートに列挙される、米国特許、米国特許出願公報、米国特許出願、外国特許、外国特許出願、及び非特許刊行物の全ては、それらの全体が参照により本明細書に組み込まれる。実施形態の態様を改変し、必要な場合には、様々な特許、明細書及び刊行物の概念を使用して、更なる実施形態を提供することができる。
上で詳述した説明を考慮して、これらの変更及び他の変更を実施形態に行うことができる。概して、以下の特許請求の範囲において、使用される用語は、特許請求の範囲を、明細書及び特許請求の範囲に開示される具体的な実施形態に限定するものと解釈すべきではなく、このような特許請求の範囲によって権利が与えられる均等物の全範囲に沿った全ての可能な実施形態を含むと解釈すべきである。したがって、特許請求の範囲は、本明細書の開示によって制限されるものではない。

Claims (26)

  1. システムであって、
    超音波感知装置と、
    コンピューティング装置と、を備え、前記コンピューティング装置が、
    人物から前記超音波感知装置によって感知された超音波エコーデータを直接受信するように構成された通信インターフェースであって、前記受信された超音波エコーデータが、一連のフレームを含む超音波ビデオを含み、各フレームはピクセルで構成された、通信インターフェースと、
    メモリであって、
    超音波ビデオフレームのために、訓練された1つ以上のニューラルネットワークを記憶し、
    複数の超音波ビューの各々について、前記フレームが前記ビューから捕捉された確率を帰属させ、
    複数の解剖学的オブジェクトの各々について、
    前記フレームが前記オブジェクトを視覚化する確率を帰属させ、
    前記フレームの前記ピクセルの各々について、前記オブジェクトが前記ピクセル内で視覚化される確率を帰属させ、
    前記複数のオブジェクトの各々について、前記オブジェクトが許可されるビューのリストを記憶し、
    オブジェクト確率閾値及びピクセル確率閾値を記憶するように構成されたメモリと、
    プロセッサであって、
    前記シーケンスの前記フレームの各々について、
    前記1つ以上の訓練されたニューラルネットワークを前記フレームに適用して、
    前記複数のビューの各々について、前記フレームが前記ビューから捕捉された確率を帰属させ、
    前記複数のオブジェクトの各々について、
    前記フレームが前記オブジェクトを視覚化する確率を帰属させ、
    前記フレームの前記ピクセルの各々について、前記オブジェクトが前記ピクセル内で視覚化される確率を帰属させ、
    前記複数のオブジェクトの各々について、
    前記オブジェクトが許可されるビューの前記記憶されたリストにアクセスすることと、
    前記アクセスされたリスト上の前記ビューに帰属する前記確率を合計することと、
    前記合計に前記オブジェクト確率を乗算して、精緻化されたオブジェクト確率を取得することと、
    前記精緻化されたオブジェクト確率が前記記憶された確率閾値を超える場合、前記オブジェクトについてのピクセル確率が前記ピクセル閾値を超える前記ピクセルにおいて前記オブジェクトが前記フレームによって視覚化されることを示すように前記フレームを拡張することとによって、前記フレームにおいて視覚化されたオブジェクトを識別するように構成されたプロセッサと、
    ディスプレイ装置であって、
    前記シーケンスの前記フレームの各々について、
    前記フレームを拡張されたものとして表示するように構成されるディスプレイ装置と、を含む、システム。
  2. 前記超音波感知装置及び前記コンピューティング装置は、物理的に接続される、請求項1に記載のシステム。
  3. 前記超音波感知装置が、トランスデューサを含む、請求項1に記載のシステム。
  4. 前記プロセッサは、各フレームについて、前記識別の前に、前記シーケンス内の前記フレームに先行する1つ以上のフレームに帰属する確率を、前記フレームに帰属する確率に集約するように更に構成される、請求項1に記載のシステム。
  5. 前記複数のオブジェクトの各々が臓器である、請求項1に記載のシステム。
  6. 前記複数のオブジェクトの各々がサブ臓器構造である、請求項1に記載のシステム。
  7. コンピューティングシステムに方法を実行させるように構成された内容を集合的に有するコンピュータ可読媒体の1つ以上のインスタンスであって、前記方法が、
    医療撮像画像にアクセスすることと、
    画像について、複数のビューの各々について、前記画像が前記ビューから捕捉された確率に帰属するビュー確率ベクトルを予測するように訓練された第1の機械学習モデルにアクセスすることと、
    前記アクセスされた画像に前記第1の機械学習モデルを適用して、前記アクセスされた画像のビュー確率ベクトルを予測することと、
    画像について、複数の解剖学的オブジェクトの各々について、前記オブジェクトが前記画像によって視覚化される確率を帰属させるオブジェクト確率ベクトルを予測するように訓練された第2の機械学習モデルにアクセスすることと、
    前記第2の機械学習モデルを前記アクセスされた画像に適用して、前記アクセスされた画像についてのオブジェクト確率ベクトルを予測することと、
    前記複数のオブジェクトの各々について、
    前記オブジェクトが許可されるビューの記憶されたリストにアクセスすることと、
    前記アクセスされた画像によって前記オブジェクトが視覚化される前記予測確率を、前記アクセスされた画像が捕捉されたビューであった前記予測確率の合計で乗算することであって、前記オブジェクトが前記アクセスされた画像によって前記オブジェクトが視覚化される精緻化された確率を得ることを許可される、ことと、
    前記オブジェクトが前記アクセスされた画像によって視覚化される前記精緻化された確率が確率閾値を超え、前記オブジェクトが前記アクセスされた画像によって視覚化されると決定することと、を含む、コンピュータ可読媒体の1つ以上のインスタンス。
  8. 前記方法は、
    前記アクセスされた画像に関連して、前記アクセスされた画像によって視覚化されると決定された前記オブジェクトの指示を記憶することを更に含む、請求項7に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  9. 前記方法は、
    画像について、前記複数のオブジェクトの各々について、前記オブジェクトが視覚化される前記画像のピクセルを識別するセグメンテーションマスクを予測するように訓練された第3の機械学習モデルにアクセスすることと、
    前記第3の機械学習モデルを前記アクセスされた画像に適用して、前記複数のオブジェクトの各々について前記アクセスされた画像のセグメンテーションマスクを予測することと、
    前記アクセスされた画像によって視覚化されると決定された前記オブジェクトに対して前記セグメンテーションマスクを使用して、前記アクセスされた画像によって視覚化されると決定された前記オブジェクトの前記位置を示すように前記アクセスされた画像を拡張することと、を更に含む、請求項7に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  10. 前記第1の機械学習モデル、前記第2の機械学習モデル、及び前記第3の機械学習モデルは、共通の一連のニューラルネットワーク層を共有する、9に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  11. 前記方法は、
    前記拡張画像を記憶することを更に含む、9に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  12. 前記方法は、
    前記拡張画像を表示させることを更に含む、9に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  13. 前記方法は、
    前記アクセスされた画像によって視覚化されると決定された前記オブジェクトのリストを表示させることを更に含む、9に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  14. 前記方法は、
    前記第1の機械学習モデルを訓練することと、
    前記第2の機械学習モデルを訓練することと、を更に含む、請求項7に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  15. 前記アクセスされた画像が、超音波画像である、請求項7に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  16. 前記内容は、コンピューティングシステムに、同じ患者から取り込まれた一連のアクセスされた画像の各々について前記方法を実行させるように構成される、請求項7に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  17. 機械学習モデルを訓練するためのコンピューティングシステムにおける方法であって、前記方法は、
    注釈付き超音波画像訓練観察の本体にアクセスすることと、
    超音波画像に基づいて、複数のビューの各々について、前記画像が前記ビューから捕捉された確率を予測するように第1の機械学習モデルを訓練するために、注釈付き訓練観測値の前記本体の少なくとも一部分を使用することと、
    注釈付き訓練観察の前記本体の少なくとも一部を使用して、第2の機械学習モデルを訓練して、超音波画像に基づいて、複数の解剖学的オブジェクトの各々について、前記オブジェクトが前記画像によって視覚化される確率を予測することと、
    前記訓練された第1の機械学習モデル及び第2の機械学習モデルを永続的に記憶することと、を含み、
    それにより、生成超音波画像は、前記複数のビューの各々について、前記画像が前記ビューから捕捉された確率を予測するために前記第1の機械学習モデルにかけられることができ、前記複数のオブジェクトの各々について、前記オブジェクトが前記画像によって視覚化される確率を予測するために前記第2の機械学習モデルにかけられることができる、方法。
  18. 超音波画像によって表される複数のビューの各々について、前記ビューから捕捉された超音波画像内で視覚化可能であると予想される1つ以上の解剖学的オブジェクトの指示を永続的に記憶することを更に含み、
    それにより、前記複数のオブジェクトの各々について、前記生成超音波画像を前記第2の機械学習モデルにかけることによって予測される前記画像によって前記オブジェクトが視覚化される前記確率は、前記オブジェクトが視覚化可能であると予想されるように示される前記ビューについて前記生成超音波画像を前記第1の機械学習モデルにかけることによって予測される前記確率の合計を乗算することによって精緻化され得る、請求項17に記載の方法。
  19. 前記第2の機械学習モデルの一部は、前記第1の機械学習モデルと共有される、請求項17に記載の方法。
  20. データ構造を集合的に記憶するコンピュータ可読媒体の1つ以上のインスタンスであって、前記データ構造は、
    機械学習モデルを含み、前記モデルは、
    放射線画像に基づいて、複数のビューの各々について、前記放射線画像が前記ビューから捕捉された確率を予測するように訓練された第1の部分と、
    放射線画像に基づいて、複数の解剖学的オブジェクトの各々について、前記解剖学的オブジェクトが、それが視覚化する前記放射線画像解剖学的構造によって視覚化される確率を予測するように訓練された第2の部分と、を含み、
    それにより、前記モデルを識別された放射線画像に適用して、どのビューから捕捉されたか、及びそれが視覚化する解剖学的オブジェクトの確率を予測することができる、コンピュータ可読媒体の1つ以上のインスタンス。
  21. 前記モデルの前記第1の部分及び前記第2の部分が予測するために訓練される基礎となる前記放射線画像は、超音波画像である、請求項20に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  22. 前記モデルの前記第1の部分及び前記第2の部分は別個である、請求項20に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  23. 前記モデルの前記第1の部分及び前記第2の部分は、共有部分で交差する、請求項20に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  24. 前記第1の部分及び前記第2の部分は、U-netの拡張経路から逸脱する並列分岐である、請求項23に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  25. 前記モデルの前記第1の部分及び前記第2の部分の各々は、1つ以上の人工ニューラルネットワークから構成される、請求項20に記載のコンピュータ可読媒体の1つ以上のインスタンス。
  26. 前記データ構造は、
    1つ以上のビューの各々について、前記ビューから捕捉された放射線画像において識別が許可される解剖学的オブジェクトのリストを更に含む、請求項20に記載のコンピュータ可読媒体の1つ以上のインスタンス。
JP2023526329A 2020-11-06 2021-11-04 高レベル画像理解によるロバストセグメンテーション Pending JP2023549093A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/091,263 US11636593B2 (en) 2020-11-06 2020-11-06 Robust segmentation through high-level image understanding
US17/091,263 2020-11-06
PCT/US2021/058037 WO2022098859A1 (en) 2020-11-06 2021-11-04 Robust segmentation through high-level image understanding

Publications (1)

Publication Number Publication Date
JP2023549093A true JP2023549093A (ja) 2023-11-22

Family

ID=81454816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023526329A Pending JP2023549093A (ja) 2020-11-06 2021-11-04 高レベル画像理解によるロバストセグメンテーション

Country Status (4)

Country Link
US (1) US11636593B2 (ja)
JP (1) JP2023549093A (ja)
CA (1) CA3197407A1 (ja)
WO (1) WO2022098859A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11523801B2 (en) * 2020-05-11 2022-12-13 EchoNous, Inc. Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured
JP7159361B2 (ja) * 2021-01-06 2022-10-24 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波画像表示システム及びその制御プログラム
KR20240020388A (ko) * 2022-08-08 2024-02-15 주식회사 빔웍스 초음파 영상을 기반으로 병변을 예측하는 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6187444B2 (ja) 2014-03-20 2017-08-30 株式会社村田製作所 電力増幅モジュール
CN108603922A (zh) 2015-11-29 2018-09-28 阿特瑞斯公司 自动心脏体积分割
EP3471623B1 (en) 2016-06-20 2023-01-25 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
WO2018140596A2 (en) 2017-01-27 2018-08-02 Arterys Inc. Automated segmentation utilizing fully convolutional networks
US11245887B2 (en) 2017-09-14 2022-02-08 Samsung Electronics Co., Ltd. Electronic device and operation method therefor
EP3536245A1 (en) 2018-03-08 2019-09-11 Koninklijke Philips N.V. A system and method of identifying characteristics of ultrasound images
CN112040876B (zh) 2018-04-20 2024-10-11 皇家飞利浦有限公司 自适应超声扫描
EP3826544B1 (en) * 2018-07-26 2024-06-05 Koninklijke Philips N.V. Ultrasound system with an artificial neural network for guided liver imaging
US11446008B2 (en) 2018-08-17 2022-09-20 Tokitae Llc Automated ultrasound video interpretation of a body part with one or more convolutional neural networks
CN113194836B (zh) 2018-12-11 2024-01-02 Eko.Ai私人有限公司 自动化临床工作流
US10430946B1 (en) * 2019-03-14 2019-10-01 Inception Institute of Artificial Intelligence, Ltd. Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques
US11532084B2 (en) 2020-05-11 2022-12-20 EchoNous, Inc. Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification
US11523801B2 (en) * 2020-05-11 2022-12-13 EchoNous, Inc. Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured

Also Published As

Publication number Publication date
US11636593B2 (en) 2023-04-25
CA3197407A1 (en) 2022-05-12
US20220148158A1 (en) 2022-05-12
WO2022098859A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
US10893850B2 (en) Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data
US20190142388A1 (en) Methods and apparatus for configuring an ultrasound device with imaging parameter values
JP6479039B2 (ja) 超音波画像取得に対する触覚フィードバック
JP2023549093A (ja) 高レベル画像理解によるロバストセグメンテーション
US11559279B2 (en) Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data
US20200037986A1 (en) Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data
US11532084B2 (en) Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification
CN113260313A (zh) 用于超声数据收集的方法和装置
US20210345986A1 (en) Automatic evaluation of ultrasound protocol trees
JP2023525743A (ja) 各画像が捕捉された特定のビューに敏感な方法で医療画像内の解剖学的構造を自動的に識別する
KR20150114285A (ko) 초음파 진단 장치 및 그 동작방법
US11191526B2 (en) Ultrasound diagnosis apparatus and method of controlling the same
CN115337038A (zh) 超声波诊断装置以及诊断辅助方法
US20230263501A1 (en) Determining heart rate based on a sequence of ultrasound images
US20240023937A1 (en) Automation-assisted venous congestion assessment in point of care ultrasound
US20230125779A1 (en) Automatic depth selection for ultrasound imaging
US20230342922A1 (en) Optimizing ultrasound settings
US20230320694A1 (en) Graphical user interface for providing ultrasound imaging guidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240909