JP6947759B2 - 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法 - Google Patents

解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法 Download PDF

Info

Publication number
JP6947759B2
JP6947759B2 JP2018566504A JP2018566504A JP6947759B2 JP 6947759 B2 JP6947759 B2 JP 6947759B2 JP 2018566504 A JP2018566504 A JP 2018566504A JP 2018566504 A JP2018566504 A JP 2018566504A JP 6947759 B2 JP6947759 B2 JP 6947759B2
Authority
JP
Japan
Prior art keywords
image
anatomical object
surrounding tissue
deep learning
parameter space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018566504A
Other languages
English (en)
Other versions
JP2019525786A (ja
JP2019525786A5 (ja
Inventor
アヴェンディ、マイケル・アール
シュー、ケニス・シー
ダフィー、シェーン・エー
ファンタジア、ドミニク・ジェイ
ハラジュ、スティーブ・エス
ソムジ、ハナイン
ブイ、エイミー・ティー
シャリアリ、シルザド
アヴィラ、アンバー・エー
ムルダーズ、ジュースト・エル
Original Assignee
アヴェント インコーポレイテッド
アヴェント インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アヴェント インコーポレイテッド, アヴェント インコーポレイテッド filed Critical アヴェント インコーポレイテッド
Publication of JP2019525786A publication Critical patent/JP2019525786A/ja
Publication of JP2019525786A5 publication Critical patent/JP2019525786A5/ja
Application granted granted Critical
Publication of JP6947759B2 publication Critical patent/JP6947759B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

(関連出願の相互参照)
本出願は、米国特許仮出願第62/359、726号(2016年7月8日出願)、同第62/429、157号(2016年12月2日出願)、及び同第62/500、750号(2017年5月3日出願)に基づく優先権を主張するものである。
(技術分野)
本発明は、医用イメージングの分野における解剖学的対象物の検出に関し、特に、ディープラーニングアルゴリズムを用いて、解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法に関する。
解剖学的対象物の検出及びセグメンテーションは、診断、患者の層別化、治療計画、治療介入、及び/または経過観察のために臨床イメージングワークフローを支援する医用イメージングにおいて欠かせないタスクである。したがって、解剖学的対象物及びその周囲組織の検出及びセグメンテーションを迅速かつロバストに行うことが重要である。
医用イメージングにおける解剖学的検出及びトラッキングについての問題を解決するための、従来のアプローチに基づく様々なシステム、例えばコンピュータ断層撮影(CT)、磁気共鳴(MR)、超音波、蛍光透視像視などに基づく様々なシステムが存在する。しかしながら、このようなシステムを使用した解剖学的対象物の検出は、とりわけ、解剖学的対象物が生体構造、形状、及び/または外観において大きなバラツキを示すことや、医用画像におけるノイズ及びアーチファクトなどの、いくつかの検出上の困難な問題に関しては、必ずしもロバストではない。例えば、特定の神経ブロック処置では、医師が、超音波画像化システムによって標的神経束を迅速かつ正確に位置特定するのが困難である場合が多い。
したがって、本開示は、既存の画像化システムによって実行することができるディープラーニングアルゴリズムを用いて、解剖学的対象物(例えば、神経束)を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法を対象とする。
本発明の目的及び利点は、その一部が以下の説明に記載されており、あるいは以下の説明から明らかであり、あるいは本発明の実施により学ぶことができるであろう。
一態様では、本発明は、画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的に検出、位置特定、及びセグメンテーションする方法に関する。本開示の方法は、解剖学的対象物及びその周囲組織を含む画像をプロセッサに提供するステップを含む。また、本開示の方法は、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に検出するための、1または複数の畳み込み型ニューラルネットワークを含むパラメータ空間ディープラーニングネットワークを開発し、訓練するステップを含む。さらに、本開示の方法は、別の畳み込み型ニューラルネットワークを用いて、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションするステップを含む。加えて、本開示の方法は、画像中の解剖学的対象物及びその周囲組織を自動的にラベル付けするステップを含む。そして、本開示の方法は、ラベル付けされた画像をユーザに対して表示するステップを含む。
一実施形態では、少なくとも1つの解剖学的対象物及びその周囲組織は、患者の任意の解剖学的構造体及び/またはその周囲組織を含み得る。そのようなものとしては、これに限定しないが、例えば、腕神経叢、斜角筋間筋、胸鎖乳突筋、中斜角筋、前斜角筋、鎖骨上筋、鎖骨下筋、腋窩筋、腰神経叢、腸骨筋膜、大腿神経、坐骨神経、外転筋管、膝窩神経、膝窩動脈、膝窩筋、伏在静脈、伏在神経、肋間腔、腹横筋膜面、または胸部傍脊椎腔などが挙げられる。
別の実施形態では、本開示の方法は、解剖学的対象物及びその周囲組織を含む画像のパラメータ空間を自動的に検出するディープラーニングネットワークを、グランドトゥルースデータを使用して訓練するステップを含む。より具体的には、ある実施形態では、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に検出するディープラーニングネットワークを開発し、訓練するステップは、複数の患者から、解剖学的対象物及びその周囲組織の画像データセットをスキャンし、収集するステップと、グランドトゥルースデータを生成するために、ユーザ(例えば、医療専門家)の入力に基づいて画像データセットに注釈を付けるステップと、画像データセット及びグランドトゥルースデータを、訓練データセット及び妥当性確認データセットに分割するステップと、訓練データセットを使用してディープラーニングネットワークを訓練するステップと、を含む。
さらなる実施形態では、訓練データセットを使用してディープラーニングネットワークを訓練するステップは、ディープラーニングネットワークの出力とグランドトゥルースデータとの間の誤差を最小化するためにコスト関数を最適化するステップを含む。より具体的には、ある実施形態では、誤差を最小化するためにコスト関数を最適化するステップは、グランドトゥルースデータの一部を反復処理し、ディープラーニングネットワークの出力とグランドトゥルースデータとの間の誤差に基づいてディープラーニングネットワークの1以上のパラメータを調整する確率的勾配降下(SGD)アルゴリズムを使用するステップを含む。
さらに別の実施形態では、本開示の方法は、ディープニューラルネットワークが一般化されるようにするために、コスト関数の最適化後に、ディープラーニングネットワークをリアルタイムで使用して妥当性確認データの予測を自動的に提供し、予測をグランドトゥルースデータと比較するステップを含む。
さらなる別の実施形態では、グランドトゥルースデータを作成するために、ユーザ入力に基づいて画像データセットに注釈を付けるステップは、各画像データセット中の解剖学的対象物及びその周囲組織を手動で識別し、注釈を付けるステップを含む。
さらなる実施形態では、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションするステップは、セマンティックセグメンテーションによって解剖学的対象物及びその周囲組織をセグメンテーションするステップを含む。
別の実施形態では、本開示の方法はまた、解剖学的対象物及びその周囲組織を含む画像のパラメータ空間を自動的に検出するためのディープラーニングネットワークを、オフラインで最初に訓練するステップを含む。さらに別の実施形態では、本開示の方法は、記解剖学的対象物及びその周囲組織を含む画像のパラメータ空間を自動的に検出するためのディープラーニングネットワークを、オンラインで継続的に訓練するステップを含む。
別の実施形態では、画像中の解剖学的対象物及びその周囲組織を自動的にラベル付けするステップは、画像中の少なくとも1つの解剖学的対象物及びその周囲組織の輪郭を描くこと(アウトラインニング)及び陰影を付けること(シェーディング)の少なくとも一方、または、少なくとも1つの解剖学的対象物及びその周囲組織の各々の上に記述的ラベルを重畳することを含む。
さらに別の実施形態では、別の畳み込み型ニューラルネットワークを用いて、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションするステップは、画像から解剖学的対象物の周囲の関心領域を抽出するステップを含む。
さらなる別の実施形態では、解剖学的対象物及びその周囲組織を含む画像は、プロセッサに提供される前に、自動的にクロッピング(トリミング)される。
別の態様では、本開示は、画像化システムに関する。より具体的には、ある実施形態では、本開示の画像化システムは、超音波画像化システム、コンピュータ断層撮影(CT)スキャナ、磁気共鳴画像化(MR)スキャナなどであり得る。加えて、本開示の画像化システムは、1以上のステップを実行するように構成された少なくとも1つのプロセッサと、ユーザディスプレイとを備える。より具体的には、上記の1以上のステップは、これに限定しないが、少なくとも1つの解剖学的対象物及びその周囲組織を含む画像を受け取るステップと、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に検出するための、1または複数の畳み込み型ニューラルネットワークを含むパラメータ空間ディープラーニングネットワークを開発し、訓練するステップと、別の畳み込み型ニューラルネットワークを用いて、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションするステップと、画像中の解剖学的対象物及びその周囲組織を自動的にラベル付けするステップと、を含む。ユーザディスプレイは、ラベル付けされた画像をユーザに対して表示するように構成されている。
別の実施形態では、ディープラーニングネットワークは、1または複数の畳み込み型ニューラルネットワーク、1または複数の再帰型ニューラルネットワーク、または任意の他の適切なニューラルネットワークを含む。本開示の画像化システムは、本明細書で説明された任意の方法ステップ及び/またはフューチャを実施するようにさらに構成され得ることを理解されたい。
さらに別の態様では、本開示は、画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションする方法に関する。本開示の方法は、解剖学的対象物及びその周囲組織を含む画像をプロセッサに提供するステップを含む。また、本開示の方法は、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に検出するためのパラメータ空間ディープラーニングネットワークを開発し、訓練するステップを含む。さらに、本開示の方法は、1または複数のディープラーニングアルゴリズムを用いて、画像のパラメータ空間内の解剖学的対象物及びその周囲組織を自動的に位置特定及びセマンティックセグメンテーションするステップを含む。また、本開示の方法は、画像中の解剖学的対象物及びその周囲組織を自動的にラベル付けするステップと、ラベル付けされた画像をユーザに対して表示するステップとを含む。本開示の方法は、本明細書で説明された任意の方法ステップ及び/またはフューチャを実施するようにさらに構成され得ることを理解されたい。
本発明の上記及び他の特徴、態様及び利点は、以下の説明及び添付された特許請求の範囲を参照することにより、より良く理解できるであろう。添付図面は、本明細書に組み込まれてその一部を構成し、本発明の実施形態を図示し、本明細書と共に本発明の原理を説明する役割を果たす。
当業者を対象にした本開示の完全かつ実現可能な開示(ベストモードを含む)が、添付図面を参照して、本明細書の残りの部分により詳細に説明される。
本開示による画像化システムの一実施形態の斜視図である。 本開示による画像化システムのプロセッサの一実施形態のブロック図である。 本開示による画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的に検出、位置特定、及びセグメンテーションする方法の一実施形態のフロー図である。 本開示による画像化システムにより生成された画像のパラメータ空間の一実施形態の概略図であり、とりわけ、患者の腕神経叢の斜角筋間位置特定を、輪郭が描かれ、かつ番号が付された周囲組織と共に示す。 本開示による画像化システムにより生成された画像のパラメータ空間の別の実施形態の概略図であり、とりわけ、患者の腕神経叢の斜角筋間位置特定を、輪郭が描かれ、かつ番号が付された周囲組織と共に示す。 本開示による画像化システムにより生成された画像のパラメータ空間のさらに別の実施形態の概略図であり、とりわけ、患者の腕神経叢の斜角筋間位置特定を、陰影が付けられた周囲組織と共に示す。 本開示による画像化システムにより生成された画像のパラメータ空間の一実施形態の概略図であり、とりわけ、患者の腕神経叢の斜角筋間位置特定を示す。 本開示による画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的に検出、位置特定、及びセグメンテーションする方法の別の実施形態のフロー図である。 本開示による画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的に検出、位置特定、及びセグメンテーションする方法の一実施形態の概略図であり、とりわけ、患者の腕神経叢の斜角筋間位置特定を、ラベル付けされた周囲組織と共に示す。 本開示による画像化システムにより生成された画像を前処理する方法の概略図である。 図10の方法にしたがって変換されていない、第1の超音波装置(例えば、装置A)により取得された画像である。 図10の方法にしたがって変換された、第1の超音波装置(例えば、装置A)により取得された画像である。 図10の方法にしたがって変換されていない、第1の超音波装置(例えば、装置A)により取得された画像のヒストグラムである。 図10の方法にしたがって変換された、第1の超音波装置(例えば、装置A)により取得された画像のヒストグラムである。 図10の方法にしたがって変換されていない、第2の超音波装置(例えば、装置B)により取得された画像である。 図10の方法にしたがって変換された、第2の超音波装置(例えば、装置B)により取得された画像である。 図10の方法にしたがって変換されていない、第2の超音波装置(例えば、装置B)により取得された画像のヒストグラムである。 図10の方法にしたがって変換された、第2の超音波装置(例えば、装置B)により取得された画像のヒストグラムである。 図10の方法にしたがって変換されていない、第3の超音波装置(例えば、装置C)により取得された画像である。 図10の方法にしたがって変換された、第3の超音波装置(例えば、装置C)により取得された画像である。 図10の方法にしたがって変換されていない、第3の超音波装置(例えば、装置C)により取得された画像のヒストグラムである。 図10の方法にしたがって変換された、第3の超音波装置(例えば、装置C)により取得された画像のヒストグラムである。 本開示による低計算能力デバイスを使用する画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的にセグメンテーションする方法の一実施形態の概略図である。 本開示による画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物の自動的な検出及びセグメンテーションを同時に行う方法の一実施形態の概略図である。 ビデオストリーム中から識別された画像をプロセッサに提供する本開示の方法の一実施形態のフロー図である。 ディープラーニングネットワークを訓練することにより、解剖学的対象物及びその周囲組織を含む画像のパラメータ空間を自動的に検出する本開示の方法の一実施形態のフロー図である。ディープラーニングネットワークの訓練は、ビデオストリーム中の画像のパラメータ空間内の少なくとも1つの解剖学的対象物を識別し、注釈を付けることを含む。 リアルタイム超音波画像から、腕神経叢(BP)などの解剖学的対象物を含む関心領域を自動的に位置特定し、セグメンテーションまたは抽出する方法の一実施形態のフロー図である。 元の画像中に検出された関心領域を自動的にデータクリーニングする方法の一実施形態のフロー図である。元の画像をクリーニングし、クロッピングしたバージョンは、例えば、画像の注釈付けや、ディープラーニングなどの後続ステップで使用される。
以下、本発明の様々な実施形態及びその1以上の実施例を詳細に説明する。各実施例は、本発明を説明するために提示されたものであり、本発明を限定するものではない。例えば、ある実施形態の一部として例示または説明された特徴を、別の実施形態を用いて、さらなる別の実施形態を創出することもできる。本発明は、添付された特許請求の範囲及びその均等物の範囲に含まれる限り、そのような変更形態及び変形形態を包含することを意図している。
概して、本開示は、画像化システム(例えば、超音波画像化システム)により生成された画像のパラメータ空間内の1または複数の解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするためのシステム及び方法に関する。より具体的には、図面を参照すると、図1及び図2は、画像化システム10により生成された画像のパラメータ空間12内の1または複数の解剖学的対象物を自動的に検出、位置特定、及びセグメンテーションするように構成された画像化システム10及びそれに関連するプロセッサ16の一実施形態を示す。本明細書で使用するとき、画像化システム10は、超音波画像化システム(図示のように)、コンピュータ断層撮影(CT)スキャナ、磁気共鳴画像化(MRI)スキャナ、または本技術から利益を得ることができる任意の他の適切な画像化システムに相当し得る。より具体的には、図示のように、画像化システム10は、概して、コンピュータにより実施される様々な機能(例えば、本開示の方法等を実施する機能、本明細書に開示されたような関連データを格納する機能など)を実行するように構成された1以上のプロセッサ16及びそれに関連するメモリデバイス18、並びに、ユーザディスプレイ20を含む。加えて、画像化システム10は、画像14のパラメータ空間12を生成及び/または操作するときにユーザを補助するように構成された、コンピュータ及び/またはキーボードなどのユーザインタフェース22を含み得る。
加えて、図2に示すように、プロセッサ16は、該プロセッサ16と画像化システム10の様々な要素(例えば、図1の要素のいずれか)との間の通信を容易にする通信モジュール24を含み得る。さらに、通信モジュール24は、1以上のプローブ28(例えば、超音波プローブ)から送信された信号を、プロセッサ16が理解して処理することができる信号に変換することを可能にするセンサインタフェース26(例えば、1以上のアナログ/デジタル変換器)を含み得る。超音波プローブ28は、任意の適切な手段を用いて、通信モジュール24に通信可能に接続され得ることを理解されたい。例えば、図2に示すように、超音波プローブ28は、有線接続によってセンサインタフェース26に接続され得る。また、他の実施形態では、超音波プローブ28は、例えば当分野で既知の任意の適切な無線通信プロトコルを使用して、無線接続によってセンサインタフェース26に接続され得る。このようにして、プロセッサ16は、超音波プローブ28から1以上の信号を受信するように構成され得る。
本明細書で使用するとき、「プロセッサ」という用語は、当分野ではコンピュータ内に含まれていると見なされる集積回路だけでなく、コントローラ(制御装置)、マイクロコントローラ、マイクロコンピュータ、プログラマブルロジックコントローラ(PLC)、特定用途向け集積回路、フィールドプログラマブルゲートアレイ(FPGA)、及び他のプログラマブル回路も指す。プロセッサ16はまた、高度な制御アルゴリズムを計算し、様々なイーサネット(登録商標)またはシリアルベースのプロトコル(Modbus、OPC、CAN等)と通信するように構成される。さらに、ある実施形態では、プロセッサ16は、計算時間の短縮、及びローカルデバイスの負担軽減を目的として、クラウドコンピューティングのためにインターネットを介してサーバと通信するようにしてもよい。加えて、メモリデバイス18は、一般に、コンピュータ可読媒体(例えば、ランダムアクセスメモリ(RAM))、コンピュータ可読不揮発性媒体(例えば、フラッシュメモリ)、フロッピーディスク、コンパクトディスク読み取り専用メモリ(CD−ROM)、光磁気ディスク(MOD)、デジタル多用途ディスク(DVD)、及び/または他の適切な記憶素子を含み得る。このようなメモリデバイス18は、一般に、プロセッサ16によって実施されたときに本明細書に記載されたような様々な機能を実行するようにプロセッサ16を構成する適切なコンピュータ可読命令を格納するように構成され得る。
次に図3−図7を参照すると、画像化システム(例えば、超音波画像化システム)により生成された画像14のパラメータ空間12内の少なくとも1つの解剖学的対象物30を自動的に検出、位置特定、及びセグメンテーションする方法100の一実施形態を説明するためのフロー図(図3)、並びに、画像14のパラメータ空間12を表示するユーザディスプレイ20からキャプチャした様々な実施形態のスクリーンショット(図4−図7)が示されている。ある実施形態では、本明細書で説明されたような解剖学的対象物30及びその周囲組織32は、患者の任意の解剖学的構造体及び/またはその周囲組織を含み得る。より具体的には、図4−図7の実施形態に示すように、解剖学的対象物30は、下側の4つの頸神経と第1胸神経の前枝によって構成され脊髄から延びる神経ネットワークに概ね対応する、患者の斜角筋間の腕神経叢(BP)34を含み得る。腕神経叢34は、頚部の頸部同軸管を通過し、第1肋骨を越え、腋窩(すなわち、腋窩領域)内まで延びており、腋窩領域において上肢、並びに、頚部及び肩部の筋肉の一部を神経支配する。このため、腕神経叢34の周囲組織32は、一般に、胸鎖乳突筋(SM)36、中斜角筋(MCM)38、前斜角筋(ASM)40等に相当する。このような解剖学的構造体の視野またはパラメータ空間12をキャプチャすることは、一般的に、医師にとって困難である。したがって、本開示のシステム及び方法は、本明細書で言及した腕神経叢(BP)及びその周囲組織を含む視野を自動的に検出、位置特定、及びセグメンテーションするための改良された方法を提供する。
しかしながら、本開示のシステム及び方法は、腕神経叢34に関連する医療処置に加えて、任意の解剖学的構造体に関与する任意の様々な医療処置にも使用され得ることを理解されたい。例えば、解剖学的対象物30及びその周囲組織は、上肢及び下肢並びにコンパートメント(筋区画)ブロックを含み得る。より具体的には、このような実施形態では、上肢の解剖学的対象物30及びその周囲組織は、互いに異なる位置で腕神経叢(上肢の神経束)をブロックする、斜角筋間筋、鎖骨上筋、鎖骨下筋、及び/または腋窩筋神経ブロックを含み得る。さらに、下肢の解剖学的対象物30及びその周囲組織は、腰神経叢、腸骨筋膜、大腿神経、坐骨神経、外転筋管、膝窩、伏在静脈(足首)等を含み得る。加えて、コンパートメントブロックの解剖学的対象物30及びその周囲組織は、肋間腔、腹横筋膜面(TAP)、胸部傍脊椎腔等を含み得る。さらに、図4及び図5に示すように、画像化システム10により生成された画像14は、パラメータ空間と、それに隣接して配置された任意選択のタスクバー15とを含み得る。加えて、タスクバー15は、日付及び時刻のみならず、オープンボタン(open)、スタートボタン(start)、ストップボタン(stop)等の他の適切な制御機能を含み得る。別の実施形態では、図6及び図7に示すように、タスクバー15を省略してもよい。また、画像14が任意の他の適切な制御及び/または表示機能をさらに含み、ユーザインタフェース22またはタッチスクリーン機能を介して制御してもよいことを理解されたい。
特に図3を参照すると、本開示の方法は、画像化システム10によって、解剖学的対象物30及びその周囲組織32を含む画像14を生成し、生成された全体画像をプロセッサ16に提供するステップ102を含む。さらに、本開示の方法100は、画像14のパラメータ空間12内の解剖学的対象物30及び/またはその周囲組織32を自動的に検出するためのパラメータ空間ディープラーニングネットワークを開発し、訓練するステップ104を含む。より具体的には、ある実施形態では、ディープラーニングネットワークは、1または複数のディープ畳み込み型ニューラルネットワーク(CNN)、1以上の再帰型ニューラルネットワーク、または任意の他の適切なニューラルネットワーク構成を含み得る。機械学習では、ディープ畳み込み型ニューラルネットワークは、一般に、そのニューロン間の接続パターンが、動物の視覚野(個々のニューロンが、視野をタイリングする重複領域に応答するように配置されている)の構成に触発されたフィードフォワード型の人工ニューラルネットワークを指す。対照的に、再帰型ニューラルネットワーク(RNN)は、一般に、ユニット間の接続が有向サイクルを形成する人工ニューラルネットワークのクラスを指す。そのような接続は、ネットワークが動的な時間的挙動を示すことを可能にするネットワークの内部状態を生成する。フィードフォワード型ニューラルネットワーク(例えば、畳み込み型ニューラルネットワークなど)とは異なり、RNNは、その内部メモリを使用して任意の入力シーケンスを処理することができる。したがって、RNNは、解剖学的対象物をリアルタイムでより良好に特定して追跡するために画像フレーム間の相関を抽出することができる。
ある実施形態では、プロセッサ16は、グランドトゥルースデータを使用して、解剖学的対象物30及び/またはその周囲組織32を含む画像14のパラメータ空間12を自動的に検出するためのディープニューラルネットワークを訓練及び/または開発することができる。例えば、特定の実施形態では、プロセッサ16は、最初に、解剖学的対象物30及び/またはその周囲組織32を含むパラメータ空間12を自動的に検出するためのパラメータ空間ディープニューラルネットワークを訓練するように構成され得る。より具体的には、ある実施形態では、この初期訓練は、プロセッサ16がオフラインの間に完了され得る。別の実施形態では、プロセッサ16は、例えば初期訓練の完了後に、解剖学的対象物30及び/またはその周囲組織32を含むパラメータ空間12を自動的に検出するためのディープニューラルネットワークをオンラインで継続的に訓練するように構成され得る。
より具体的には、特定の実施形態では、プロセッサ16は、複数の患者から解剖学的対象物30及び/またはその周囲組織32の画像データセットをスキャンして収集することにより当分野で新たにキャプチャされたデータに基づき、パラメータ空間12内の解剖学的対象物30及び/またはその周囲組織32を自動的に検出するためのディープニューラルネットワークを継続的に訓練するためにオンラインで学習するように構成され得る。例えば、ある実施形態では、数百及び/または数千の画像を複数の患者からスキャンして収集し、メモリデバイス18を介して画像データセットに格納するとよい。さらに、格納する前に、画像データセットに、ユーザ入力に基づいて注釈を付けて、グランドトゥルースデータを作成してもよい。例えば、ある実施形態では、医師は、専門家としての知識に基づいて画像データセットの注釈付け(アノテーション)及び手動での識別を行い、ディープラーニングネットワークにおける、画像データセットの各画像中の解剖学的対象物30及び/またはその周囲組織32の検出及び識別を支援するようにしてもよい。このため、本明細書で説明されたようなグランドトゥルースデータは、一般に、推論によって提供される情報とは対照的に、当分野の専門家の直接的な観察によって提供される情報を指す。したがって、本開示のパラメータ空間ディープラーニングネットワークは、動作中に人間の脳を模倣するように構成される。
特定の実施形態では、画像データセットは、その後、複数のグループに分割することができる。例えば、一実施形態では、グランドトゥルースデータは、訓練データセット及び妥当性確認(バリデーション)データセットを含む少なくとも2つのグループに分割され得る。したがって、特定の実施形態では、プロセッサ16は、訓練データセットを使用して、パラメータ空間ディープニューラルネットワークを訓練するように構成される。より具体的には、ある実施形態では、プロセッサ16は、ディープニューラルネットワークの出力とグランドトゥルースデータとの間の誤差を最小化するためにコスト関数を最適化するように構成され得る。例えば、一実施形態では、誤差を最小化するためにコスト関数を最適化するステップは、グランドトゥルースデータの一部を反復処理し、ディープニューラルネットワークの出力とグランドトゥルースデータとの間の誤差に基づいてディープニューラルネットワークの1以上のパラメータを調整する確率的近似アルゴリズム(例えば、確率的勾配降下(SGD)アルゴリズムなど)を使用することを含む。本明細書で使用するとき、確率的勾配降下法は、一般に、微分可能関数の和で表される目的関数を最小化するための勾配降下最適化方法の確率的近似を指す。より具体的には、一実施形態では、プロセッサ16は、ディープニューラルネットワークの出力とグランドトゥルースデータとの間の誤差を最小化するための教師付き学習を実施するように構成され得る。本明細書で使用するとき、「教師付き学習」は、一般に、ラベル付けされた訓練データから関数を推論する機械学習タスクを指す。
しかしながら、コスト関数は、様々な方法で定義することができ、かつ様々な方法を用いて最適化することができることを理解されたい。例えば、さらなる実施形態では、プロセッサ16は、例えば、強化学習、教師なし学習、及び/または当分野で現在既知かまたは将来開発される他の技術などのさらなるディープラーニング技術を実施することができる。このような方法は、必要とする訓練データがより少ない、及び/または、報酬/罰機能に依存し、ラベル付けされたデータをシステムに特に提供する必要がない方法であり得る。
別の実施形態では、本開示の方法100はまた、コスト関数の最適化後に、パラメータ空間ディープラーニングネットワークをリアルタイムで使用して、妥当性確認データ及び新たにキャプチャされたデータに関する予測を自動的に提供することを含み得る。したがって、このような実施形態では、プロセッサ16は、ディープニューラルネットワークを一般化するために、上記の予測をグランドトゥルースデータと比較するように構成され得る。換言すれば、プロセッサ16は、訓練データの範囲外である場合でも、ディープニューラルネットワークが正確な予測を提供できるように構成され得る。
引き続き図3を参照して、本開示の方法100は、別のディープニューラルネットワークを使用して、画像14のパラメータ空間12内の解剖学的対象物30及び/またはその周囲組織32を自動的に位置特定及びセグメンテーションするステップ106を含む。この別のディープニューラルネットワークは、任意の特定の目的のために、本明細書に記載されたような任意の適切な方法にしたがって訓練することができる。例えば、この別のディープニューラルネットワークは、最初に、解剖学的対象物30及び/またはその周囲組織32を位置特定するように訓練され得る。加えて、この別のディープニューラルネットワークは、解剖学的対象物30及び/またはその周囲組織32を位置特定及びセグメンテーションするように訓練され得る。特定の実施形態では、解剖学的対象物30及び/またはその周囲組織32を位置特定するためのディープニューラルネットワークの訓練と、解剖学的対象物30及び/またはその周囲組織32をセグメンテーションするためのディープニューラルネットワークの訓練との差異は、訓練及びアーキテクチャの詳細のためのデータへのラベル付けの仕方を含む。本明細書で使用するとき、「セグメンテーション」は、一般に、画像をいくつかのコヒーレント部分に分割することを指すが、通常は、そのようなコヒーレント部分が何を表すかを理解しようとは試みない。一方、「セマンティックセグメンテーション」は、一般に、画像を意味的に重要な部分に分割し、その各部分を所定のクラスのうちの1つに分類することを試みる。
引き続き図3を参照して、本開示の方法100は、プロセッサ16は、画像14中の解剖学的対象物30及びその周囲組織32を自動的にラベル付けするように構成され得る(ステップ108)。このため、本開示の方法は、ラベル付けされた画像をユーザに対して表示するステップ110を含む。より具体的には、ある実施形態では、プロセッサ16は、画像14中の標的の解剖学的対象物30及び/またはその周囲組織32の輪郭を描くように構成され得る。例えば、図4及び図5に示すように、腕神経叢34(すなわち、解剖学的対象物30)は、第1の太さまたはパターンを有する境界線で輪郭が描かれる。加えて、図示のように、様々な周囲組織32が、腕神経叢34の輪郭を描くのに用いられた第1の厚さまたはパターンとは異なる第2の太さまたはパターンを有する境界線で輪郭が描かれる。このことにより、ユーザは、目的の解剖学的対象物30を容易に識別し、かつ周囲組織32と区別することができる。
さらなる実施形態では、プロセッサ16は、画像14中の解剖学的対象物30及び/またはその周囲組織32の上に記述的ラベルを重畳させるように構成され得る。例えば、図4に示すように、医師による識別を容易にするために、周囲組織32に番号を付して、(例えば、画像14の右側に)ランドマーク42としてラベル付けしてもよい。あるいは、図5に示すように、周囲組織32は、その輪郭を描く線の種類によって識別及び区別され、特に患者の身体内の位置を図示するランドマーク42として識別され得る。さらに別の実施形態では、図6に示すように、周囲組織32は、陰影を付けたり、記述的な医学的名称を用いてラベル付けしたりしてもよい。さらなる別の実施形態では、図6に示すように、解剖学的対象物30をさらに定義及び/またはセグメンテーションしてもよい。このようにして、腕神経叢34の場合、ユーザは、神経ブロック処置中に、個々の神経または神経束を容易に識別することができる。
別の実施形態では、図4−図7に示すように、プロセッサ16は、解剖学的対象物30及び/またはその周囲組織32の信頼レベル44を決定するように構成され得る。例えば、図4及び図5に示すように、腕神経叢34の位置の信頼レベル44が、画像14のタスクバー15上に表示される。あるいは、図6及び図7に示すように、腕神経叢34の位置の信頼レベル44は、画像14のパラメータ空間12内(例えば、解剖学的対象物30に隣接する位置)に表示され得る。
次に図8及び図9を参照すると、画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象を自動的に検出、位置特定、及びセマンティックセグメンテーションする方法200の別の実施形態の概略図及びフロー図が示されている。図8に示すように、本開示の方法200は、解剖学的対象物及びその周囲組織を含む画像をプロセッサ16に提供するステップ202を含む。例えば、図9に示すように、リアルタイム超音波画像46がプロセッサ16に提供され得る。図8に示すように、本開示の方法200は、画像のパラメータ空間内の解剖学的対象及びその周囲組織を自動的に検出するためのパラメータ空間ディープニューラルネットワークを開発し、訓練するステップ204を含む。例えば、図9に示すように、プロセッサ16は、リアルタイム超音波画像46を受け取り、ブロック48において、パラメータ空間内の解剖学的対象物及びその周囲組織を自動的に検出するように構成される。図8に示すように、本開示の方法200は、1または複数の別のディープニューラルネットワークを用いて、パラメータ空間内の解剖学的対象物及びその周囲組織を自動的に位置特定及びセマンティックセグメンテーションするステップ206を含む。例えば、図9に示すように、プロセッサ16は、ブロック50において、セマンティックセグメンテーションを実施するように構成される。図8に示すように、本開示の方法200は、プロセッサによって、画像中の解剖学的対象物及びその周囲組織を自動的にラベル付けするステップ208を含む。図8に示すように、本開示の方法200は、ラベル付けされた画像をユーザに対して表示するステップ210を含む。例えば、図9に示すように、プロセッサ16は、ラベル付けされた画像14を、ユーザディスプレイ20を介して表示するように構成される。
次に図10を参照すると、本開示は、いくつかの実施形態では、プロセッサ16に提供されるリアルタイム超音波画像46は、単一の画像システム(例えば、第1の超音波装置A)から取得するが、ディープラーニングネットワークを開発し、訓練するためのグランドトゥルースデータは、第1の超音波装置A、第2の超音波装置B、第3の超音波装置Cなどの様々な装置から収集することを意図している。このため、グランドトゥルースデータを作成するために使用される画像のデータセットは、互いに異なる画像化システムでキャプチャされた画像を含むことができるので、データセット中の画像は、画像サイズ、強度、コントラスト、テクスチャなどを含む様々な特性に関して互いに大幅に異なり得る。このようなバラツキは、互いに異なる画像化システムにおけるディープラーニングアルゴリズムの使用に制約を課す恐れがある。図10は、画像が、装置A、装置B、及び装置Cなどの複数の超音波画像化システム間で一貫性(consistent)を有するように、1または複数の画像化システムにより生成された画像を前処理する方法の概略図を示す。一般的に、装置A、B、及びCからのデータ52(例えば、画像データセット)は、ブロック54で変換(または前処理)することができる。変換されたデータ52は、様々な装置A、装置B、及び装置C間で、バラツキが少なくなり一貫性を有することとなり、その後、ブロック56において、訓練されたアルゴリズムを生成するのに使用される。これにより、複数の超音波画像化システムから画像データセットを取得したにもかかわらず、望ましい出力58を実現することができる。
より具体的には、ディープラーニングネットワークの開発における一般的なプロセスは、画像化システム(例えば、超音波画像化装置)からデータを収集するステップと、画像をクリーニングするステップと、画像に注釈を付けるステップと、画像及び注釈を使用して上述したようにして学習ベースアルゴリズムを開発するステップとを含む。しかしながら、このようなアルゴリズムを使用する場合の主な課題の1つは、上述したような、互いに異なる画像化システム間でバラツキがあること、すなわちキャプチャ画像が画像サイズ、強度、コントラスト、テクスチャなどの点で互いに異なることである。したがって、特定の画像化システムを使用して訓練したディープラーニングネットワークまたは学習ベースアルゴリズムは、他の画像化システムからの出力データ及びキャプチャ画像の処理及び推測において困難に直面する。本開示は、ブロック54において、互いに異なる装置から得られたデータ52に対する前処理ステップを実行し、画像データセットを、一貫性を有するデータセットに変換することによってこの問題を解決する。このことにより、ブロック56において、ディープラーニングネットワークをより正確かつ的確に訓練することができ、その結果、望ましい出力58(例えば、ロバストなディープラーニングネットワーキング)が得られる。ブロック54における前処理ステップまたは変換は、データセット内の画像を所定の一貫したサイズにサイズ変更し、その後、画像ヒストグラム均等化及び画像ヒストグラムマッチングなどの画像正規化技術を用いて様々な画像間の一貫性を向上させ、そして、ヒストグラム均等化に基づいて元の画像を調節することによって、均等化された画像のセットを得ることを含む。したがって、ディープラーニングネットワークまたはアルゴリズムに入力されるデータセットは、互いに異なる画像化システム間で望ましい出力58を得ることを確実にする、同様の統計的特徴を有することができる。変換ステップの結果、データセットを、ディープラーニングアルゴリズムのための一貫性を有するデータセットに変換することができる。
本明細書で使用するとき、「ヒストグラム」という用語は、データ分布の視覚的印象を示すグラフ表示を指すことを理解されたい。画像ヒストグラムは、デジタル画像の明度/色分布のグラフ表示としての役割を果たす特別な種類のヒストグラムであり、各値のピクセル数をプロットする。さらに、本明細書で使用するとき、「ヒストグラム均等化」という用語は、画像のヒストグラムを使用するコントラスト調節の画像処理における方法を指す。この方法は通常、とりわけ、使用可能な画像データが互いに近いコントラスト値で表される場合、多くの画像の全体的なコントラストを増加させる。この調節によって、ヒストグラム上で強度をより良好に分散させることができる。これにより、より低い局所コントラストの領域が、より高いコントラストを得ることが可能になる。ヒストグラム均等化は、最も多い強度値を効果的に分散させることによって、このことを実現する。加えて、本明細書で使用するとき、「ヒストグラムマッチング」または「ヒストグラム指定」という用語は、そのヒストグラムが特定のヒストグラムと一致するように画像を変換することを指す。この周知のヒストグラム均等化方法は、指定されたヒストグラムが一様に分布する特殊な方法である。ヒストグラムマッチングは、互いに異なる医用画像装置で画像が取得された場合などで、2つの画像を正規化するために使用することができる。
図11−図22は、変換(例えば、正規化)の前後での、様々な超音波装置A、B、及びCにより取得された画像及びそれらのヒストグラムを示す。具体的には、図11は、図10の方法にしたがって変換されていない、第1の超音波装置(例えば、装置A)により取得された画像を示す。図12は、図1の方法にしたがって変換された、第1の超音波装置(例えば、装置A)により取得された画像を示す。図13は、図10の方法にしたがって変換されていない、第1の超音波装置(例えば、装置A)により取得された画像のヒストグラムを示す。図14は、図10の方法にしたがって変換された、第1の超音波装置(例えば、装置A)により取得された画像のヒストグラムを示す。図15は、図10の方法にしたがって変換されていない、第2の超音波装置(例えば、装置B)により取得された画像を示す。図16は、図10の方法にしたがって変換された、第2の超音波装置(例えば、装置B)により取得された画像を示す。図17は、図10の方法にしたがって変換されていない、第2の超音波装置(例えば、装置B)により取得された画像のヒストグラムを示す。図18は、図10の方法にしたがって変換された、第2の超音波装置(例えば、装置B)により取得された画像のヒストグラムを示す。図19は、図10の方法にしたがって変換されていない、第3の超音波装置(例えば、装置C)により取得された画像を示す。図20は、図10の方法にしたがって変換された、第3の超音波装置(例えば、装置C)により取得された画像を示す。図21は、図10の方法にしたがって変換されていない、第3の超音波装置(例えば、装置C)により取得された画像のヒストグラムを示す。図22は、図10の方法にしたがって変換された、第3の超音波装置(例えば、装置C)により取得された画像のヒストグラムを示す。図11−図22に示すように、様々な超音波装置からの様々な画像及びそれらのヒストグラムは、図10のブロック54の変換ステップの実施後は、バラツキが少なくなり一貫性を有することとなる。このようにして、本開示によって意図される解剖学的対象物を自動的に検出、位置特定、及びセグメンテーションする方法で使用されるディープラーニングネットワークは、装置に依存しないように構成され得る。
次に図23を参照して、本開示はまた、いくつかの実施形態では、少なくとも1つの解剖学的対象を自動的に検出、位置特定、及びセグメンテーションするための本開示の方法における様々なステップが、例えばグラフィックス・プロセッシング・ユニット(GPU)などの計算能力が高いプラットフォームとは対照的な、例えば中央演算装置(CPU)ベースのコンピュータ、携帯電話、タブレットなどの計算能力が限られたプラットフォームを使用して実行されることを意図する。機械学習、人工知能、ディープラーニングネットワークなどを使用した医用画像中の解剖学的対象物を検出/認識、位置特定、及びセグメンテーションするための既存の方法は、超音波画像化などの用途のためのリアルタイムな展開時間を実現するためにGPUプラットフォームを必要とする。しかしながら、超音波画像化システムなどの様々な医用画像化システムは、計算能力が限られており、複数のタスクに共用されるCPUを主に使用する。さらに、画像化及び診断デバイスの業界動向は、携帯電話、タブレット、ハンドヘルドコンピュータなどのモバイル及びポータブルデバイスを使用する方向に向っている。このことは、そのようなデバイスにおいて、(人工知能、機械学習、及びディープラーニングネットワークに基づく)高計算量の学習ベースのアルゴリズムを展開するときの障害となる。このようなアルゴリズムを展開する上での重要な要素は、単一のフレーム(約数十億回の計算)を処理するのに必要な計算及び乗算の数である。本開示により意図されるシステム及び方法は、複数の技術を使用して、性能を維持しつつ、計算量を減らすことによって、CPUベースのコンピュータ、タブレット、及びモバイルデバイスなどの計算能力が低いデバイスで実施可能な解剖学的対象物の自動セグメンテーションを提供する。そのためには、解剖学的対象物の形状を楕円形として推定することによって、解剖学的セグメンテーションのための低計算量のディープラーニングアーキテクチャを使用することができる。この所見により、画像中の全てのピクセルを予測するのではなく、楕円68パラメータ(中心70、長軸72、短軸74、及び回転角度76)をセグメンテーション目的で予測する機会が与えられる。このようなアーキテクチャにより、計算量が減少するだけでなく、解剖学的対象物の検出及びセグメンテーションの精度が高まる。
計算量における別のボトルネックは、ネットワークのパラメータの数値精度に関連する。全ての学習ベースのアルゴリズムは、訓練プロセス中に訓練して、ネットワークのいわゆる「重み」を学習して取得する必要がある。一般的に、32ビットの浮動小数点数が重みとして使用される。しかしながら、浮動小数点数の乗算は計算コストが高い。したがって、本開示は、重みを表すために、8ビット整数または1ビット2進数などの精度がより低い数値を代わりに使用することを意図する。この改良により、計算量及びメモリ必要量が大幅に削減される。図23は、本開示による低計算能力デバイスを使用する画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的にセグメンテーションする方法の一実施形態の概略図を示す。図示したように、入力リアルタイム画像46は、減少した数のバイナリ重み66(例えば、8ビット整数または1ビット2進数)を使用してネットワークによって処理され、画像46中の各解剖学的対象物について、対象の解剖学的対象物に適合する中心70、長軸72、短軸74、及び回転角度76を有する楕円68が予測される。
本開示はまた、解剖学的対象物の自動的な検出及びセグメンテーションを、2つの別個のステップではなく、単一のステップで同時に行うことができる方法を意図する。図24を参照すると、本開示による画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物の自動的な検出及びセグメンテーションを同時に行うバージョン方法の一実施形態の概略図が示されている。例えば、この方法は、アルゴリズムの訓練後に、リアルタイム画像46を入力するステップと、例えばディープ畳み込み型ニューラルネットワーク60を使用して解剖学的タイプ62を検出するステップと、セグメンテーションマスク64を提供するステップとを同時に実施する。
本開示の方法は、ディープラーニングアルゴリズムを使用することができ、画像検出及びセグメンテーションプロセスを自動的に、ロバストに、正確に、かつ効率的に行うために、画像検出及びセグメンテーションの両方を1つのステップで行うことを可能にする。この方法の概略図を図24に示す。このアルゴリズムは、ディープ畳み込み型ニューラルネットワークを使用して、医用画像中の低レベルピクセルを、高レベルのフィーチャ及び抽象的概念に自動的に変換する。次いで、これらの抽出されたフィーチャを使用して、解剖学的シーンまたは対象物を、認識されたシーンまたは対象物の信頼レベルと共に検出する。それと同時に、シーンまたは対象物が認識された場合には、医師によるさらなる処理及び臨床評価のために、認識されたシーンまたは対象物は、意味を持つ解剖学的対象物にセグメンテーションされる。実世界の用途にネットワークを展開するのを可能にするためには、訓練プロセス中にアルゴリズムを訓練する必要がある。このためには、データを収集し、専門家によって手動で注釈を付け、アルゴリズムの左半分(図24の解剖学的タイプ62まで)を訓練して、特定の解剖学的対象物または解剖学的タイプ62を生成する。次に、アルゴリズムの左半分は変更しないままにして、アルゴリズムの残りの部分を微調整することにより、特定の解剖学的対象物または解剖学的タイプ62のためのセグメンテーションマスク64が提供される。訓練プロセスが完了すると、アルゴリズムは、自動的に検出された解剖学的対象物または解剖学的タイプ及びそれらの各セグメンテーションマスクを同時にユーザに提供する。
次に図25を参照すると、本開示は、いくつかの実施形態では、プロセッサ16に提供されるリアルタイム超音波画像46と、ディープラーニングネットワークを開発し、訓練するためのグランドトゥルースデータを作成するのに使用される画像データセットとをビデオストリームから取得することを意図する。図25は、ビデオストリーム中から識別された画像をプロセッサに提供する本開示の方法の一実施形態のフロー図を示す。本開示の方法300は、画像ソースを取得する最初のステップ302と、それに続く、1以上の解剖学的構造体をディープニューラルネットワークによりクラス分類し、取得した解剖学的構造体及び信頼レベルに基づきイベントを生成するステップ304と、それに続く、イベント前及びイベント後のフレームバッファリングのステップ306とを含む。その後、イベントは、ステップ308に示すようにローカルに格納されるか、またはステップ310に示すようにクラウドサービスに送信される。
より具体的には、方法300は、ディープラーニングネットワーク(例えば、ディープニューラルネットワーク)を開発する目的で医療専門家によって注釈が付けられたグランドトゥルースデータを収集するために、神経ブロック処置の実施時に医療専門家が関心を持つ複数の画像を収集するための拡張可能な方法に焦点を当てている。注釈が付けられた画像のフィードバックループは、システムの精度を高めるために、追加的なグランドトゥルースデータを使用して経時的にアップデートすることができる。ディープラーニングネットワークは、その後、ビデオストリーム(または、超音波画像化システムから収集された画像を提供する任意の他の態様)から、関心のある少なくとも1つの解剖学的対象物を識別するために使用される。ディープラーニングネットワークは、フレームが収集され、ローカルに格納されるか、またはクラウドサービスに送信された特定のビデオストリームから、関心のあるフレームをネット経由で識別することができる。そして、関心のある少なくとも1つの解剖学的対象物を所定の信頼レベル閾値内で識別するために、ディープラーニングネットワークを使用して分析する。この方法は、解剖学的対象物が識別されるまで記録されたビデオフレームと、関心のある解剖学的対象物を特定した直後に記録されたビデオフレームとを確実にキャプチャするために、イベント前のバッファリングステップ及びイベント後のバッファリングステップを含む。さらに、本開示の方法は、グランドトゥルースデータをローカルにまたはクラウドサービス上に格納しておき、ディープラーニングネットワークを向上させるための注釈付け及び/または追加分析のために、グランドトゥルースデータを送り返す能力を意図する。
例えば、図26に示すように、医療専門家は、ビデオストリーム中の少なくとも1つの解剖学的対象物を識別し注釈を付けることができる。この方法400は、画像ソースを取得するステップ402と、フレーム間ピクセル動きのオプティカルフロー計算を実施するステップ404と、フレームのビデオストリーム中のピクセル動きをクラスタリングするための教師なし学習を行うステップ406と、ピクセル動きのクラスタをヒューマンラベリングするステップ408と、その後、ラベル付けされたクラスタを使用して、ディープニューラルネットワークにより教師付き学習を行うステップ410とを含む。例えば、オプティカルフローフレームを使用してピクセル動きを追跡し、その後、教師なし学習プロセスによって、ピクセル動きをグループにクラスタリングすることができる、グループは、所定の範囲のフレームにわたって識別され、論理ラベルを提供するために、ユーザ(例えば、医療専門家)に提供される。ラベル付けされたフレームは、その後、が、ディープニューラルネットワークによる教師付き学習プロセスで使用される。一般的に、オプティカルフローを使用すると、入力画像の斑点特性に起因して、超音波画像化システムにより取得された画像から良好な結果を得ることは困難になる。したがって、教師なし学習環境でのクラスタリングを使用することにより、無関係な出力を除去し、ピクセル動きを、共通ベクトル経路に沿って移動するピクセル群などのより論理的なグループにクラスタリングすることができ、これにより、ディープニューラルネットワークの使用時の正確さを向上させることが可能となる。
次に図27を参照すると、本開示はまた、リアルタイム超音波画像から腕神経叢(BP)などの解剖学的対象物を含む関心領域を自動的に位置特定し、セグメンテーションまたは抽出する方法及びシステムを意図する。具体的には、この方法500は、解剖学的対象物30及び/またはその周囲組織32の自動的な位置特定49に使用するために、リアルタイム超音波画像46を取得し、リアルタイム超音波画像46から関心領域80を自動的に選択することを含む。関心領域80をリアルタイム超音波画像46から抽出することにより、抽出された関心領域80は、解剖学的対象物30及びその周囲組織32の一部を依然として含む、元の視野よりも小さいサイズのクロッピング画像502(トリミング画像)として出力される。クロッピング画像502は処理がより容易であり、本開示により意図される方法及びシステムは、関心のある解剖学的対象物30(例えば、腕神経叢)のセグメンテーション50の実施中に、クロッピング画像502を本開示のディープラーニングネットワークまたはアルゴリズムの入力として高精度で使用することができる。例えば、本発明者らは、斜角筋間腕神経叢は、一般的に、周囲組織と比べて小さく、例えば画像取得条件に応じて向き及び形状が異なるため、腕神経叢を高精度でセグメンテーションすることは困難であることを見出した。しかしながら、ディープラーニングネットワークまたはアルゴリズムによって腕神経叢を自動的に位置特定及びセグメンテーションする前に、腕神経叢を含む関心領域を抽出すると、画像の視野がより小さくなるので、精度を向上させることができる。
次に図28を参照して、本開示はまた、元の画像中の関心領域が検出される、自動的なデータクリーニングの方法を意図している。元の画像をクリーニングし、クロッピング(トリミング)したバージョンは、画像の注釈付けや、ディープラーニングなどの後続ステップで使用される。例えば、この方法600は、解剖学的対象物及びその周囲組織の元の超音波画像46を取得するステップ602と、元の超音波画像から関心領域82を自動的に抽出またはクロッピングするステップ604と、注釈付け、ディープラーニング、位置特定、セグメンテーションなどのさらなる分析のために、クロッピングされた関心領域82を出力するステップ606とを含む。プロセッサに超音波画像を提供する前に本開示のシステムによって自動的に実行されるこのようなデータクリーニングは、本明細書で説明されるディープラーニングベースの方法のためのデータパイプラインを高速化するのに役立つ。
具体的には、本開示により意図されるデータクリーニングは、学習ベースの方法に必要とされる医用画像の分析に関する様々な問題を解決することができる。データクリーニングは、例えば解剖学的検出及びセグメンテーションなどの医用画像の分析において有用である。なぜならば、一般的に、様々な医療機器から取得された様々な患者の医用画像の大きなデータセットが収集され、学習に使用するためのデータセットを作成するためにデータパイプラインに供給されるからである。収集された画像は、検出、位置特定、及びセグメンテーションの対象となる解剖学的対象物を含む特定の関心領域を定義することができる患者の解剖学的視覚化を含み得る。加えて、関心領域の周囲にテキスト情報(例えば、日付、時間、設定、ロゴなど)が存在してもよいが、それらは本開示の学習ベースの方法に必要とされる画像解析には必要ではない。また、そのようなテキスト情報は、データ格納スペースを占有し、処理時間を遅くする恐れがある。したがって、関心領域の周囲のテキスト情報などの追加的な情報は、画像から除去してもよい。さらに、手動ベースのクロッピング方法とは対照的に、データクリーニングの目的で本開示により意図されるクロッピングは自動的に行ってもよく、これにより、エラーの量を減らし、時間を節約し、手動によるクロッピングよりも拡張性を高めることができる。
元の超音波画像から追加的な情報を自動的にクロッピングするために、画像処理アルゴリズム(例えば、強度閾値、変形可能モデルなど)を使用して関心領域を自動的に見つけ出し、元の超音波画像から切り出すことができる。結果として得られる出力は元の超音波画像をクリーニングしたバージョンであり、画像の注釈付け、訓練、位置特定、セグメンテーションなどのデータパイプラインの後続ステップで使用することができる。このアルゴリズムは、計算量が少なく、自動的、高速、かつ正確であり、大きなデータセットに対してタスクを短時間で実行するために、一般的なコンピュータ上で実行することができる。このアルゴリズムは、元の画像から関心領域をピクセルレベルで切り取り、ピクセルの差を求めることにより、関心領域の周りに境界線を描くためにピクセル値を比較することを可能にする。これにより、関心領域を自動的に切り取って、後続ステップで使用することができる。
本明細書は、実施例を用いて、最良の実施の形態(ベストモード)を含む本発明の内容を開示し、かつ本発明を当業者が実施(任意の装置またはシステムの作製及び使用、並びに記載内容に組み入れられたあらゆる方法の実施を含む)することを可能にしている。本発明の特許される技術範囲は、特許請求の範囲の請求項の記載によって特定され、当業者が想到可能な他の実施形態もそれに含まれ得る。そのような他の実施形態は、各請求項の文言と異なっていない構成要素を含む場合、またはそれらが各請求項の文言とは実質的には異ならない均等な構成要素を含む場合、それらの請求項の特定する技術範囲内にあるものとする。

Claims (30)

  1. 画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的に検出、位置特定、及びセグメンテーションする方法であって、
    前記解剖学的対象物及びその周囲組織を含む画像をプロセッサに提供するステップと、
    前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に検出するための、1または複数の畳み込み型ニューラルネットワークを含むパラメータ空間ディープラーニングネットワークを開発し、訓練するステップと、
    別の畳み込み型ニューラルネットワークを用いて、前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションするステップであって、前記解剖学的対象物の形状を楕円形として推定する、該ステップと、
    前記画像中の前記解剖学的対象物及びその周囲組織を自動的にラベル付けするステップと、
    ラベル付けされた前記画像をユーザに対して表示するステップと、を含むことを特徴とする方法。
  2. 前記画像が正規化画像であり、
    前記正規化画像は、サイズ、強度、コントラスト、テクスチャ、またはそれらの任意の組み合わせを調節するために前処理されることを特徴とする、請求項1に記載の方法。
  3. 前記画像が、ビデオストリーム中のフレームから提供され、
    前記フレームは、ローカルまたはクラウドサービスに格納されることを特徴とする、請求項1に記載の方法。
  4. 前記解剖学的対象物の自動的な検出と、前記解剖学的対象物の自動的な位置特定及びセグメンテーションとが、中央演算装置(CPU)ベースのコンピュータ、タブレット、またはモバイルデバイスにおいて、単一のディープラーニングネットワークを用いて実施されることを特徴とする、請求項1に記載の方法。
  5. 記1または複数の畳み込み型ニューラルネットワーク、前記別の畳み込み型ニューラルネットワーク、またはその両方が、8ビット整数または1ビット2進数の重みを使用することを特徴とする、請求項1に記載の方法。
  6. 前記解剖学的対象物及びその周囲組織を含む前記画像の前記パラメータ空間を自動的に検出するための前記ディープラーニングネットワークを、グランドトゥルースデータを使用して訓練するステップをさらに含み、
    前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に検出する前記ディープラーニングネットワークを開発し、訓練する前記ステップが、
    複数の患者から、前記解剖学的対象物及びその周囲組織の画像データセットをスキャンし、収集するステップと、
    前記グランドトゥルースデータを生成するために、ユーザ入力に基づいて前記画像データセットに注釈を付けるステップと、
    前記画像データセット及び前記グランドトゥルースデータを、訓練データセット及び妥当性確認データセットに分割するステップと、
    前記訓練データセットを使用して前記ディープラーニングネットワークを訓練するステップと、を含むことを特徴とする、請求項1に記載の方法。
  7. サイズ、強度、コントラスト、テクスチャ、またはそれらの任意の組み合わせを調節するために、前記画像データセットを前処理することによって前記画像データセットを正規化するステップをさらに含むことを特徴とする、請求項6に記載の方法。
  8. 前記画像データセットが、複数の画像化システムから収集されることを特徴とする、請求項6に記載の方法。
  9. 前記画像データセットが、少なくとも1つのビデオストリームから収集されたフレームを含み、
    前記フレームは、ローカルまたはクラウドサービスに格納されることを特徴とする、請求項6に記載の方法。
  10. 前記グランドトゥルースデータを生成するために、ユーザ入力に基づいて前記画像データセットに注釈を付ける前記ステップが、
    フレーム間ピクセル動きのオプティカルフロー計算を実施するステップと、
    前記少なくとも1つのビデオストリームにわたって前記フレーム間ピクセル動きをグループにクラスタリングするために教師なし学習を実施するステップと、
    所定の範囲のフレームにわたって識別及びラベル付けするために、ピクセル動きの前記グループを前記ユーザに提供するステップと、を含むことを特徴とする、請求項9に記載の方法。
  11. 前記訓練データセットを使用して前記ディープラーニングネットワークを訓練する前記ステップが、
    前記ディープラーニングネットワークの出力と前記グランドトゥルースデータとの間の誤差を最小化するためにコスト関数を最適化するステップをさらに含み、
    前記誤差を最小化するために前記コスト関数を最適化する前記ステップが、
    前記グランドトゥルースデータの一部を反復処理し、前記ディープラーニングネットワークの前記出力と前記グランドトゥルースデータとの間の前記誤差に基づいて前記ディープラーニングネットワークの1以上のパラメータを調整する確率的勾配降下(SGD)アルゴリズムを使用するステップをさらに含むことを特徴とする、請求項6に記載の方法。
  12. 前記コスト関数の最適化後に、前記ディープラーニングネットワークをリアルタイムで使用して妥当性確認データの予測を自動的に提供し、前記予測を前記グランドトゥルースデータと比較するステップを含むことを特徴とする、請求項11に記載の方法。
  13. 前記グランドトゥルースデータを作成するために、ユーザ入力に基づいて前記画像データセットに注釈を付ける前記ステップが、
    前記各画像データセット中の前記解剖学的対象物及びその周囲組織を手動で識別し、注釈を付けるステップをさらに含むことを特徴とする、請求項6に記載の方法。
  14. 前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションする前記ステップが、
    セマンティックセグメンテーションによって前記解剖学的対象物及びその周囲組織をセグメンテーションするステップをさらに含むことを特徴とする、請求項1に記載の方法。
  15. 前記解剖学的対象物及びその周囲組織を含む前記画像の前記パラメータ空間を自動的に検出するための前記ディープラーニングネットワークを、オフラインで最初に訓練するステップと、
    前記解剖学的対象物及びその周囲組織を含む前記画像の前記パラメータ空間を自動的に検出するための前記ディープラーニングネットワークを、オンラインで継続的に訓練するステップと、をさらに含むことを特徴とする、請求項1に記載の方法。
  16. 前記画像中の前記解剖学的対象物及びその周囲組織を自動的にラベル付けする前記ステップが、
    前記画像中の少なくとも1つの前記解剖学的対象物及びその周囲組織の輪郭を描くこと及び陰影を付けることの少なくとも一方、または、前記少なくとも1つの前記解剖学的対象物及びその周囲組織の各々の上に記述的ラベルを重畳することを含み、
    前記別の畳み込み型ニューラルネットワークを用いて、前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションする前記ステップが、
    前記画像から前記解剖学的対象物の周囲の関心領域を抽出するステップを含み、
    前記解剖学的対象物及びその周囲組織を含む前記画像は、前記プロセッサに提供される前に、自動的にクロッピングされることを特徴とする、請求項1に記載の方法。
  17. 画像化システムであって、
    少なくとも1つのプロセッサと、
    ユーザディスプレイと、を備え、
    前記少なくとも1つのプロセッサが、
    少なくとも1つの解剖学的対象物及びその周囲組織を含む画像を受け取るステップと、
    前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に検出するための、1または複数の畳み込み型ニューラルネットワークを含むパラメータ空間ディープラーニングネットワークを開発し、訓練するステップと、
    別の畳み込み型ニューラルネットワークを用いて、前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションするステップであって、前記解剖学的対象物の形状を楕円形として推定する、該ステップと、
    前記画像中の前記解剖学的対象物及びその周囲組織を自動的にラベル付けするステップと、を含む1以上のステップを実施するように構成されており、
    前記ユーザディスプレイが、ラベル付けされた前記画像をユーザに対して表示するように構成されていることを特徴とする、画像化システム。
  18. 当該画像化システムが、超音波画像化システム、コンピュータ断層撮影(CT)スキャナ、または磁気共鳴画像化(MR)スキャナを含み、
    前記画像が正規化画像であり、
    前記正規化画像は、サイズ、強度、コントラスト、テクスチャ、またはそれらの任意の組み合わせを調節するために前処理されることを特徴とする、請求項17に記載の画像化システム。
  19. 前記画像が、ビデオストリーム中のフレームから提供され、
    前記フレームは、ローカルまたはクラウドサービスに格納されることを特徴とする、請求項17に記載の画像化システム。
  20. 前記解剖学的対象物の自動的な検出と、前記解剖学的対象物の自動的な位置特定及びセグメンテーションとが、中央演算装置(CPU)ベースのコンピュータ、タブレット、またはモバイルデバイスにおいて、単一のディープラーニングネットワークを用いて実施されることを特徴とする、請求項17に記載の画像化システム。
  21. 記1または複数の畳み込み型ニューラルネットワーク、前記別の畳み込み型ニューラルネットワーク、またはその両方が、8ビット整数または1ビット2進数の重みを使用することを特徴とする、請求項17に記載の画像化システム。
  22. 前記別の畳み込み型ニューラルネットワークを用いて、前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションする前記ステップが、
    前記画像から前記解剖学的対象物の周囲の関心領域を抽出するステップを含み、
    当該システムが、前記少なくとも1つの解剖学的対象物及びその周囲組織を含む画像を前記少なくとも1つのプロセッサに提供する前に、該画像を自動的にクロッピングするように構成されていることを特徴とする、請求項17に記載の画像化システム。
  23. 画像化システムにより生成された画像のパラメータ空間内の少なくとも1つの解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションする方法であって、
    前記解剖学的対象物及びその周囲組織を含む画像をプロセッサに提供するステップと、
    前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に検出するためのパラメータ空間ディープラーニングネットワークを開発し、訓練するステップと、
    1または複数のディープラーニングアルゴリズムを用いて、前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に位置特定及びセマンティックセグメンテーションするステップであって、前記解剖学的対象物の形状を楕円形として推定する、該ステップと、
    前記画像中の前記解剖学的対象物及びその周囲組織を自動的にラベル付けするステップと、
    ラベル付けされた前記画像をユーザに対して表示するステップと、を含むことを特徴とする方法。
  24. 前記画像が、正規化画像であり、
    前記正規化画像は、サイズ、強度、コントラスト、テクスチャ、またはそれらの任意の組み合わせを調節するために前処理されることを特徴とする、請求項23に記載の方法。
  25. 前記画像は、ビデオストリーム中のフレームから提供され、
    前記フレームは、ローカルまたはクラウドサービスに格納されることを特徴とする、請求項23に記載の方法。
  26. 前記解剖学的対象物の自動的な検出と、前記解剖学的対象物の自動的な位置特定及びセグメンテーションとが、中央演算装置(CPU)ベースのコンピュータ、タブレット、またはモバイルデバイスにおいて、単一のディープラーニングネットワークを用いて実施され、
    前記1または複数の畳み込み型ニューラルネットワーク、前記別の畳み込み型ニューラルネットワーク、またはその両方が、8ビット整数または1ビット2進数の重みを使用することを特徴とする、請求項23に記載の方法。
  27. 前記解剖学的対象物及びその周囲組織を含む前記画像の前記パラメータ空間を自動的に検出するための前記ディープラーニングネットワークを、グランドトゥルースデータを使用して訓練するステップをさらに含み、
    前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に検出する前記ディープラーニングネットワークを開発し、訓練する前記ステップが、
    複数の患者から、前記解剖学的対象物及びその周囲組織の画像データセットをスキャンし、収集するステップと、
    前記グランドトゥルースデータを生成するために、ユーザ入力に基づいて前記画像データセットに注釈を付けるステップと、
    前記画像データセット及び前記グランドトゥルースデータを、訓練データセット及び妥当性確認データセットに分割するステップと、
    前記訓練データセットを使用して前記ディープラーニングネットワークを訓練するステップと、を含むことを特徴とする、請求項23に記載の方法。
  28. サイズ、強度、コントラスト、テクスチャ、またはそれらの任意の組み合わせを調節するために、前記画像データセットを前処理することによって前記画像データセットを正規化するステップをさらに含み、
    前記画像データセットが、複数の画像化システムから収集され、
    前記画像データセットは、少なくとも1つのビデオストリームから収集されたフレームを含み、
    前記フレームは、ローカルまたはクラウドサービスに格納されることを特徴とする、請求項27に記載の方法。
  29. 前記グランドトゥルースデータを生成するために、ユーザ入力に基づいて前記画像データセットに注釈を付ける前記ステップが、
    フレーム間ピクセル動きのオプティカルフロー計算を実施するステップと、
    前記少なくとも1つのビデオストリームにわたって前記フレーム間ピクセル動きをグループにクラスタリングするために教師なし学習を実施するステップと、
    所定の範囲のフレームにわたって識別及びラベル付けするために、ピクセル動きの前記グループを前記ユーザに提供するステップと、を含み、
    前記訓練データセットを使用して前記ディープラーニングネットワークを訓練する前記ステップが、前記ディープラーニングネットワークの出力と前記グランドトゥルースデータとの間の誤差を最小化するためにコスト関数を最適化するステップをさらに含むことを特徴とする、請求項27に記載の方法。
  30. 前記別の畳み込み型ニューラルネットワークを用いて、前記画像の前記パラメータ空間内の前記解剖学的対象物及びその周囲組織を自動的に位置特定及びセグメンテーションする前記ステップが、
    前記画像から前記解剖学的対象物の周囲の関心領域を抽出するステップを含み、
    前記解剖学的対象物及びその周囲組織を含む前記画像は、前記プロセッサに提供される前に、自動的にクロッピングされることを特徴とする、請求項23に記載の方法。
JP2018566504A 2016-07-08 2017-06-29 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法 Active JP6947759B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662359726P 2016-07-08 2016-07-08
US62/359,726 2016-07-08
US201662429157P 2016-12-02 2016-12-02
US62/429,157 2016-12-02
US201762500750P 2017-05-03 2017-05-03
US62/500,750 2017-05-03
PCT/US2017/039923 WO2018009405A1 (en) 2016-07-08 2017-06-29 System and method for automatic detection, localization, and semantic segmentation of anatomical objects

Publications (3)

Publication Number Publication Date
JP2019525786A JP2019525786A (ja) 2019-09-12
JP2019525786A5 JP2019525786A5 (ja) 2020-08-06
JP6947759B2 true JP6947759B2 (ja) 2021-10-13

Family

ID=59315745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018566504A Active JP6947759B2 (ja) 2016-07-08 2017-06-29 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法

Country Status (7)

Country Link
US (1) US11151721B2 (ja)
EP (1) EP3482346A1 (ja)
JP (1) JP6947759B2 (ja)
KR (1) KR20190028422A (ja)
AU (1) AU2017292642B2 (ja)
MX (1) MX2018015394A (ja)
WO (1) WO2018009405A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242292B2 (en) 2017-06-13 2019-03-26 Digital Surgery Limited Surgical simulation for training detection and classification neural networks
US11175650B2 (en) * 2017-11-03 2021-11-16 Drishti Technologies, Inc. Product knitting systems and methods
US11327773B2 (en) * 2017-12-05 2022-05-10 Siemens Healthcare Gmbh Anatomy-aware adaptation of graphical user interface
US10896508B2 (en) * 2018-02-07 2021-01-19 International Business Machines Corporation System for segmentation of anatomical structures in cardiac CTA using fully convolutional neural networks
US10867214B2 (en) 2018-02-14 2020-12-15 Nvidia Corporation Generation of synthetic images for training a neural network model
US10910099B2 (en) * 2018-02-20 2021-02-02 Siemens Healthcare Gmbh Segmentation, landmark detection and view classification using multi-task learning
CN110555337B (zh) * 2018-05-30 2022-12-06 腾讯科技(深圳)有限公司 一种指示对象的检测方法、装置以及相关设备
WO2019234495A2 (en) * 2018-06-06 2019-12-12 Insightec, Ltd. Improved reflection autofocusing
US10846875B2 (en) * 2018-06-07 2020-11-24 Siemens Healthcare Gmbh Adaptive nonlinear optimization of shape parameters for object localization in 3D medical images
US11100633B2 (en) 2018-06-13 2021-08-24 Cosmo Artificial Intelligence—Al Limited Systems and methods for processing real-time video from a medical image device and detecting objects in the video
US11927736B2 (en) 2018-06-15 2024-03-12 Siemens Healthcare Diagnostics Inc. Methods and apparatus for fine-grained HIL index determination with advanced semantic segmentation and adversarial training
CN110279433B (zh) * 2018-09-21 2020-03-27 四川大学华西第二医院 一种基于卷积神经网络的胎儿头围自动精确测量方法
US11083913B2 (en) 2018-10-25 2021-08-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
JP7464593B2 (ja) * 2018-11-01 2024-04-09 コーニンクレッカ フィリップス エヌ ヴェ 医用画像内でのインターベンションデバイスの識別
US10475182B1 (en) 2018-11-14 2019-11-12 Qure.Ai Technologies Private Limited Application of deep learning for medical imaging evaluation
CN111436215A (zh) * 2018-11-14 2020-07-21 库雷人工智能科技私人有限公司 用于医学成像评估的深度学习的应用
US10803987B2 (en) * 2018-11-16 2020-10-13 Elekta, Inc. Real-time motion monitoring using deep neural network
KR102193723B1 (ko) * 2018-11-27 2020-12-21 울산대학교 산학협력단 수술 계획 및 목표 설정 최적화 시스템 및 방법
WO2020126712A1 (en) 2018-12-17 2020-06-25 Koninklijke Philips N.V. Systems and methods for frame indexing and image review
US11950877B2 (en) * 2019-02-05 2024-04-09 University Of Virginia Patent Foundation System and method for fully automatic LV segmentation of myocardial first-pass perfusion images
US11100917B2 (en) * 2019-03-27 2021-08-24 Adobe Inc. Generating ground truth annotations corresponding to digital image editing dialogues for training state tracking models
US11074479B2 (en) 2019-03-28 2021-07-27 International Business Machines Corporation Learning of detection model using loss function
WO2020234106A1 (en) * 2019-05-17 2020-11-26 Koninklijke Philips N.V. System, device and method for assistance with cervical ultrasound examination
US11200456B2 (en) * 2019-07-31 2021-12-14 GE Precision Healthcare LLC Systems and methods for generating augmented training data for machine learning models
US20210059758A1 (en) * 2019-08-30 2021-03-04 Avent, Inc. System and Method for Identification, Labeling, and Tracking of a Medical Instrument
US11113570B2 (en) 2019-09-16 2021-09-07 The Boeing Company Systems and methods for automatically generating training image sets for an environment
US10885386B1 (en) 2019-09-16 2021-01-05 The Boeing Company Systems and methods for automatically generating training image sets for an object
JP7427902B2 (ja) * 2019-10-02 2024-02-06 コニカミノルタ株式会社 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置
US20240078781A1 (en) * 2019-10-11 2024-03-07 The Regents Of The University Of California System and Method for Determining a Device Safe Zone
CN110807778B (zh) * 2019-10-11 2022-07-15 华中科技大学 一种迭代式的三维脑空间位置自动计算方法
US11798161B2 (en) 2019-11-26 2023-10-24 Koh Young Technology Inc. Method and apparatus for determining mid-sagittal plane in magnetic resonance images
US11514573B2 (en) * 2019-11-27 2022-11-29 Shanghai United Imaging Intelligence Co., Ltd. Estimating object thickness with neural networks
KR102144672B1 (ko) * 2020-01-17 2020-08-14 성균관대학교산학협력단 시맨틱 분할을 이용한 인공지능형 초음파 의료 진단 장치 및 이를 이용한 원격 의료 진단 방법
CN111243026B (zh) * 2020-01-19 2023-09-22 武汉联影智融医疗科技有限公司 解剖标记点定位方法、装置、计算机设备和存储介质
JP7323885B2 (ja) * 2020-03-04 2023-08-09 株式会社Kompath 画像処理装置、画像処理モデル生成装置、学習用データ生成装置、及びプログラム
JP7297705B2 (ja) * 2020-03-18 2023-06-26 株式会社東芝 処理装置、処理方法、学習装置およびプログラム
US20210334955A1 (en) * 2020-04-24 2021-10-28 Nvidia Corporation Image annotation using one or more neural networks
US11430240B2 (en) 2020-05-06 2022-08-30 Volvo Car Corporation Methods and systems for the automated quality assurance of annotated images
KR102416698B1 (ko) * 2020-06-03 2022-07-05 고려대학교 산학협력단 딥러닝 알고리즘 기반의 초음파 영상에서의 말초신경 자동 인식 및 신경 지표 측정 방법 및 장치
FR3113325B1 (fr) 2020-08-04 2022-07-08 Michelin & Cie Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques
CN111935487B (zh) * 2020-08-12 2022-08-12 北京广慧金通教育科技有限公司 一种基于视频流检测的图像压缩方法及系统
WO2022071265A1 (ja) * 2020-09-29 2022-04-07 テルモ株式会社 プログラム、情報処理装置及び情報処理方法
CN112102411B (zh) * 2020-11-02 2021-02-12 中国人民解放军国防科技大学 一种基于语义误差图像的视觉定位方法及装置
CN112669325B (zh) * 2021-01-06 2022-10-14 大连理工大学 一种基于主动式学习的视频语义分割方法
US11410316B1 (en) * 2021-01-27 2022-08-09 UiPath, Inc. System and computer-implemented method for validation of label data
CN113033566B (zh) * 2021-03-19 2022-07-08 北京百度网讯科技有限公司 模型训练方法、识别方法、设备、存储介质及程序产品
TR202106462A2 (tr) * 2021-04-12 2021-07-26 Smart Alfa Teknoloji Sanayi Ve Ticaret Anonim Sirketi Deri̇n öğrenme, maki̇ne öğrenmesi̇, yapay zeka tekni̇kleri̇ i̇le i̇şaretlenen/skorlanan ultrasonografi̇ görüntüsünün uygunluğunun skorlanmasi amaciyla kullanilan bi̇r ci̇haz ve yöntem
JP2022179368A (ja) * 2021-05-19 2022-12-02 エヌビディア コーポレーション 機械学習を用いたスーパビジョンの拡張
KR102593539B1 (ko) * 2021-06-18 2023-10-23 한림대학교 산학협력단 인공지능 기반 온쓸개관돌의 단층 촬영 이미지 판독 장치, 시스템, 방법 및 프로그램
WO2023277907A1 (en) * 2021-06-30 2023-01-05 Hewlett-Packard Development Company, L.P. Synthetic images for object detection
US20230148991A1 (en) * 2021-11-18 2023-05-18 EchoNous, Inc. Automatically detecting and quantifying anatomical structures in an ultrasound image using a customized shape prior
WO2023152530A2 (en) * 2021-12-10 2023-08-17 Mofaip, Llp Multidimensional anatomic mapping, descriptions, visualizations, and translations
KR102590387B1 (ko) * 2021-12-28 2023-10-17 고려대학교 산학협력단 인공지능 기반의 근육 초음파를 이용한 수근관 증후군 진단 시스템 및 방법
KR102391934B1 (ko) * 2022-01-19 2022-04-28 주식회사 엘티포 인공지능 기반 갑상선 결절의 암 위험도 진단 시스템 및 방법
CN118393402A (zh) * 2024-06-28 2024-07-26 国网安徽省电力有限公司超高压分公司 特高压直流换流变压器隐性故障诊断方法及系统

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7876934B2 (en) 2004-11-08 2011-01-25 Siemens Medical Solutions Usa, Inc. Method of database-guided segmentation of anatomical structures having complex appearances
US8500451B2 (en) 2007-01-16 2013-08-06 Simbionix Ltd. Preoperative surgical simulation
US8175362B2 (en) 2007-10-19 2012-05-08 Boston Scientific Scimed, Inc. Display of classifier output and confidence measure in an image
US8172753B2 (en) 2008-07-11 2012-05-08 General Electric Company Systems and methods for visualization of an ultrasound probe relative to an object
US8073220B2 (en) 2009-04-20 2011-12-06 Siemens Aktiengesellschaft Methods and systems for fully automatic segmentation of medical images
US20110182493A1 (en) 2010-01-25 2011-07-28 Martin Huber Method and a system for image annotation
US20110188715A1 (en) 2010-02-01 2011-08-04 Microsoft Corporation Automatic Identification of Image Features
KR101883258B1 (ko) 2010-08-13 2018-07-31 스미스 앤드 네퓨, 인크. 해부학적 계측점의 검출 방법
WO2012035538A1 (en) 2010-09-16 2012-03-22 Mor Research Applications Ltd. Method and system for analyzing images
US8867802B2 (en) 2011-04-19 2014-10-21 Microsoft Corporation Automatic organ localization
JP2013169211A (ja) 2012-02-17 2013-09-02 Konica Minolta Inc 医用画像処理装置及びプログラム
US9943286B2 (en) 2012-06-04 2018-04-17 Tel Hashomer Medical Research Infrastructure And Services Ltd. Ultrasonographic images processing
EP2690596B1 (en) 2012-07-24 2018-08-15 Agfa Healthcare Method, apparatus and system for automated spine labeling
US9256962B2 (en) 2013-01-23 2016-02-09 Orca Health Inc. Personalizing medical conditions with augmented reality
US9824446B2 (en) 2013-03-15 2017-11-21 Stephanie Littell Evaluating electromagnetic imagery by comparing to other individuals' imagery
ES2641480T3 (es) 2013-03-15 2017-11-10 Ventana Medical Systems, Inc. Sistema de aprendizaje automático basado en objetos de tejido para puntuación automatizada de portaobjetos digitales completos
DE102013218437A1 (de) 2013-09-13 2015-03-19 Siemens Aktiengesellschaft Verfahren zur automatischen oder halb-automatischen Segmentierung und Vorrichtung
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US9700219B2 (en) 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US20150164605A1 (en) 2013-12-13 2015-06-18 General Electric Company Methods and systems for interventional imaging
WO2015104607A1 (en) 2014-01-07 2015-07-16 Koninklijke Philips N.V. Ultrasound imaging modes for automated real time quantification and analysis
EP3949837A1 (en) 2014-01-17 2022-02-09 Arterys Inc. Apparatus, methods and articles for four dimensional (4d) flow magnetic resonance imaging
KR20150108701A (ko) 2014-03-18 2015-09-30 삼성전자주식회사 의료 영상 내 해부학적 요소 시각화 시스템 및 방법
WO2015175806A1 (en) 2014-05-16 2015-11-19 The Trustees Of The University Of Pennsylvania Applications of automatic anatomy recognition in medical tomographic imagery based on fuzzy anatomy models
WO2015191414A2 (en) 2014-06-09 2015-12-17 Siemens Corporation Landmark detection with spatial and temporal constraints in medical imaging
US10176363B2 (en) 2014-06-16 2019-01-08 Siemens Healthcare Diagnostics Inc. Analyzing digital holographic microscopy data for hematology applications
GB2528249B (en) 2014-07-11 2019-03-06 Siemens Medical Solutions Usa Inc Automatic background region selection for lesion delineation in medical images
US20160015469A1 (en) * 2014-07-17 2016-01-21 Kyphon Sarl Surgical tissue recognition and navigation apparatus and method
KR101579740B1 (ko) 2014-09-01 2015-12-23 삼성메디슨 주식회사 초음파 진단장치, 그에 따른 초음파 진단 방법 및 그에 따른 컴퓨터 판독 가능한 저장매체
US9779505B2 (en) 2014-09-30 2017-10-03 Toshiba Medical Systems Corporation Medical data processing apparatus and method
US9959486B2 (en) * 2014-10-20 2018-05-01 Siemens Healthcare Gmbh Voxel-level machine learning with or without cloud-based support in medical imaging
US10068340B2 (en) 2014-11-03 2018-09-04 Algotec Systems Ltd. Method for segmentation of the head-neck arteries, brain and skull in medical images
US10835210B2 (en) 2015-03-30 2020-11-17 Siemens Medical Solutions Usa, Inc. Three-dimensional volume of interest in ultrasound imaging
US9990712B2 (en) * 2015-04-08 2018-06-05 Algotec Systems Ltd. Organ detection and segmentation
US9633306B2 (en) 2015-05-07 2017-04-25 Siemens Healthcare Gmbh Method and system for approximating deep neural networks for anatomical object detection
US9569736B1 (en) * 2015-09-16 2017-02-14 Siemens Healthcare Gmbh Intelligent medical image landmark detection

Also Published As

Publication number Publication date
US20190311478A1 (en) 2019-10-10
WO2018009405A1 (en) 2018-01-11
JP2019525786A (ja) 2019-09-12
EP3482346A1 (en) 2019-05-15
KR20190028422A (ko) 2019-03-18
US11151721B2 (en) 2021-10-19
AU2017292642B2 (en) 2022-08-04
MX2018015394A (es) 2019-04-22
AU2017292642A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6947759B2 (ja) 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法
Singh et al. Shallow 3D CNN for detecting acute brain hemorrhage from medical imaging sensors
CN107492099B (zh) 医学图像分析方法、医学图像分析系统以及存储介质
US10049457B2 (en) Automated cephalometric analysis using machine learning
CN109923554B (zh) 图像处理
JP2021530061A (ja) 画像処理方法及びその装置、電子機器並びにコンピュータ可読記憶媒体
Chen et al. Fast and accurate craniomaxillofacial landmark detection via 3D faster R-CNN
US20210059758A1 (en) System and Method for Identification, Labeling, and Tracking of a Medical Instrument
Zhang et al. Deepgi: An automated approach for gastrointestinal tract segmentation in mri scans
Gu et al. VINet: A visually interpretable image diagnosis network
CN112365980A (zh) 脑肿瘤多靶点辅助诊断与前瞻性治疗演化可视化方法及系统
Bourbakis Detecting abnormal patterns in WCE images
Ribeiro et al. Handling inter-annotator agreement for automated skin lesion segmentation
CN112750531A (zh) 一种中医自动化望诊系统、方法、设备和介质
CN114332132A (zh) 图像分割方法、装置和计算机设备
JP2022527525A (ja) 画像データ中の病変部の境界の識別
Gaber et al. Comprehensive assessment of facial paralysis based on facial animation units
CN114255235A (zh) 用于自动定位三维图像中的器官分段的方法和布置
CN113822323A (zh) 脑部扫描图像的识别处理方法、装置、设备及存储介质
KR102545906B1 (ko) 학습 모델을 이용한 데이터 처리 방법
CN116128942A (zh) 基于深度学习的三维多模块医学影像的配准方法和系统
CN115761226A (zh) 一种口腔影像分割识别方法、装置、电子设备和存储介质
CN112766333B (zh) 医学影像处理模型训练方法、医学影像处理方法及装置
EP4083650A1 (en) Controlling a scanning operation of a medical imaging device
Pal et al. Panoptic Segmentation and Labelling of Lumbar Spine Vertebrae using Modified Attention Unet

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210916

R150 Certificate of patent or registration of utility model

Ref document number: 6947759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150