JP2019508072A - 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法 - Google Patents

医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法 Download PDF

Info

Publication number
JP2019508072A
JP2019508072A JP2017564130A JP2017564130A JP2019508072A JP 2019508072 A JP2019508072 A JP 2019508072A JP 2017564130 A JP2017564130 A JP 2017564130A JP 2017564130 A JP2017564130 A JP 2017564130A JP 2019508072 A JP2019508072 A JP 2019508072A
Authority
JP
Japan
Prior art keywords
imaging system
anatomical
target
deep learning
learning network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017564130A
Other languages
English (en)
Other versions
JP6796085B2 (ja
Inventor
アベンディ、マイケル・アール
ダッフィー、シェーン・エー
スー、ケニス・シー
Original Assignee
アヴェント インコーポレイテッド
アヴェント インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アヴェント インコーポレイテッド, アヴェント インコーポレイテッド filed Critical アヴェント インコーポレイテッド
Publication of JP2019508072A publication Critical patent/JP2019508072A/ja
Application granted granted Critical
Publication of JP6796085B2 publication Critical patent/JP6796085B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Pulmonology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本発明は、医用の撮像システムを介して医療処置中に標的の解剖学的対象物を位置特定するためにユーザにナビゲーション方向を提供するシステムおよび方法に関する。前記方法は、前記解剖学的領域を選択すること、前記解剖学的領域から複数のリアルタイム2次元画像を生成し、それをコントローラに提供すること、前記解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練すること、前記ディープラーニングネットワークを介して、前記解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、前記解剖学的領域からの複数のリアルタイム2次元画像のそれぞれを自動的にマッピングすること、前記相対的な空間的位置および前記相対的な時間的位置に基づき、前記医療処置中に前記標的の解剖学的対象物を位置特定するためにユーザに方向を提供すること、を含む。【選択図】図3

Description

(関連出願の相互参照)
本願は、2016年12月2日出願の米国仮特許出願第62/429,150号に基づく優先権を主張する。該出願は、全文を引用することを以て本明細書の一部となす。
本発明は、医用撮像の視野内における解剖学的対象物の検出および特定に関し、より詳細には、医用撮像をベースにした手法(例えば、標的の解剖学的構造の周囲からのシーンから撮像された複数の画像内に含まれる解剖学的対象物の検出および特定に基づく超音波誘導麻酔)において標的の解剖学的対象物に到達するためのナビゲーション方向を提供するためのシステムおよび方法に関する。
超音波、コンピュータ断層撮影(CT)、磁気共鳴(MR)、およびX線透視撮像システムのような、標的の解剖学的対象物の総領域を特定する際に医療従事者を支援するための従来のアプローチに基づく様々な撮像システムが存在する。しかし、このようなシステムを使用する解剖学的対象物の検出は安定的に行えるものとはいえず、特に、医用画像におけるノイズおよびアーチファクトとともに、解剖学的対象物が、解剖学的形状および/または外観に大きな変動を示すことを含むいくつかの困難な検出上の問題に関連した不安定さがある。その結果、医療専門家が、そのような撮像システムを使用するとき、標的の解剖学的対象物の総領域を迅速かつ正確に特定することは困難になることが多い。例えば、神経ブロックまたは末梢神経ブロック(PNB)は、標的の解剖学的対象物(例えば、標的神経)を正確に位置特定することが望ましい、術後および非外科鎮痛の両方に使用され、また外科麻酔に使用される一種の局所麻酔である。PNB中、医療専門家は、標的神経または神経束の近傍に麻酔薬を注入して、身体の特定の領域からの痛みの感覚を遮断する。しかし、現在利用可能な撮像システムを使用する場合、医療専門家が標的神経の総領域を迅速かつ正確に特定することは困難となることがある。例えば、ある種の神経ブロック処置では、医師が、超音波撮像システムを介して標的神経束を迅速かつ正確に位置特定することが困難になることが多くなる。
したがって、本開示は、標的解剖学的対象物(例えば、標的神経)を取り囲む解剖学的領域から採取された複数の場面のリアルタイム画像から、解剖学的対象物の自動的な検出、特定、およびマッピングのためのシステムおよび方法であって、既存の撮像システムを介して実装できるディープラーニングネットワークを使用しており、ユーザ(例えば、医療専門家)に方向を提供し、ユーザが関心対象の標的の解剖学的対象物に迅速かつ正確に到達することを可能にすることを目的とした、該システムおよび方法を提供しようとするものである。
本発明の目的および利点は、以下の説明に部分的に記載されているか、または明細書の記載から明白であるか、または本発明の実施を通してより明白に理解されよう。
一態様では、本発明は、医用の撮像システムを介して医療処置中に標的の解剖学的対象物を位置特定するためのナビゲーション方向をユーザに提供する方法に関する。前記方法は、前記標的の解剖学的対象物を取り囲む解剖学的領域を選択するステップと、前記標的の解剖学的対象物を取り囲む解剖学的領域から複数のリアルタイム2次元画像を生成し、前記複数のリアルタイム2次元画像をコントローラに提供するステップと、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練するステップと、前記ディープラーニングネットワークを介して、前記解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、前記標的の解剖学的対象物を取り囲む解剖学的領域からの複数のリアルタイム2次元画像のそれぞれを自動的にマッピングするステップと、前記特定されたシーンのそれぞれの前記相対的な空間的位置および前記相対的な時間的位置に基づいて、前記医療処置中に前記標的の解剖学的対象物を位置特定するためにユーザに方向を提供するステップとを含む。
1つの特定の実施形態では、前記医療処置は、前記標的の解剖学的対象物が標的神経である神経ブロックであり得る。さらに、前記神経ブロックは、首の斜角筋間の腕神経叢ブロック、鎖骨上神経ブロック、鎖骨下神経ブロック、腋窩神経ブロック、大腿神経ブロック、坐骨神経ブロック、内転筋管神経ブロック、膝窩神経ブロック、伏在神経ブロック、腸骨筋膜下神経ブロック、胸郭腰椎神経ブロック、横隔膜腹部平面(TAP)神経ブロック、肋間神経ブロック、または胸部脊椎神経ブロックのいずれかであり得る。
別の実施形態では、前記ディープラーニングネットワークは、1つ以上のコンボリューショナル(重畳型)ニューラルネットワーク、または1つ以上のリカレントニューラルネットワークの少なくとも1つを含み得る。
さらに別の実施形態では、前記方法は、グランドトゥルースデータを介して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練するステップをさらに含むことができる。さらに、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練する前記ステップは、複数の患者のそれぞれからの前記標的の解剖学的対象物を取り囲む前記解剖学的領域からの前記シーンの複数の画像のデータセットをスキャンして収集するステップと、前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けするステップと、前記画像のデータセットおよび前記グランドトゥルースデータを、訓練データセットおよび妥当性検証データセットに分割するステップと、前記ディープラーニングネットワークを訓練するために前記訓練データセットを利用するステップとを含み得る。
さらに別の実施形態では、前記ディープラーニングネットワークを訓練するために前記訓練データセットを利用する前記ステップが、前記ディープラーニングネットワークの出力と前記グランドトゥルースデータとの間の誤差を最小にするようにコスト関数を最適化するステップを含み得る。さらに、誤差を最小にするように前記コスト関数を前記最適化するステップが、前記グランドトゥルースデータの部分を反復処理し、前記ディープラーニングネットワークの出力と前記グランドトゥルースデータとの間の誤差に基づいて前記ディープラーニングネットワークの1つ以上のパラメータを調整する確率的勾配降下(SGD)アルゴリズムを利用するステップを含み得る。
さらなる一実施形態では、前記方法は、前記コスト関数を最適化した後、リアルタイムで前記ディープラーニングネットワークを利用して妥当性検証データの予測を自動的に提供し、前記予測を前記グランドトゥルースデータと比較するステップを含み得る。
別の実施形態では、前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けする前記ステップが、前記標的の解剖学的対象物、追加の解剖学的対象物、ランドマーク、組織、またはそれらの組み合わせを、データセットの各画像内で手動で特定し注釈付けするステップをさらに含み得る。
別の実施形態では、前記方法は、オフラインで前記ディープラーニングネットワークを最初に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するステップをさらに含み得る。
さらに別の実施形態では、前記方法は、オンラインで前記ディープラーニングネットワークを継続的に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するステップをさらに含み得る。
さらに別の実施形態では、前記方向は、プローブが関心対象の解剖学的領域をスキャンするときに、前記撮像システムのユーザディスプレイを介して注釈付きの形態でユーザに提供され得、前記撮像システムは複数のリアルタイム2次元画像を同時に生成する。
もう1つの実施形態では、前記方向は、プローブが関心対象の解剖学的領域をスキャンするときに、音声形式でユーザに提供され得、前記撮像システムは複数のリアルタイム2次元画像を同時に生成する。
さらなる実施形態では、前記医用の撮像システムは、超音波撮像システム、コンピュータ断層撮影(CT)撮像システム、磁気共鳴(MR)撮像システム、または蛍光透視撮像システムを含み得る。
別の態様では、本発明は、医療処置において使用するための医用の撮像システムに関する。前記医用の撮像システムは、1つ以上の操作を実行するように構成された少なくとも1つのコントローラと、複数のリアルタイム2次元画像をユーザに表示するように構成されたユーザディスプレイとを含む。前記1つ以上の操作は、標的の解剖学的対象物を取り囲む解剖学的領域から複数のリアルタイム2次元画像を受け取ることと、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練することと、前記ディープラーニングネットワークを介して、前記解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、前記標的の解剖学的対象物を取り囲む解剖学的領域からの複数のリアルタイム2次元画像のそれぞれを自動的にマッピングすることと、前記特定されたシーンのそれぞれの前記相対的な空間的位置および前記相対的な時間的位置に基づいて、前記医療処置中に前記標的の解剖学的対象物を位置特定するためにユーザに方向を提供することとを含む。
特定の一実施形態では、前記医療処置は、前記標的の解剖学的対象物が標的神経である神経ブロックであり得る。
別の実施形態では、前記ディープラーニングネットワークは、1つ以上のコンボリューショナルニューラルネットワーク、または1つ以上のリカレントニューラルネットワークの少なくとも1つを含み得る。
さらに別の実施形態では、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練することが、グランドトゥルースデータを介して達成され得る。例えば、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練することが、複数の患者のそれぞれからの前記標的の解剖学的対象物を取り囲む前記解剖学的領域からの前記シーンの複数の画像のデータセットをスキャンして収集することと、前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けすることと、前記画像のデータセットおよび前記グランドトゥルースデータを、訓練データセットおよび妥当性検証データセットに分割することと、前記ディープラーニングネットワークを訓練するために前記訓練データセットを利用することとを含み得る。
さらに、前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けすることが、前記標的の解剖学的対象物、追加の解剖学的対象物、ランドマーク、組織、またはそれらの組み合わせを、データセットの各画像内で手動で特定し注釈付けすることをさらに含み得る。
さらに別の実施形態では、前記コントローラが、オフラインで前記ディープラーニングネットワークを最初に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するように構成され得る。
さらなる実施形態では、前記コントローラが、オンラインで前記ディープラーニングネットワークを継続的に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するように構成され得る。
さらに別の実施形態では、前記コントローラが、プローブが関心対象の解剖学的領域をスキャンするときに、前記方向を、ユーザディスプレイを介して注釈付きの形態でユーザに提供でき、前記撮像システムは複数のリアルタイム2次元画像を同時に生成する。
もう1つの実施形態では、前記コントローラが、プローブが関心対象の解剖学的領域をスキャンするときに、前記方向を、音声形式でユーザに提供でき、前記撮像システムは複数のリアルタイム2次元画像を同時に生成する。
別の実施形態では、前記撮像システムは、コンピュータ断層撮影(CT)撮像システム、磁気共鳴(MR)撮像システム、または蛍光透視撮像システムを含み得る。
本発明の上記のおよび他の特徴、態様および利点は、以下の説明および特許請求の範囲の記載を参照することにより、よりよく理解されよう。添付の図面は、本願の開示内容の一部を構成し、本発明の実施形態を示し、説明とともに本発明の原理を説明する役割を果たす。
別の実施形態では、前記撮像システムは、医用の他の撮像システムによってインストールされホストされるソフトウェアパッケージとして構成され、前記撮像システムは、ホストの医用の撮像システムから画像を受け取り、前記ホストの医用の撮像システムによって分配される出力を提供可能に構成され得る。
別の実施形態では、前記ディープラーニングネットワークは、限られた計算能力しか利用可能でない場合等に、メモリ使用を低減し、実行時間を加速するために、量子化された重み、バイナリ化された重み、および他の圧縮方法を使用できる。
別の実施形態では、前記撮像システムは、異なる設定、仕様、および画像品質を有する異なる医用の撮像システムで動作することができるように、変換、等化、および正規化技術を使用できる。
当業者を対象とした本発明の最良の形態を含む本発明の十分かつ実施可能な開示は、添付の図面を参照して本明細書においてなされる。
図1は、本開示の方法およびシステムが、超音波ガイダンスによって医療従事者を正確な位置にナビゲートするために利用され得る様々な神経ブロックの位置を示す図である。 図2は、図1のインタースケーラ神経ブロック(首の斜角筋間の腕神経叢ブロック)の位置を示す図である。 図3は、本開示による撮像システムの一実施形態の斜視図である。 図4は、本開示による撮像システムのコントローラの一実施形態のブロック図である。 図5は、本開示による超音波撮像システムの一実施形態の概略図であり、特に、患者の標的神経へのニードルの移動を容易にするためにニードルガイドと関連して使用される超音波プローブを示す。 図6は、本開示のシステムおよび方法を使用して関心対象の標的の解剖学的対象物を取り囲む解剖学的領域から収集された複数のリアルタイム2次元画像を示す図であり、ここでは、関心対象の解剖学的対象物、追加の解剖学的対象物、および画像に含まれるシーンにおけるランドマークが特定されラベル付けされ得る。 図7は、複数の2次元スライス画像を含むデータセットを示し、このデータセットは、ディープラーニングネットワークを訓練するために使用され、ディープラーニングネットワークは、図6のリアルタイム超音波画像に含まれる関心対象の解剖学的対象物、追加の解剖学的対象物、およびランドマークを検出、特定、ラベル付けおよびマッピングするために使用される。 図8は、医療処置中に標的の解剖学的対象物の位置を特定するためにユーザに方向を提供するために、関心対象の標的の解剖学的対象物を取り囲む解剖学的領域からのシーンの自動検出およびマッピングのための方法を示す概略図である。 図9は、医療処置中に関心対象の標的の解剖学的対象物を特定するためにユーザに方向を提供するために、リカレント・コンボリューショナルニューラルネットワーク(リカレント・コンボリューショナルニューラルネットワーク)を使用した、関心対象の標的の解剖学的対象物を取り囲む解剖学的領域からのシーンの自動検出およびマッピングのための方法を示す概略図である。 図10は、医療処置中に関心対象の標的の解剖学的対象物の位置を特定するためにユーザに方向を提供するために、関心対象の標的の解剖学的対象物を取り囲む解剖学的領域からのシーンの自動検出およびマッピングのための方法の一実施形態を示す流れ図である。 図11は、本開示による撮像システムによって生成されたインタースケーラ神経ブロック(腕神経叢ブロック)周辺の解剖学的領域のシーンのリアルタイム超音波画像を示す概略図であり、ここでは関心対象の解剖学的対象物および周辺組織が検出され、輪郭および番号付けによって特定されている。 図12は、本開示による撮像システムによって生成されたインタースケーラ神経ブロック周辺の解剖学的領域のシーンのリアルタイム超音波画像の別の実施形態の概略図であり、ここでは関心対象の解剖学的対象物および周辺組織が検出され、輪郭で特定されている。 図13は、本開示による撮像システムによって生成されたインタースケーラ神経ブロック周辺の解剖学的領域のシーンのリアルタイム超音波画像のさらに別の実施形態の概略図であり、ここでは関心対象の解剖学的対象物および周囲組織が検出され、陰影付け、輪郭付け、およびラベル付けによって特定されている。 図14は、本開示による撮像システムによって生成されたインタースケーラ神経ブロック周辺の解剖学的領域のシーンのリアルタイム超音波画像のさらに別の実施形態の概略図であり、ここでは関心対象の解剖学的対象物および周囲組織が検出され、陰影付け、輪郭付けおよびレベル付けによって特定されている。
以下、本発明の1つ以上の実施形態、すなわち図示されている実施例である本発明の実施形態を詳細に参照する。各実施例および実施形態は、本発明の説明のために提供され、本発明の限定を意味するものではない。例えば、一実施形態の一部として図示または説明された特徴は、別の実施形態とともに使用されて、さらに別の実施形態を生み出すことができる。本発明は、本発明の技術範囲および趣旨内で行われるこれらおよび他の変更および変形を含むことが意図されている。
一般的に本開示は、医用の撮像システムを介して医療処置中に標的の解剖学的対象物を位置特定するために、ユーザ(例えば、医療専門家)にナビゲーション方向を提供するためのシステムおよび方法に関する。前記方法は、前記標的の解剖学的対象物を取り囲む解剖学的領域を選択するステップと、前記標的の解剖学的対象物を取り囲む解剖学的領域から複数のリアルタイム2次元画像を生成し、前記複数のリアルタイム2次元画像をコントローラに提供するステップと、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練するステップと、前記ディープラーニングネットワークを介して、前記解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、前記標的の解剖学的対象物を取り囲む解剖学的領域からの複数のリアルタイム2次元画像のそれぞれを自動的にマッピングするステップと、前記特定されたシーンのそれぞれの前記相対的な空間的位置および前記相対的な時間的位置に基づいて、前記医療処置中に前記標的の解剖学的対象物を位置特定する、すなわち外科用器具(例えば、ニードルガイドアセンブリ、カテーテル、ニードル(針)、メス、ナイフ、プローブなど)を用いて前記標的の解剖学的対象物に到達するためにユーザに方向を提供するステップとを含む。
1つの特定の実施形態では、本開示は、患者に神経ブロックを施行するために、撮像システム(例えば、超音波撮像システム)によって標的の神経を取り囲む解剖学的領域から生成された複数のリアルタイム2次元画像を使用して関心対象の標的の神経を位置特定し、そこに到達させるために、ユーザ(例えば、医療従事者)にナビゲーション方向を提供するための撮像システムおよび方法に関する。図1を参照すると、標的神経は、患者80への神経ブロックの施行に関連し得る。本開示によって企図される神経ブロックの例として、首の斜角筋間の腕神経叢ブロック(インタースケーラ腕神経ブロック)52、鎖骨上神経ブロック54、鎖骨下神経ブロック56と、腋窩神経ブロック58、大腿神経ブロック60、坐骨神経ブロック62、内転筋管神経ブロック64と、膝窩神経ブロック66、伏在神経ブロック68と、腸骨筋膜下神経ブロック70、胸郭腰椎神経ブロック72、横隔膜腹部平面(TAP)神経ブロック74と、肋間神経ブロック76と、胸部脊椎神経ブロック78などが挙げられる。
例えば、インタースケーラ腕神経ブロック52を取り囲む解剖学的領域の詳細図を参照用として図2に示す。具体的には、解剖学的領域には、輪状軟骨29、内頸静脈31、外頸静脈33、腕神経叢34、胸鎖乳突筋36、前斜角筋37、中斜角筋38、および後斜角筋41が含まれる。本開示のシステムおよび方法を使用して、上述した様々な解剖学的対象物または構造は、以下により詳細に述べるように、検出、特定/ラベル付けおよびマッピングされ、それにより医療専門家が方向を提供されて、麻酔薬を送達するためにニードル挿入部位47でニードル45を標的神経49に迅速かつ正確に挿入し、インタースケーラ腕神経ブロック52を実施することが可能となる。
図3および図4を参照すると、それがリアルタイムで生成された複数の個別画像14を受け取り、編成するように構成された撮像システム10の一実施形態が示されている。本明細書において、撮像システム10は、超音波撮像システム(図示)、コンピュータ断層撮影(CT)スキャナ、磁気共鳴撮像(MRI)スキャナ、または本技術から利益を得ることができる任意の他の適切な撮像システムのいずれにも対応する。より具体的には、図示のように、撮像システム10は、撮像システム10によって生成された複数の画像14を受信して編成するように構成されたコントローラ17を含むことができる。コントローラ17は、一般的に、様々なコンピュータ実装機能(例えば、所定の方法などを実施する機能、本明細書に開示されているような関連データを格納する機能など)を実行するように構成された1つ以上のプロセッサ16および関連するメモリデバイス18を、ユーザディスプレイ20とともに含む。例えば、プロセッサ16は、複数のリアルタイム2次元超音波画像46から撮像システム10によって生成された各画像14内に含まれる複数のシーン12を検出し、特定し、マッピングするように構成することができる。さらに、撮像システム10は、個々の画像14内に含まれる複数のシーン12を生成および/または操作する際にユーザを補助するように構成された、コンピュータおよび/またはキーボードなどのユーザインタフェース22を含むことができる。
図4に示すように、コントローラ17は、コントローラ17と撮像システム10の様々な要素(例えば、図3および図4の要素のいずれか)との間の通信を容易にする通信モジュール24を含むこともできる。さらに、通信モジュール24は、1つ以上の撮像システムプローブ28(例えば、超音波プローブ)から送信された信号を、コントローラ17および/またはプロセッサ16によって理解され処理され得る信号に変換するセンサインタフェース26(例えば、1つ以上のA/D変換器)を含むことができる。プローブ28は、任意の適切な手段を使用して通信モジュール24に通信可能に結合されてもよいことを理解されたい。例えば、図4に示すように、プローブ28は、有線接続を介してセンサインタフェース26に結合され得る。しかし、他の実施形態では、プローブ28は、当技術分野で知られている任意の適切な無線通信プロトコルを使用するなどして、無線接続を介してセンサインタフェース26に結合されてもよい。したがって、コントローラ17は、プローブ28から1つ以上の信号を受信するように構成され得る。
本明細書で使用される「コントローラ」という用語は、コンピュータに含まれるものとして当技術分野で参照される集積回路を指すだけでなく、マイクロコントローラ、マイクロコンピュータ、プログラマブル論理コントローラ(PLC)、特定用途向け集積回路 、フィールドプログラマブルゲートアレイ(FPGA)、および他のプログラマブル回路を含む。コントローラ17はまた、高度な制御アルゴリズムを計算し、様々なイーサネット(登録商標)またはシリアルベースのプロトコル(Modbus、OPC、CANなど)と通信するように構成されている。さらに、ある実施形態では、コントローラ17は、クラウドコンピューティングのためにインターネットを介してサーバと通信して、ローカルデバイスの計算時間を短縮し、負担を軽減することができる。さらに、メモリデバイス18は、一般に、コンピュータ可読媒体(例えば、ランダムアクセスメモリ(RAM))、コンピュータ可読不揮発性媒体(例えば、フラッシュメモリ)、フロッピーディスク、コンパクトディスク読み取り専用メモリ(CD−ROM)、光磁気ディスク(MOD)、デジタル多用途ディスク(DVD)および/または他の適切な記憶素子を含むことができる。そのようなメモリデバイス18は、一般に、コントローラ17によって実装されたときに本明細書に記載のような様々な機能を実行するようにプロセッサ16を構成する適切なコンピュータ可読命令を格納するように構成することができる。
次に図5を参照すると、撮像システム10が超音波撮像システムである場合、撮像システム10のプローブ28(例えば、超音波プローブ)は、トランスデューサハウジング27と、トランスデューサトランスミッタ23とを含み得る。一般に理解されるように、トランスデューサトランスミッタ23は、超音波ビームを放射および/または受信するように構成される。したがって、トランスデューサトランスミッタ23は、患者の標的の解剖学的対象物149(例えば、標的神経)を取り囲む解剖学的領域をスキャンするように、内部空洞(符合なし)内に構成することができる。撮像システム10はまた、任意の適切な医療処置中に使用される器具145を含むことができ、器具145は、コントローラ17を介して任意の適切な方法(例えば、無線、有線など)でプローブ28に接続され、器具145の位置は、本明細書に記載の方法によって決定することができる。医療処置が神経ブロック処置である場合、器具145は、コントローラ17を介して超音波プローブ28に通信可能に連結されたニードルガイドアセンブリ82であってもよく、この場合、コントローラ17は、ニードル45を介して麻酔薬を送達するためにニードルガイドアセンブリ82が標的解剖学的対象物149(例えば、標的神経)に向かって動かされているときに、そのニードルガイドアセンブリ82の位置特定をするように構成され得る。しかし、医療従事者によって実行される手順に応じて、ニードルガイドアセンブリ82の代わりにメス、ナイフ、腹腔鏡または関節鏡プローブなどの任意の器具を使用することも可能なことを理解されたい。
より具体的には、図示のように、ニードルガイドアセンブリ82は、少なくともニードル45およびカテーテル83を含み得る。したがって、ニードル45およびニードルガイドアセンブリ82のカテーテル83は、ある一定の順序で、または同時に、患者80の皮膚81に挿入され得ることが理解されよう。例えば、一実施形態では、超音波撮像システム10は、カテーテル83がニードル45の上に同軸に取り付けられたオーバー・ザ・ニードル(OTN)カテーテルアセンブリを含むことができる。あるいは、ニードル45をカテーテル83上に取り付けることができる。そのような実施形態では、ニードル45は、カテーテル83を標的神経49に配置し、後で除去するように導入器として機能することができる。
ここで図6〜図14を参照すると、撮像システム10によって生成された複数のリアルタイム2次元画像46から取られた複数のシーン12内に含まれる解剖学的対象物の自動検出、特定、およびマッピングしてユーザに方向を提供するための方法100の一実施形態の概略図(図6〜図9)および流れ図(図10)が示されており、前記リアルタイム2次元画像は、超音波撮像システムが使用されるときに複数のリアルタイム2次元画像46の1つから生成されるシーン12を含む画像14を示す、ユーザディスプレイ20からのスクリーンショット(図11〜図14)の様々な形態のように提供される。特定の実施形態では、関心対象の標的の解剖学的対象物30および周囲の付加的な解剖学的対象物32は、患者の任意の解剖学的構造および/または解剖学的構造の周囲組織を含み得る。より具体的には、図11〜図14に示す実施形態に示すように、神経ブロック手順が行われるべき場合、より具体的には神経ブロック手順がインタースケーラ腕神経ブロックである場合、検出、特定、およびマッピングされ得る関心対象の解剖学的対象物30は、患者の斜角筋間の腕神経叢34、即ち下側の4つの頸神経と第1の前胸神経の前枝によって形成される、脊髄から走っている神経のネットワークに概ね対応する。このように、腕神経叢34は、頚部の頸同軸筋管を通過し、第1の肋骨を超えて、腋窩(すなわち、腋窩領域)の中に入る形で延びており、腋窩領域において上肢および頚/肩の筋肉の一部を支配する。さらに、腕神経叢34の周囲の付加的な解剖学的対象物32(例えば、組織)は、胸鎖乳突筋(SM)36、中斜角筋(MCM)38、前斜角筋(ASM)40および/またはその類似物に対応する。医師が正しい標的神経に麻酔剤を適用するために、このような解剖学的対象物30および32の視野すなわちシーン12によってリアルタイムでナビゲートすることは一般的に困難である。したがって、本開示のシステムおよび方法は、関心対象の標的の解剖学的対象物30に関連する神経をブロックするために麻酔薬を迅速かつ正確に送達することができるように、画像14で取り込まれた様々なシーン12中の関心対象の標的の解剖学的対象物30を検出し、特定し、マッピングするための改良された方法を提供し、それによって周辺の追加の解剖学的対象物32、ランドマーク、組織などの周囲をナビゲートするためにユーザに方向が提供される。
しかし、本開示のシステムおよび方法は、腕神経叢34に関連するものに加えて、任意の解剖学的構造を含む任意の様々な医療処置にも使用され得ることを理解されたい。例えば、関心対象の標的の解剖学的対象物30および周囲の付加的な解剖学的対象物32または組織は、図1に記載された神経ブロックに関して上で説明した任意の解剖学的領域からのもの、または医療処置が行われるべき他の解剖学的領域からのものでもよい。また、図11および12を参照すると、撮像システム10によって生成される画像14は、関心対象の標的の解剖学的対象物30を取り囲む解剖学的領域からのシーン12を、それに隣接して配置されるオプションのタスクバー15とともに含んでいる。加えて、タスクバー15は、日付および時刻の他に、オープンボタン、スタートボタン、ストップボタンなどの他の適切な制御機能を含むことができる。他の実施形態では、タスクバー15を省略することができる。画像14は、任意の他の適切な制御および/または表示機能をさらに含み、ユーザインタフェース22またはタッチスクリーン機能を介して制御されてもよいことも理解されたい。
特に図6〜図9を参照すると、本発明の方法は、本開示のシステムを使用して、関心対象の解剖学的対象物30(例えば、標的神経)を取り囲む解剖学的領域から収集された複数のリアルタイムの2次元スライス画像46a、46b、46c、46d、46e、46f、46g、46h、46iを生成することを含む。また、図7に示すように、複数の2次元スライス画像84a、84b、84c、84d、84e、84f、84g、84h、84i、84jを含むデータセット84を予め取得しておき、データセット84は、ディープラーニングネットワークを訓練するために使用され、ディープラーニングネットワークを使用して、標的の解剖学的対象物を取り囲む解剖学的領域からシーンを検出および特定/標識し、次いで、図6のリアルタイム2次元超音波画像46a〜46jに含まれる解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、標的解剖学的対象物を取り囲む解剖学的領域からの複数のリアルタイム2次元画像のそれぞれをマッピングする。次に、図8を参照すると、ブロック48において、リアルタイムの2次元超音波画像46のシーン内に含まれる標的の解剖学的対象物30または149および追加の解剖学的対象物32および他のランドマーク/組織(図示せず)を自動的に検出し、次いでブロック50で、医療専門家によって実行されている任意の医療処置中に連続的なナビゲーション追跡を提供するために、画像84のデータセットによって既に訓練済みのディープラーニングネットワークを利用して、マッピングおよび継続的な追跡を行う。図6では10個のリアルタイム2次元画像46a〜46jが生成され、10個の画像84a〜84jを用いて図7の訓練されたデータセットを形成しているが、医療処置が行われている特定の標的の解剖学的対象物を取り囲む関心対象の解剖学的領域のサイズおよび複雑さに応じて、任意の数のリアルタイム2次元画像46および/またはデータセット84の画像を得ることが可能であることを理解されたい。例えば、最大約100,000個、例えば約5〜50,000個、約10〜約10,000個、または他の適切な個数の異なるシーン画像を利用することができる。ブロック50において、ディープラーニングネットワークを介して、解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいてリアルタイムの2次元画像46がマッピングされた後、結果として得られるマッピングされた位置は、ブロック51において、医療処置(例えば、神経ブロックの実施)の間、関心対象の標的の解剖学的対象物(例えば標的神経)の位置特定をするため、方向/連続ナビゲーション追跡をユーザに提供するために使用され得る。
図9参照すると、連続ナビゲーション追跡は、反復重畳型ニューラルネットワーク、即ちリカレント・コンボリューショナルニューラルネットワーク90の使用に基づいて行うことができる。リカレント・コンボリューショナルニューラルネットワーク90は、時間スパン88にわたってリアルタイム画像46を処理することができ、テキスト、発話、数字等の形態でナビゲーションシステム94に出力することができる、画像46から特定されたシーンに存在する主要なランドマークを特定することができる。リカレント・コンボリューショナルニューラルネットワーク90を使用することにより、より正確な検出および追跡のためにビデオ/画像の時間的相関関係を抽出可能とするために以前に処理されたフレーム(画像84のデータセットなど)の履歴を保存することが確実に行える。図9に示すように、追跡システムの出力92は、テキスト、音声/発話、または割り当てられたラベルおよび番号の形式であり得る。次いで、ナビゲーションシステム94は、プローブ、器具などの現在の位置をナビゲーションシステムが知ることを決定するために、追跡システムから出力92を受信する。標的の解剖学的対象物149、およびプローブ28および/または器具145の現在位置に基づいて、ナビゲーションシステム94は、ランドマークの予めプログラムされたルックアップテーブル96を使用して、標的の解剖学的対象物149に向かう正しい経路を計算することができる。次に、ナビゲーションシステム94は、撮像プローブ28および/または器具145を上下左右に移動させる、角度を変えるなど、ユーザに案内および方向98を提供する。そのような方向98は、ユーザディスプレイ上に重ね合わされたテキストまたは矢印の形態で提供され得るか、または音声/発話の形態であり得る。
次に、特に図10を参照すると、符合102に示すように、方法100は、一般的に関心対象の標的の解剖学的対象物(例えば、標的神経)を取り囲む解剖学的領域を選択することを含む。次に、符合104に示すように、方法100は、関心対象の標的の解剖学的対象物を取り囲む解剖学的領域から複数のシーン12の複数のリアルタイム2次元画像46を生成し、複数のリアルタイム2次元画像14をコントローラ17に送信することを含む。
符合106に示すように、方法100はまた、複数の患者から受け取った2次元画像84のデータセットを使用して、リアルタイム2次元超音波画像46に含まれる標的の解剖学的対象物(例えば、追加の解剖学的対象物、ランドマーク、周囲組織など)を取り囲む解剖学的領域からのシーン12を自動的に検出し特定するディープラーニングネットワークを開発し訓練することを含み、画像84のデータセットは、関心対象の標的の解剖学的対象物を取り囲む解剖学的領域からの複数の画像からのシーンを、複数の患者のそれぞれについてスキャンして収集することによって生成される。したがって、各患者の複数のリアルタイム2次元画像46に含まれる各シーン12からの標的の解剖学的対象物、追加の解剖学的対象物、ランドマーク、周囲組織、またはそれらの組み合わせにラベル付けまたは注釈付けをして、複数の画像14を形成することができる。より具体的には、特定の実施形態では、ディープラーニングネットワークは、1つ以上のディープコンボリューショナルニューラルネットワーク(CNN)、1つ以上のリカレントニューラルネットワーク、または任意の他の適切なニューラルネットワーク構成を含み得る。機械学習では、ディープコンボリューショナルニューラルネットワークは、一般的に、そのニューロン間の接続パターンが、動物の視覚野(その個々のニューロンが、視野をタイリングする重複領域に応答するように配置されている)の構成に影響されるフィードフォワード人工ニューラルネットワークのタイプを指す。対照的に、リカレントニューラルネットワーク(RNN)は、一般的に、ユニット間の接続が有向サイクルを形成する人工ニューラルネットワークのクラスを指す。そのような接続は、ネットワークが動的な時間的挙動を示すことを可能にするネットワークの内部状態を生成する。フィードフォワードニューラルネットワーク(コンボリューショナルニューラルネットワークなど)とは異なり、RNNは内部メモリを使用して任意の入力シーケンスを処理できる。したがって、RNNは、リアルタイムで解剖学的対象物をよりよく特定して追跡するために画像フレーム間の相関を抽出することができる。
特定の実施形態では、コントローラ17は、標的の解剖学的対象物30または149、ランドマーク42、および/または追加の解剖学的対象物(例えば、組織)32を含むリアルタイム2次元画像46のシーン12を自動的に検出し特定するために、グランドトゥルースデータを使用してディープニューラルネットワークを訓練および/または開発することができる。例えば、特定の実施形態では、コントローラ17は、標的の解剖学的対象物30または149、追加の解剖学的対象物32、ランドマーク42などを含むシーン12を自動的に検出および特定するために、ディープニューラルネットワークを最初に訓練するように構成することができる。より具体的には、特定の実施形態では、コントローラ17がオフラインの間に初期訓練を完了することができる。別の実施形態では、コントローラ17は、初期訓練が完了した後、標的の解剖学的対象物30または149、追加の解剖学的対象物32、ランドマーク42などを含むシーン12を自動的に検出するために、ディープニューラルネットワークをオンラインで連続的に訓練するように構成することができる。
より具体的には、特定の実施形態では、コントローラ17は、複数の患者からの標的の解剖学的対象物30または149、付加的な解剖学的対象物32、ランドマーク42などの画像84のデータセットをスキャンして収集することによって、視野内の新たに取り込まれたデータからディープニューラルネットワークを連続的に訓練して、シーン12に存在する標的の解剖学的対象物30または149、追加の解剖学的対象物32、ランドマーク42などを自動的に検出する。例えば、特定の実施形態では、数百および/または数千の画像を複数の患者からスキャンして収集し、メモリデバイス18を介して画像84のデータセットに格納することができる。さらに、格納する前に、画像84のデータセットに、ユーザの入力に基づいて注釈付けをして、グランドトゥルースデータを作成することができる。例えば、特定の実施形態では、医師は、専門家としての知識に基づいて画像84のデータセットに注釈付けして手動で特定して、データセットの各画像内の標的の解剖学的対象物30、追加の解剖学的対象物32、ランドマーク42等を検出して特定する際にディープラーニングネットワークを助けることができる。このように、本明細書においてグランドトゥルースデータとは、一般的に、推論によって提供される情報とは対照的に、現場の専門家が直接観察することによって提供される情報を指す。したがって、本開示のディープラーニングネットワークは、動作中に人間の脳を模倣するように構成される。
特定の実施形態では、画像84のデータセットを複数のグループに分割することができる。例えば、一実施形態では、グラウンドトゥルースデータは、訓練データセットおよび妥当性検証データセットを含む少なくとも2つのグループに分割され得る。このように、特定の実施形態では、コントローラ17は、訓練データセットを利用して、パラメータ空間のディープニューラルネットワークを訓練するように構成される。より具体的には、特定の実施形態では、コントローラ17は、ディープニューラルネットワークの出力とグランドトゥルースデータとの間の誤差を最小にするべくコスト関数を最適化するように構成することができる。例えば、一実施形態では、誤差を最小化するべくコスト関数を最適化するステップは、グランドトゥルースデータの部分を反復的に処理し、ディープニューラルネットワークの出力とグランドトゥルースデータとの間の誤差に基づいて、ディープニューラルネットワークの1つ以上のパラメータを調整する確率的近似(確率的勾配降下(SGD)アルゴリズムなど)を利用することを含む。本明細書において、確率的勾配降下は、一般に、微分可能な関数の和として書かれた目的関数を最小化するための勾配降下最適化方法の確率的近似を指す。より具体的には、一実施形態では、コントローラ17は、ディープニューラルネットワークの出力とグランドトゥルースデータとの間の誤差を最小にするための教師付き学習を実施するように構成することができる。本明細書において、「教師付き学習」は、一般的に、ラベル付けされた訓練データから関数を推論する機械学習タスクを指す。
しかし、コスト関数は、平均二乗誤差、ダイス係数、カテゴリ交差エントロピーなどの異なる方法で定義することができ、SGDおよびその亜種(Adam、Adadelta、Nestrovなど)を含むさまざまな方法を使用して最適化することができることを理解されたい。他の実施形態では、プロセッサ16が、さらなるディープラーニング技術を実装することができ、そのような技術として、例えば、医療画像中の解剖学的対象物を検出するコンピュータエージェントを訓練するための強化学習、未ラベル付けデータを用いてニューラルネットワークおよびクラスタ対象物を事前に訓練するための教師なし学習、および/または当技術分野で現在公知であるかまたは後に開発された他の技術が挙げられる。そのような方法は、必要な訓練データが少ない、および/または報酬・処罰機能に依拠し、システムが特にラベル付けされたデータを提供する必要はない方法であり得る。
別の実施形態では、方法100は、コスト関数を最適化した後に、リアルタイムでディープラーニングネットワークを利用して、新しく捕捉されたデータとともに妥当性検証データに関する予測を自動的に提供することも含み得る。したがって、そのような実施形態では、コントローラ17は、ディープニューラルネットワークが一般化できることを保証するために、予測をグラウンドトゥルースデータと比較するように構成されてもよい。言い換えると、コントローラ17は、ディープニューラルネットワークが、訓練データに入っていない場合でも正確な予測を提供できることを確実にするように構成することができる。
さらに図10を参照すると、符合108で示すように、前記方法100はまた、複数のリアルタイム2次元超音波画像46のそれぞれを、解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的時間に基づいて関心対象の標的の解剖学的対象物を取り囲む解剖学的領域から自動的にマッピングすることを含む。マッピングは、図9に関して前に説明したように、追跡システムからの特定されたシーンとシステムにプログラムされたルックアップテーブルとに基づくことができる。
さらに図10を参照すると、符合110に示すように、方法は、医療処置(例えば、図5に示すニードル45を介した神経ブロックの実施)中に、複数のリアルタイム2次元画像46において特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、関心対象の標的の解剖学的対象物(例えば、標的神経)を位置特定するためにユーザ(例えば、医療専門家)に方向を提供することをさらに含む。ユーザが器具145(例えば、図2のニードル45)を標的の解剖学的対象物149(例えば、図2の標的神経49)に向かって動かすと、プローブ28は同時に関心対象の解剖学的領域をスキャンし、撮像システム10は同時に複数のリアルタイム2次元画像46を生成して、前記方向が撮像システム10のユーザディスプレイ20上に注釈付きの形態でユーザに提供され得る。方向は、単独で、または撮像システム10のユーザディスプレイ20上に存在する注釈付きの方向と組み合わせて音声命令の形式で提供することもできることは理解されよう。医療専門家/ユーザが標的の解剖学的対象物30または149の近くの領域をスキャンするとき、その現在の位置は、図9に記載されたリカレント・コンボリューショナルニューラルネットワーク(追跡システム)を使用して特定することができ、標的の解剖学的対象物30または149(すなわち、図5参照)に到達する経路は、図9のナビゲーションシステム94によって計算することができる。その経路に基づいて、医療従事者/ユーザに対して、プローブ28および/または器具145を現在の位置から上下左右などに移動させ、また表面(患者の皮膚81)に対するプローブ角度または器具角度を変更するように指示する矢印、テキスト、または音声/発話の形式で指示が与えられることになり、標的の解剖学的対象物30または149が医療処置(例えば、神経ブロック)の撮像または実施のために正確に位置特定され得る。
ここで図11〜図14を参照すると、医療処置が神経ブロックであり、撮像システムが超音波撮像システムである場合に、リアルタイム超音波画像46から得られた様々な画像14が示されており、この際にコントローラ17は、画像14上の解剖学的対象物30、ランドマーク42および/または周囲の組織32にラベル付けするように構成されていた。より具体的には、特定の実施形態では、コントローラ17は、画像14上の標的の解剖学的対象物30、追加の解剖学的対象物32などの輪郭を描くように構成されてもよい。例えば、図11および図12に示すように、腕神経叢34(すなわち、標的の解剖学的対象物30)が、第1の厚さまたはパターンを有する境界線で輪郭が描かれる。加えて、図示されているように、様々な周囲の付加的な解剖学的対象物/組織32は、腕神経叢34の輪郭を描くために使用される第1の厚さまたはパターンとは異なる、第2の厚さを有する境界線で輪郭を描くことができる。したがって、ユーザは、解剖学的領域内の追加の解剖学的対象物/組織32から関心対象の標的の解剖学的対象物30を容易に特定して区別することができる。
さらなる実施形態では、コントローラ17は、リアルタイム2次元超音波画像46上の標的の解剖学的対象物30および/または周囲の付加的解剖学的対象物/組織32の上に記述的ラベルを重ね合わせて、様々な注釈付き画像14を得るように構成することができる。例えば、図11に示すように、周囲の解剖学的対象物/組織32は、医師による容易な特定のためにランドマーク42(例えば、画像14の右側)に番号を付けてラベル付けすることができる。あるいは、図12に示すように、周囲の解剖学的対象物/組織32は、線の種類によって、特に患者の体内の位置を示すランドマーク42として特定され区別され得る。さらに別の実施形態では、図13に示すように、周囲の解剖学的対象物/組織32は、記述的な医学的名称を用いてラベル付けおよび陰影付けされ得る。さらに別の実施形態では、図13に示すように、標的の解剖学的対象物30をさらに画定し、および/またはセグメント化してもよい。このように、腕神経叢34の場合、ユーザは、神経ブロック処置中に、別個の神経または神経束を容易に特定することができる。
別の実施形態では、図11〜図14に示すように、コントローラ17は、標的の解剖学的対象物30および/または周囲の解剖学的対象物/組織32の信頼レベル44を決定するように構成することもできる。例えば、図11および図12に示すように、腕神経叢34の位置の信頼レベル44は、画像14のタスクバー15上に位置する。あるいは、図13および14を参照すると、腕神経叢34の位置の信頼レベル44の表示は、画像14の特定されたシーン12内に、例えば、標的の解剖学的対象物30に隣接する位置に配置され得る。
以上の説明では、本発明を開示するため、および当業者が、任意の装置またはシステムを製造および使用し、組み込まれた方法を実行することを含む本発明の実施を行えるようにするために最良の形態を含む実施形態を用いている。本発明の範囲は、特許請求の範囲の請求項の記載によって定義され、当業者が想到し得る他の実施形態を含むことができる。そのような他の実施形態は、特許請求の範囲の請求項の記載の表現と同じ要素を含む場合、または請求項の記載の表現との実質的に異なるが均等の要素を含む場合のいずれも本発明の範囲内に含まれる。

Claims (29)

  1. 医用の撮像システムを介して医療処置中に標的の解剖学的対象物を位置特定するためにユーザにナビゲーション方向を提供する方法であって、
    前記標的の解剖学的対象物を取り囲む解剖学的領域を選択するステップと、
    前記標的の解剖学的対象物を取り囲む解剖学的領域から複数のリアルタイム2次元画像を生成し、前記複数のリアルタイム2次元画像をコントローラに提供するステップと、
    前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練するステップと、
    前記ディープラーニングネットワークを介して、前記解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、前記標的の解剖学的対象物を取り囲む解剖学的領域からの複数のリアルタイム2次元画像のそれぞれを自動的にマッピングするステップと、
    前記特定されたシーンのそれぞれの前記相対的な空間的位置および前記相対的な時間的位置に基づいて、前記医療処置中に前記標的の解剖学的対象物を位置特定するためにユーザに方向を提供するステップとを含む方法。
  2. 請求項1に記載の方法であって、
    前記医療処置は神経ブロックであり、前記標的の解剖学的対象物は標的神経であることを特徴とする方法。
  3. 請求項2に記載の方法であって、
    前記神経ブロックは、首の斜角筋間の腕神経叢ブロック、鎖骨上神経ブロック、鎖骨下神経ブロック、腋窩神経ブロック、大腿神経ブロック、坐骨神経ブロック、内転筋管神経ブロック、膝窩神経ブロック、伏在神経ブロック、腸骨筋膜下神経ブロック、胸郭腰椎神経ブロック、横隔膜腹部平面(TAP)神経ブロック、肋間神経ブロック、または胸部脊椎神経ブロックのいずれかであることを特徴とする方法。
  4. 請求項1に記載の方法であって、
    前記ディープラーニングネットワークは、1つ以上のコンボリューショナルニューラルネットワーク、または1つ以上のリカレントニューラルネットワークの少なくとも1つを含むことを特徴とする方法。
  5. 請求項1に記載の方法であって、
    グランドトゥルースデータを介して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練するステップをさらに含むことを特徴とする方法。
  6. 請求項5に記載の方法であって、
    前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練する前記ステップが、
    複数の患者のそれぞれからの前記標的の解剖学的対象物を取り囲む前記解剖学的領域からの前記シーンの複数の画像のデータセットをスキャンして収集するステップと、
    前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けするステップと、
    前記画像のデータセットおよび前記グランドトゥルースデータを、訓練データセットおよび妥当性検証データセットに分割するステップと、
    前記ディープラーニングネットワークを訓練するために前記訓練データセットを利用するステップとを含むことを特徴とする方法。
  7. 請求項6に記載の方法であって、
    前記ディープラーニングネットワークを訓練するために前記訓練データセットを利用する前記ステップが、
    前記ディープラーニングネットワークの出力と前記グランドトゥルースデータとの間の誤差を最小にするようにコスト関数を最適化するステップを含むことを特徴とする方法。
  8. 請求項7に記載の方法であって、
    誤差を最小にするように前記コスト関数を前記最適化するステップが、
    前記グランドトゥルースデータの部分を反復処理し、前記ディープラーニングネットワークの出力と前記グランドトゥルースデータとの間の誤差に基づいて前記ディープラーニングネットワークの1つ以上のパラメータを調整する確率的勾配降下(SGD)アルゴリズムを利用するステップを含むことを特徴とする方法。
  9. 請求項8に記載の方法であって、
    前記コスト関数を最適化した後、リアルタイムで前記ディープラーニングネットワークを利用して妥当性検証データの予測を自動的に提供し、前記予測を前記グランドトゥルースデータと比較するステップを含むことを特徴とする方法。
  10. 請求項6に記載の方法であって、
    前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けする前記ステップが、
    前記標的の解剖学的対象物、追加の解剖学的対象物、ランドマーク、組織、またはそれらの組み合わせを、データセットの各画像内で手動で特定し注釈付けするステップをさらに含むことを特徴とする方法。
  11. 請求項1に記載の方法であって、
    オフラインで前記ディープラーニングネットワークを最初に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するステップをさらに含むことを特徴とする方法。
  12. 請求項1に記載の方法であって、
    オンラインで前記ディープラーニングネットワークを継続的に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するステップをさらに含むことを特徴とする方法。
  13. 請求項1に記載の方法であって、
    前記方向は、プローブが関心対象の解剖学的領域をスキャンするときに、前記撮像システムのユーザディスプレイを介して注釈付きの形態でユーザに提供され、前記撮像システムは複数のリアルタイム2次元画像を同時に生成することを特徴とする方法。
  14. 請求項1に記載の方法であって、
    前記方向は、プローブが関心対象の解剖学的領域をスキャンするときに、音声形式でユーザに提供され、前記撮像システムは複数のリアルタイム2次元画像を同時に生成することを特徴とする方法。
  15. 請求項1に記載の方法であって、
    前記医用の撮像システムは、超音波撮像システム、コンピュータ断層撮影(CT)撮像システム、磁気共鳴(MR)撮像システム、または蛍光透視撮像システムを含むことを特徴とする方法。
  16. 医療処置において使用するための医用の撮像システムであって、
    1つ以上の操作を実行するように構成された少なくとも1つのコントローラと、
    複数のリアルタイム2次元画像をユーザに表示するように構成されたユーザディスプレイとを含み、
    前記1つ以上の操作は、
    標的の解剖学的対象物を取り囲む解剖学的領域から複数のリアルタイム2次元画像を受け取ることと、
    前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練することと、
    前記ディープラーニングネットワークを介して、前記解剖学的領域内の特定されたシーンのそれぞれの相対的な空間的位置および相対的な時間的位置に基づいて、前記標的の解剖学的対象物を取り囲む解剖学的領域からの複数のリアルタイム2次元画像のそれぞれを自動的にマッピングすることと、
    前記特定されたシーンのそれぞれの前記相対的な空間的位置および前記相対的な時間的位置に基づいて、前記医療処置中に前記標的の解剖学的対象物を位置特定するためにユーザに方向を提供することとを含むことを特徴とする撮像システム。
  17. 請求項16に記載の方法であって、
    前記医療処置は神経ブロックであり、前記標的の解剖学的対象物は標的神経であることを特徴とする方法。
  18. 請求項16に記載の撮像システムであって、
    前記ディープラーニングネットワークは、1つ以上のコンボリューショナルニューラルネットワーク、または1つ以上のリカレントニューラルネットワークの少なくとも1つを含むことを特徴とする撮像システム。
  19. 請求項16に記載の撮像システムであって、
    前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練することが、グランドトゥルースデータを介して達成されることを特徴とする撮像システム。
  20. 請求項19に記載の撮像システムであって、
    前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出し特定するディープラーニングネットワークを開発し、訓練することが、
    複数の患者のそれぞれからの前記標的の解剖学的対象物を取り囲む前記解剖学的領域からの前記シーンの複数の画像のデータセットをスキャンして収集することと、
    前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けすることと、
    前記画像のデータセットおよび前記グランドトゥルースデータを、訓練データセットおよび妥当性検証データセットに分割することと、
    前記ディープラーニングネットワークを訓練するために前記訓練データセットを利用することとを含むことを特徴とする撮像システム。
  21. 請求項20に記載の撮像システムであって、
    前記グランドトゥルースデータを作成するためにユーザ入力に基づいて画像のデータセットに注釈付けすることが、
    前記標的の解剖学的対象物、追加の解剖学的対象物、ランドマーク、組織、またはそれらの組み合わせを、データセットの各画像内で手動で特定し注釈付けすることをさらに含むことを特徴とする撮像システム。
  22. 請求項16に記載の撮像システムであって、
    前記コントローラが、オフラインで前記ディープラーニングネットワークを最初に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するように構成されることを特徴とする撮像システム。
  23. 請求項16に記載の撮像システムであって、
    前記コントローラが、オンラインで前記ディープラーニングネットワークを継続的に訓練して、前記標的の解剖学的対象物を取り囲む解剖学的領域からのシーンを自動的に検出して特定するように構成されることを特徴とする撮像システム。
  24. 請求項16に記載の撮像システムであって、
    前記コントローラが、プローブが関心対象の解剖学的領域をスキャンするときに、前記方向を、ユーザディスプレイを介して注釈付きの形態でユーザに提供し、前記撮像システムは複数のリアルタイム2次元画像を同時に生成することを特徴とする撮像システム。
  25. 請求項16に記載の撮像システムであって、
    前記コントローラが、プローブが関心対象の解剖学的領域をスキャンするときに、前記方向を、音声形式でユーザに提供し、前記撮像システムは複数のリアルタイム2次元画像を同時に生成することを特徴とする撮像システム。
  26. 請求項16に記載の撮像システムであって、
    前記撮像システムは、コンピュータ断層撮影(CT)撮像システム、磁気共鳴(MR)撮像システム、または蛍光透視撮像システムを含むことを特徴とする撮像システム。
  27. 請求項16に記載の撮像システムであって、
    前記撮像システムは、医用の他の撮像システムによってインストールされホストされるソフトウェアパッケージとして構成され、前記撮像システムは、ホストの医用の撮像システムから画像を受け取り、前記ホストの医用の撮像システムによって分配される出力を提供可能に構成されることを特徴とする撮像システム。
  28. 請求項16に記載の撮像システムであって、
    前記ディープラーニングネットワークは、限られた計算能力しか利用可能でない場合等に、メモリ使用を低減し、実行時間を加速するために、量子化された重み、バイナリ化された重み、および他の圧縮方法を使用することを特徴とする撮像システム。
  29. 請求項16に記載の撮像システムであって、
    前記撮像システムは、異なる設定、仕様、および画像品質を有する異なる医用の撮像システムで動作することができるように、変換、等化、および正規化技術を使用することを特徴とする撮像システム。
JP2017564130A 2016-12-02 2017-06-29 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法 Active JP6796085B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662429150P 2016-12-02 2016-12-02
US62/429,150 2016-12-02
PCT/US2017/039928 WO2018101985A1 (en) 2016-12-02 2017-06-29 System and method for navigation to a target anatomical object in medical imaging-based procedures

Publications (2)

Publication Number Publication Date
JP2019508072A true JP2019508072A (ja) 2019-03-28
JP6796085B2 JP6796085B2 (ja) 2020-12-02

Family

ID=59363227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017564130A Active JP6796085B2 (ja) 2016-12-02 2017-06-29 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法

Country Status (10)

Country Link
US (1) US10657671B2 (ja)
EP (1) EP3549103B1 (ja)
JP (1) JP6796085B2 (ja)
KR (2) KR101886990B1 (ja)
CN (1) CN109074665B (ja)
BR (1) BR112018000197A2 (ja)
CA (1) CA2989159C (ja)
MX (1) MX2017017142A (ja)
RU (1) RU2017142603A (ja)
WO (1) WO2018101985A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021058232A (ja) * 2019-10-02 2021-04-15 コニカミノルタ株式会社 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置
WO2022080184A1 (ja) 2020-10-16 2022-04-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の表示方法
JP2022526575A (ja) * 2019-04-02 2022-05-25 コーニンクレッカ フィリップス エヌ ヴェ 超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法
JP2022528491A (ja) * 2019-04-17 2022-06-13 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164679B2 (en) 2017-06-20 2021-11-02 Advinow, Inc. Systems and methods for intelligent patient interface exam station
US11348688B2 (en) 2018-03-06 2022-05-31 Advinow, Inc. Systems and methods for audio medical instrument patient measurements
US10939806B2 (en) * 2018-03-06 2021-03-09 Advinow, Inc. Systems and methods for optical medical instrument patient measurements
US20210240931A1 (en) * 2018-04-30 2021-08-05 Koninklijke Philips N.V. Visual question answering using on-image annotations
US20200016396A1 (en) * 2018-07-11 2020-01-16 Synchron Australia Pty Limited Systems and methods for improving placement of devices for neural stimulation
JP7134017B2 (ja) 2018-08-14 2022-09-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR102179045B1 (ko) * 2018-10-18 2020-11-16 한국외국어대학교 연구산학협력단 3차원 영상에서의 강화 학습 기반 랜드마크 위치 검출 모델 학습 방법
WO2020089416A1 (en) * 2018-11-01 2020-05-07 Koninklijke Philips N.V. Identifying an interventional device in medical images
CN109589145A (zh) * 2018-12-28 2019-04-09 吴莹 一种智能化肾穿刺控制系统
KR102659494B1 (ko) 2019-01-21 2024-04-23 삼성전자주식회사 전자 장치 및 그 제어 방법
US10970542B2 (en) * 2019-02-22 2021-04-06 Here Global B.V. Scalable three dimensional object segmentation
US11707255B2 (en) * 2019-04-02 2023-07-25 Siemens Medical Solutions Usa, Inc. Image-based probe positioning
US20210045716A1 (en) * 2019-08-13 2021-02-18 GE Precision Healthcare LLC Method and system for providing interaction with a visual artificial intelligence ultrasound image segmentation module
US20210059758A1 (en) * 2019-08-30 2021-03-04 Avent, Inc. System and Method for Identification, Labeling, and Tracking of a Medical Instrument
US11024027B2 (en) * 2019-09-13 2021-06-01 Siemens Healthcare Gmbh Manipulable object synthesis in 3D medical images with structured image decomposition
CN112825619A (zh) * 2019-09-20 2021-05-21 博医来股份公司 使用数字重建放射影像训练机器学习算法
US20210177295A1 (en) * 2019-12-11 2021-06-17 GE Precision Healthcare LLC Systems and methods for generating diagnostic scan parameters from calibration images
WO2021121600A1 (en) * 2019-12-19 2021-06-24 Brainlab Ag Medical image analysis using machine learning and an anatomical vector
WO2021145876A1 (en) * 2020-01-16 2021-07-22 Visa International Service Association System and computer-implemented method for character recognition in payment card
EP3862969A1 (en) * 2020-02-07 2021-08-11 Siemens Healthcare GmbH Orientation detection in medical image data
EP3881793A1 (en) * 2020-03-17 2021-09-22 CHU de NICE Surgical instrument and computer-implemented method for determining the position and orientation of such surgical instrument
CN111488985B (zh) * 2020-04-08 2023-11-14 华南理工大学 深度神经网络模型压缩训练方法、装置、设备、介质
US20210334955A1 (en) * 2020-04-24 2021-10-28 Nvidia Corporation Image annotation using one or more neural networks
CN112001224A (zh) * 2020-07-02 2020-11-27 北京奥维视讯科技有限责任公司 基于卷积神经网络的视频采集方法和视频采集系统
CN111839730B (zh) * 2020-07-07 2022-02-11 厦门大学附属翔安医院 一种用于引导肿瘤切除的光声成像手术导航平台
DE102020212086A1 (de) * 2020-09-25 2022-03-31 Siemens Healthcare Gmbh Ermitteln der Qualität einer Positionierung eines in einen Patientenkörper eingeführten Objekts
CN112766314B (zh) * 2020-12-31 2024-05-28 上海联影智能医疗科技有限公司 解剖结构的识别方法、电子设备及存储介质
EP4280996A1 (en) * 2021-01-21 2023-11-29 Epidutech Ltd. Method for tracking a medical tool during a medical procedure using deep learning
EP4059435A1 (en) * 2021-03-15 2022-09-21 Koninklijke Philips N.V. Patient preparation for medical imaging
JP2022179368A (ja) * 2021-05-19 2022-12-02 エヌビディア コーポレーション 機械学習を用いたスーパビジョンの拡張
CN114052795B (zh) * 2021-10-28 2023-11-07 南京航空航天大学 一种结合超声自主扫描的病灶成像及防误扎治疗系统
WO2023152530A2 (en) * 2021-12-10 2023-08-17 Mofaip, Llp Multidimensional anatomic mapping, descriptions, visualizations, and translations
CN114840110B (zh) * 2022-03-17 2023-06-20 杭州未名信科科技有限公司 一种基于混合现实的穿刺导航交互辅助方法及装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153194A (ja) * 1994-11-29 1996-06-11 Hitachi Medical Corp 画像処理装置
JP2003296737A (ja) * 2002-03-15 2003-10-17 Microsoft Corp パターン認識を容易にするシステムおよび方法
JP2003533785A (ja) * 2000-05-09 2003-11-11 シーメンス アクチエンゲゼルシヤフト 画像中の物体を求めるための方法および装置
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2008017997A (ja) * 2006-07-12 2008-01-31 Hitachi Medical Corp 手術支援ナビゲーションシステム
JP2010017556A (ja) * 2008-07-11 2010-01-28 General Electric Co <Ge> 対象物に対して超音波プローブを可視化するためのシステムおよび方法
JP2011500217A (ja) * 2007-10-19 2011-01-06 ボストン サイエンティフィック サイムド,インコーポレイテッド 分類器出力及び画像中の信頼性測度の表示
JP2014213202A (ja) * 2013-04-22 2014-11-17 株式会社東芝 医用画像処理装置、医用画像処理方法および医用画像処理プログラム
WO2015092582A1 (en) * 2013-12-20 2015-06-25 Koninklijke Philips N.V. Automatic ultrasound beam steering and needle artifact suppression
JP2015523874A (ja) * 2012-05-31 2015-08-20 コーニンクレッカ フィリップス エヌ ヴェ 定量的評価のための方法、システム及び記憶媒体
JP2016190032A (ja) * 2015-03-30 2016-11-10 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. 超音波イメージングにおける3次元関心ボリューム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7876934B2 (en) 2004-11-08 2011-01-25 Siemens Medical Solutions Usa, Inc. Method of database-guided segmentation of anatomical structures having complex appearances
WO2008087629A2 (en) 2007-01-16 2008-07-24 Simbionix Ltd. Preoperative surgical simulation
US8073220B2 (en) 2009-04-20 2011-12-06 Siemens Aktiengesellschaft Methods and systems for fully automatic segmentation of medical images
WO2011087807A2 (en) * 2009-12-22 2011-07-21 Health Discovery Corporation System and method for remote melanoma screening
US20110182493A1 (en) 2010-01-25 2011-07-28 Martin Huber Method and a system for image annotation
US20110188715A1 (en) 2010-02-01 2011-08-04 Microsoft Corporation Automatic Identification of Image Features
KR101883258B1 (ko) 2010-08-13 2018-07-31 스미스 앤드 네퓨, 인크. 해부학적 계측점의 검출 방법
EP2617012B1 (en) 2010-09-16 2015-06-17 Mor Research Applications Ltd. Method and system for analyzing images
US8867802B2 (en) 2011-04-19 2014-10-21 Microsoft Corporation Automatic organ localization
US20130249917A1 (en) * 2012-03-26 2013-09-26 Microsoft Corporation Profile data visualization
IN2014MN02601A (ja) 2012-06-04 2015-07-24 Tel Hashomer Medical Res Infrastructure & Services Ltd
EP2690596B1 (en) 2012-07-24 2018-08-15 Agfa Healthcare Method, apparatus and system for automated spine labeling
US9256962B2 (en) 2013-01-23 2016-02-09 Orca Health Inc. Personalizing medical conditions with augmented reality
CN105051783A (zh) 2013-03-15 2015-11-11 S·利特尔 通过与其它个体的影像进行比较来评价电磁影像
US10176579B2 (en) 2013-03-15 2019-01-08 Ventana Medical Systems, Inc. Tissue object-based machine learning system for automated scoring of digital whole slides
US11278353B2 (en) * 2016-03-16 2022-03-22 Synaptive Medical Inc. Trajectory alignment system and methods
US9129362B2 (en) 2013-05-22 2015-09-08 Siemens Aktiengesellschaft Semantic navigation and lesion mapping from digital breast tomosynthesis
US9471987B2 (en) * 2013-08-09 2016-10-18 Siemens Healthcare Gmbh Automatic planning for medical imaging
US9235781B2 (en) * 2013-08-09 2016-01-12 Kabushiki Kaisha Toshiba Method of, and apparatus for, landmark location
DE102013218437A1 (de) 2013-09-13 2015-03-19 Siemens Aktiengesellschaft Verfahren zur automatischen oder halb-automatischen Segmentierung und Vorrichtung
US9700219B2 (en) 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US9730643B2 (en) 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US20150164605A1 (en) 2013-12-13 2015-06-18 General Electric Company Methods and systems for interventional imaging
WO2015104607A1 (en) 2014-01-07 2015-07-16 Koninklijke Philips N.V. Ultrasound imaging modes for automated real time quantification and analysis
WO2015109254A2 (en) 2014-01-17 2015-07-23 Morpheus Medical, Inc. Apparatus, methods and articles for four dimensional (4d) flow magnetic resonance imaging
KR20150108701A (ko) 2014-03-18 2015-09-30 삼성전자주식회사 의료 영상 내 해부학적 요소 시각화 시스템 및 방법
US9990743B2 (en) * 2014-03-27 2018-06-05 Riverain Technologies Llc Suppression of vascular structures in images
US11232319B2 (en) 2014-05-16 2022-01-25 The Trustees Of The University Of Pennsylvania Applications of automatic anatomy recognition in medical tomographic imagery based on fuzzy anatomy models
KR101908520B1 (ko) 2014-06-09 2018-10-16 지멘스 메디컬 솔루션즈 유에스에이, 인크. 메디컬 이미징에서 공간 및 시간 제약들을 이용하는 랜드마크 검출
GB2528249B (en) 2014-07-11 2019-03-06 Siemens Medical Solutions Usa Inc Automatic background region selection for lesion delineation in medical images
KR101579740B1 (ko) 2014-09-01 2015-12-23 삼성메디슨 주식회사 초음파 진단장치, 그에 따른 초음파 진단 방법 및 그에 따른 컴퓨터 판독 가능한 저장매체
US9779505B2 (en) 2014-09-30 2017-10-03 Toshiba Medical Systems Corporation Medical data processing apparatus and method
US10068340B2 (en) 2014-11-03 2018-09-04 Algotec Systems Ltd. Method for segmentation of the head-neck arteries, brain and skull in medical images
US9633306B2 (en) 2015-05-07 2017-04-25 Siemens Healthcare Gmbh Method and system for approximating deep neural networks for anatomical object detection
EP3295374B8 (en) * 2015-05-11 2023-10-18 Siemens Healthcare GmbH Method and system for landmark detection in medical images using deep neural networks
CN105139454B (zh) * 2015-08-06 2018-01-19 北京工业大学 一种三维ct图像中肝脏三维感兴趣区域的自动提取方法
US10413366B2 (en) * 2016-03-16 2019-09-17 Synaptive Medical (Bardbados) Inc. Trajectory guidance alignment system and methods

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153194A (ja) * 1994-11-29 1996-06-11 Hitachi Medical Corp 画像処理装置
JP2003533785A (ja) * 2000-05-09 2003-11-11 シーメンス アクチエンゲゼルシヤフト 画像中の物体を求めるための方法および装置
JP2003296737A (ja) * 2002-03-15 2003-10-17 Microsoft Corp パターン認識を容易にするシステムおよび方法
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2008017997A (ja) * 2006-07-12 2008-01-31 Hitachi Medical Corp 手術支援ナビゲーションシステム
JP2011500217A (ja) * 2007-10-19 2011-01-06 ボストン サイエンティフィック サイムド,インコーポレイテッド 分類器出力及び画像中の信頼性測度の表示
JP2010017556A (ja) * 2008-07-11 2010-01-28 General Electric Co <Ge> 対象物に対して超音波プローブを可視化するためのシステムおよび方法
JP2015523874A (ja) * 2012-05-31 2015-08-20 コーニンクレッカ フィリップス エヌ ヴェ 定量的評価のための方法、システム及び記憶媒体
JP2014213202A (ja) * 2013-04-22 2014-11-17 株式会社東芝 医用画像処理装置、医用画像処理方法および医用画像処理プログラム
WO2015092582A1 (en) * 2013-12-20 2015-06-25 Koninklijke Philips N.V. Automatic ultrasound beam steering and needle artifact suppression
JP2016190032A (ja) * 2015-03-30 2016-11-10 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. 超音波イメージングにおける3次元関心ボリューム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022526575A (ja) * 2019-04-02 2022-05-25 コーニンクレッカ フィリップス エヌ ヴェ 超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法
JP7462672B2 (ja) 2019-04-02 2024-04-05 コーニンクレッカ フィリップス エヌ ヴェ 超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法
JP2022528491A (ja) * 2019-04-17 2022-06-13 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7279817B2 (ja) 2019-04-17 2023-05-23 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2021058232A (ja) * 2019-10-02 2021-04-15 コニカミノルタ株式会社 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置
US11842808B2 (en) 2019-10-02 2023-12-12 Konica Minolta, Inc. Ultrasound diagnostic imaging training apparatus, ultrasound diagnostic imaging apparatus, identification model training method, non-transitory recording medium storing computer readable training program, and ultrasound diagnostic apparatus
JP7427902B2 (ja) 2019-10-02 2024-02-06 コニカミノルタ株式会社 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置
WO2022080184A1 (ja) 2020-10-16 2022-04-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の表示方法

Also Published As

Publication number Publication date
RU2017142603A (ru) 2019-08-07
EP3549103A1 (en) 2019-10-09
BR112018000197A2 (pt) 2018-09-11
CA2989159C (en) 2021-12-28
KR101886990B1 (ko) 2018-08-08
CN109074665B (zh) 2022-01-11
MX2017017142A (es) 2018-11-09
KR101949114B1 (ko) 2019-02-15
JP6796085B2 (ja) 2020-12-02
RU2017142603A3 (ja) 2019-08-07
US10657671B2 (en) 2020-05-19
EP3549103B1 (en) 2021-08-04
KR20180116226A (ko) 2018-10-24
CN109074665A (zh) 2018-12-21
US20190355149A1 (en) 2019-11-21
WO2018101985A1 (en) 2018-06-07
CA2989159A1 (en) 2018-03-05

Similar Documents

Publication Publication Date Title
JP6796085B2 (ja) 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法
US20230044419A1 (en) Optimizing checkpoint locations along an insertion trajectory of a medical instrument using data analysis
WO2021011668A1 (en) Augmented reality system and method for tele-proctoring a surgical procedure
CN113966204B (zh) 为医疗介入自动规划轨迹的方法
AU2018214141B2 (en) System and method for navigation to a target anatomical object in medical imaging-based procedures
US20200029941A1 (en) Articulating Arm for Analyzing Anatomical Objects Using Deep Learning Networks
US20210059758A1 (en) System and Method for Identification, Labeling, and Tracking of a Medical Instrument
US11766234B2 (en) System and method for identifying and navigating anatomical objects using deep learning networks
US20210322101A1 (en) Automated pre-operative assessment of implant placement in human bone
EP3877988A1 (en) System and method for optical tracking
US20230363821A1 (en) Virtual simulator for planning and executing robotic steering of a medical instrument
Zagzoog Feasibility of Skull Base Neuronavigation Using Optical Topographic Imaging Toward Guidance of Human and Robotic Drill Operators
WO2022254436A1 (en) Closed-loop steering of a medical instrument toward a moving target

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A525

Effective date: 20171208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171211

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190717

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190724

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190730

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190823

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20190827

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200107

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200407

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200414

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200923

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201027

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201113

R150 Certificate of patent or registration of utility model

Ref document number: 6796085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150