JP2023552645A - リードの癒着の推定 - Google Patents

リードの癒着の推定 Download PDF

Info

Publication number
JP2023552645A
JP2023552645A JP2023535691A JP2023535691A JP2023552645A JP 2023552645 A JP2023552645 A JP 2023552645A JP 2023535691 A JP2023535691 A JP 2023535691A JP 2023535691 A JP2023535691 A JP 2023535691A JP 2023552645 A JP2023552645 A JP 2023552645A
Authority
JP
Japan
Prior art keywords
blood vessel
lead
machine learning
learning algorithm
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023535691A
Other languages
English (en)
Inventor
アシシュ サトヤヴラト パンセ
グジェゴジ アンドレイ トポレク
ナタン シー フランシス
ヨヘン クルエッカー
モリー ララ フレックスマン
アユシ シンハ
ジェフ サイモン
レイリ サレヒ
ラモン クィド エレカンプ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP21157912.3A external-priority patent/EP4015035A1/en
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2023552645A publication Critical patent/JP2023552645A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/372Arrangements in connection with the implantation of stimulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0036Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/056Transvascular endocardial electrode systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/056Transvascular endocardial electrode systems
    • A61N1/057Anchoring means; Means for fixing the head inside the heart
    • A61N2001/0578Anchoring means; Means for fixing the head inside the heart having means for removal or extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/100764D tomography; Time-sequential 3D tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Vascular Medicine (AREA)
  • Cardiology (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Urology & Nephrology (AREA)

Abstract

リードのセクションが血管に癒着しているかどうかを決定する方法が提供される。この方法は、内側にリードを有する血管に対応するデータを取得するステップと、血管に対応するデータからリードに対応する動きベクトルを決定するステップとを含む。動きベクトルは、動きベクトルと、リードのセクションが血管に癒着しているかどうかとの相関関係を学習し、リードのセグメントの癒着レベルを出力するようにトレーニングされた機械学習アルゴリズムに入力される。

Description

本開示は、埋め込み型心臓デバイスの除去の分野に関する。特に、本開示は、心臓デバイスのリードが血管壁に癒着しているかどうかを推定することに関する。
ペースメーカや除細動器などの外科的に埋め込まれた心臓デバイスの抽出は、誤動作や感染の場合など、特定の条件下で必要になることがある。このようなデバイスの除去は、潜在的に高リスクの手順ということになる。
特に、一般的にリードと呼ばれる1本以上ワイヤが、通常、パルス信号発生器などの制御ユニットから心臓まで配線される。ペースメーカでは、これらのリードを使用すると、デバイスが一連の電気パルスを送達することで心拍数に影響を与える。一方、除細動器では、リードを使用して、危険な細動状態を中断するために高エネルギーパルスが心臓に送達される。
リードは、通常、静脈を通って心臓に到達する。通常、リードの先端は、例えば、タイン、ネジ、又はフックによって、また、埋め込みの後の数か月後は、瘢痕組織によって、心筋に固定される。
ペースメーカや除細動器のリードの抽出は、単純なシース、レーザーベースの抽出デバイス、回転式機械的切断デバイスなど、様々なツールによって行われる。
より一般的には、ほとんどの心臓血管埋め込み型電子デバイス(CIED)は、現在、発生器を心臓組織に接続するリードを使用している。リードの故障、発生器の交換、感染などCIEDに直接影響を与える臨床条件を考えると、リード管理は重要な問題である。
年間約150万台の埋め込み型心臓デバイスが設置されている。最近の技術進歩により、特定のグループで使用されるCIEDの経静脈リード又は心外膜リードは不要になったが、ペースメーカ又はICDリードの誤動作やリコール、デバイスのアップグレード若しくは再置換、静脈閉塞、インプラント部位(ポケット)感染、血液感染、放置されたリードの存在によるMRI禁忌、又は個人的な好みや更なる症状がないために患者がシステムを除去したいと望むことなど、様々な理由でリード管理は重要なままである。
心臓CTイメージングは、通常、血管又は心外リードの位置決めを評価し、潜在的に静脈癒着部位を特定するために実行される。蛍光透視法は、通常、静脈閉塞又は狭窄の部位を特定し、リードの可動性及び癒着の領域を評価するために使用される。
リードの抽出は、SpectraneticsのGuideLightやTightRailなどのツールを使用して実行される。これらのツールはリード上を進み、機械式の切断先端又はレーザ切断先端を使用して、血管や瘢痕組織からリードを分離する。手順中、医師はデバイスからの触覚フィードバックに依存してリードの癒着状態を判断する。
リードの癒着を判断するために使用される術前CTは、金属アーチファクトの影響を受ける。金属アーチファクトにより、血管内リードの位置決めを判断する診断精度が低下する。リード抽出手順中、特に上大静脈(SVC)付近で血管が裂ける危険性がある。医師が抽出手順中に癒着に関する情報をより多く得ることができれば、これを回避できる場合がある。
Holm Mikayle他による「Algorithm for the analysis of pre-extraction computed tomographic images to evaluate implanted lead-lead interactions and vascular-lead attachments」(Heart Rythem Elsevier、第16巻、第6号、2020年1月、1009~1016ページ(XP086163544)は、CT画像をセグメント化することによるリード及び上大静脈(SVC)の3Dレンダリングの作成について開示している。リードとSVC上の最も近いポイントと間の距離が時間の経過と共に追跡され、一定の非常に短い距離が見つかった場合には、リードの癒着が想定される。
そのため、血管内のリードの癒着を決定する方法を改善する必要がある。更に、抽出操作中に血管内のリードの癒着レベルを決定する方法が必要である。
本開示の態様は、リードのセクションが血管に癒着しているかどうかを決定するデバイス、システム、方法、及びコンピュータプログラムを提供し、これらは、特許請求の範囲によって定義される発明である。
本開示の一態様による実施例によれば、リードのセクションが血管に癒着しているかどうかを決定する方法が提供される。本方法は、
血管に対応するデータを受信又は取得するステップであって、血管は内側にリードがある、受信又は取得するステップと、
血管に対応するデータからリードに対応する動きベクトルを決定するステップと、
動きベクトルを機械学習アルゴリズムに入力するステップとを含み、
機械学習アルゴリズムは、動きベクトルと、リードのセクションが血管に癒着しているかどうかとの相関関係を学習するようにトレーニングされており、
機械学習アルゴリズムは、入力された動きベクトルに基づいて、リードのセグメントの癒着レベルを出力するように構成されている。
血管に対応するデータは、好ましくは、ただし、必ずそうある必要はないが、少なくとも2つの異なる角度からの2つ以上の2D画像を含む。2D画像は、例えば、2~20の心拍又は2~10の呼吸サイクルなど、いくつかの心拍及び/又は呼吸サイクルの短い期間にわたって必要である。機械学習アルゴリズムは、血管系のモデルを必要としないが、リードの異なるセグメントにおける動きベクトルからリードの癒着を決定できる。動きベクトルは、2D画像から抽出できる。
データの受信又は取得は、入力インターフェースを使用して行うことができ、結果データの出力は、出力インターフェースを使用して行うことができる。決定ステップ及び処理ステップは、本明細書に説明されるようにプロセッサを使用して行われる。本方法はコンピュータ実施方法である。
血管内を動くリードを観察することによって、リードが血管に癒着しているかどうかをユーザが推定できることがわかっている。しかし、これには経験や動いているリードを確認するために使用する異なる視野角の知識が必要である。場合によっては、リードは、視野面に対して横に動くことがあるため、動きを見ることができない。
血管に対応するデータは、好ましくは、血管の画像を含む。或いは(又は更に)、このデータは、光ファイバリアルシェイプ(FORS)、電磁追跡、又は同様の方法を介して取得された血管及び内側のリードの情報を含んでいてもよい。
内側にリードがある血管の画像は、血管、血管の付近の組織、及びリードに関する情報を多く含む。2つの画像が異なる時間に取得された場合、これらの2つの画像は、時間の経過に伴う血管、組織、及びリードの動きによって異なる。
画像間の変化は、動きベクトルによって定量化できる。実際、動きベクトルは、画像内のオブジェクト(血管、組織、及びリード)による動きにも関連している。
発明者は、動きベクトルが、リードの動きに関する全ての必要な情報を含む一方で、画像内の不要な情報(例えば、色、形状など)は排除することを認識している。したがって、動きベクトルと、リードが血管の壁に癒着しているかどうかとのパターンを学習するように、機械学習アルゴリズムを効果的にトレーニングできる。
機械学習アルゴリズムは、リードのセグメントの癒着レベル(又は癒着のレベル)を出力する。つまり、癒着レベルは、リードのセグメントが血管に癒着する可能性に対応する。場合によっては、癒着レベルは、バイナリ分類(即ち、はい/いいえ)である。しかし、他の場合では、癒着レベルは、癒着の確率を示す。又は、別の実施例では、癒着レベルは、癒着の重症度又は癒着の石灰化のレベルを示す。
付着(adherence)及び癒着(adhesion)は、本コンテキストでは、交換可能に使用され、リードと血管との望ましくない物理的な接続を指す。
リードのセグメントとは、画像内に可視であるリードのある領域(又はボリューム)を完全に含む事前定義されたサイズの領域(又はボリューム)を指す。例えば、セグメントは、単一のピクセルであっても、10×10個のピクセルのグループであってもよい。或いは、セグメントの各々には、単一の(又は複数の)動きベクトルが含まれていてもよい。セグメントのサイズは任意であり、利用可能な処理リソース及び/又は機械学習アルゴリズムの特定のトレーニングによって異なる。
動きベクトルは、2D動きベクトルであってもよい。2D動きベクトルは、ベクトル及び/又は非ベクトルパラメータ化形式を有する。パラメータ化は、x/y平行移動、平行移動の方向及び大きさ、四元数、行列、指数写像、ベクトル場の形式を有し得る。
発明者は、リードの2Dでの動きが、血管へのリードの癒着に相関していることを認識している。したがって、発明者は、2Dでの動きと、リードと血管との癒着のレベルとの相関関係を学習するように機械学習アルゴリズムをトレーニングした。2Dでの動きは、2D動きベクトルによって与えられ、これらは、血管の画像から決定される。
2D動きベクトルを入力として機械学習アルゴリズムを使用すると、ユーザは、3Dイメージングモダリティを厳密に必要とすることなく、リードが血管に癒着しているかどうかを決定できる。2D動きベクトルは、2Dイメージングから決定できる。
更に、2D動きベクトルを機械学習アルゴリズムに入力することによって、フル画像を入力する必要がなくなる。これにより、機械学習アルゴリズムに入力されるデータ全体が低減されるので、癒着レベルを決定する速度が向上される。例えば、これにより、癒着レベルの決定をリアルタイムで行ったり、及び/又は、機械学習アルゴリズムの複雑さを上げたり(これにより精度が上がる)することができる。
血管の画像は、2D画像であってもよい。
リードが血管に癒着しているかどうかを決定することは、通常、CTスキャンなどの3Dイメージングモダリティで行われる。したがって、リード及び血管の動きが3D空間で可視化され、ユーザは、血管へのリードの癒着があるかどうかを決定できる。しかし、これには、3Dイメージングや、可視化が難しく、解析に時間のかかる3D空間での解析が必要である。
発明者は、2D画像から取得した動きベクトルも、血管の壁への癒着レベルに相関していることを認識している。したがって、3Dイメージングモダリティは不要となり、画像を取得するワークフローを削減できる。
血管画像の取得は、2D蛍光透視法及び/又は2D静脈造影法に基づいていてもよい。
蛍光透視法及び/又は静脈造影法は、通常、被検者からのリードの除去のための操作中(即ち、術中)に使用される。したがって、これらのイメージングモダリティから取得される画像を使用して、術前及び/又は術中のイメージングを必要とすることなく、癒着レベルを決定できる。
機械学習アルゴリズムへの更なる入力は、血管の画像であってもよい。機械学習アルゴリズムは、X線画像を入力として取り込むこともできる。X線画像(又は静脈造影画像といったロードマップ画像)は、血管及び/又は任意の解剖学的な動きに関する追加の情報を含み、機械学習アルゴリズムは、この情報を使用して、リードと血管の動きとの有用な相関関係を見つける。
例えば、可能な入力セットは複数ある。即ち、動きベクトルのみ(推奨)、又は動きベクトルと現在の画像若しくは画像シーケンス(例えば、蛍光透視画像及び静脈造影画像の組み合わせ)である。
或いは、機械学習アルゴリズムは、例えば、静脈造影画像のみから動きベクトルを決定する動きベクトル層を含んでいてもよい。この場合、機械学習アルゴリズムは、動きベクトルを決定し、その動きベクトルから癒着レベルを決定できる。
機械学習アルゴリズムは更に、セグメントと、それらのそれぞれの癒着レベルとに基づいて、癒着の位置を出力してもよい。癒着部位の位置特定は、癒着レベルを決定するときに重要な側面である。セグメントは、黙示的に相互に相対的な場所を有しているので、機械学習アルゴリズムは、(例えば3つのセグメントにわたる)癒着の場所を癒着の位置として出力することもできる。或いは、機械学習アルゴリズムは、血管の画像上に、癒着を示す癒着レベルと共にセグメントを出力してもよく、これにより、血管の癒着の位置が示される。
機械学習アルゴリズムは更に、推奨視野角を出力でき、この推奨視野角で撮影された血管の画像は、正確な動きベクトルを提供する可能性がある。
機械学習アルゴリズムは、
畳み込みニューラルネットワーク、
多層パーセプトロン、
サポートベクターマシン、
決定木モデル、
多変数回帰モデル、又は
これらの組み合わせに基づいていてもよい。
上記の方法は更に、血管の画像上に対応する動きベクトルと共に癒着レベルを表示するステップを含んでいてもよい。
癒着レベルは、バイナリ分類又は癒着範囲に基づいていてもよい。
本開示はまた、コンピュータプログラムコード手段を含むコンピュータプログラム製品を提供する。コンピュータプログラムコード手段は、処理システムを有するコンピューティングデバイス上で実行されると、処理システムに、リードのセクションが血管に癒着しているかどうかを決定する上記方法の全てのステップを実行させる。
本開示はまた、リードのセクションが血管に癒着しているかどうかを決定するシステムを提供する。本システムは、
血管に対応するデータを受信又は取得する入力インターフェースであって、血管は内側にリードがある、入力インターフェースと、
プロセッサであって、
血管に対応するデータからリードに対応する動きベクトルを決定することと、
動きベクトルを機械学習アルゴリズムに入力することであって、
機械学習アルゴリズムは、動きベクトルと、リードのセクションが血管に癒着しているかどうかとの相関関係を学習するようにトレーニングされており、
機械学習アルゴリズムは、リードのセグメントの癒着レベルを出力する、入力することと、
を実行するプロセッサとを含む。
入力インターフェースは、プロセッサと通信可能に結合され、プロセッサは、出力インターフェースと通信可能に結合される。
上記のシステムは更に、血管の画像を取得し、画像をインターフェースに送出するイメージングデバイスを含んでいてもよい。
イメージングデバイスは、2D画像を取得する2Dイメージングデバイスであり得る。
イメージングデバイスは、2D蛍光透視画像及び/又は2D静脈造影画像を取得できる。
上記のシステムは更に、可視及び/又は可聴形式で、ユーザに癒着レベルを提供するユーザインターフェースを含んでいてもよい。好ましいユーザインターフェースには、少なくとも癒着レベルを、好ましくは、血管の画像、動きベクトル、及び/又は対応する癒着レベルと一緒に表示するディスプレイが含まれる。
本開示はまた、血管内のリードに対応する動きベクトルと、リードのセクションが血管に癒着しているかどうかとの相関関係を学習するために機械学習アルゴリズムをトレーニングする方法を提供する。本方法は、
内側にリードがある血管に対応する第1のデータセットを取得するステップと、
血管に対応する第1のデータセットのグラウンドトゥルースを決定するステップであって、グラウンドトゥルースは、リードが血管に癒着しているかどうか及び癒着の場所を定義する、決定するステップと、
内側にリードがある血管に対応する第2のデータセットを取得するステップであって、第2のデータセットは、血管内の第1のデータセットと同じ解剖学的場所で取得される、取得するステップと、
血管に対応する第2のデータセットからリードに対応する動きベクトルを決定するステップと、
動きベクトルを機械学習アルゴリズムに入力するステップであって、機械学習アルゴリズムは、リードのセグメントの癒着レベルを出力するように構成されている、入力するステップと、
機械学習アルゴリズムによって出力された癒着レベルと、対応するグラウンドトゥルースとを比較し、癒着レベルとグラウンドトゥルースとの比較に基づいて誤差を決定するステップと、
誤差に基づいて機械学習アルゴリズムのパラメータを適応させるステップとを含む。
第1のデータセットは、CT画像である。これは、正確なグランドトゥルースを取得することが(他のデータモダリティと比べて)比較的簡単なためである。第2のデータセットは、2DのX線画像又は静脈造影画像である。或いは、第1及び第2のセットの両方は、2DのX線画像の同じセット(又は異なるデータタイプの同じセット)であってもよい。第2のデータセットは、機械学習アルゴリズムが学習するデータタイプである。第1のデータセットは、グランドトゥルースを決定するためだけのものである。
第1のデータセットは、リード抽出手順から取得される。グラウンドトゥルースは、リード抽出手順からのデータに注釈(即ち、リードに沿った異なるセグメントでリードの癒着が発生した(はい/いいえ))を付けることで得られる。
第1のデータセットは、以前のリード抽出手順から、電磁追跡又はFORSなどの空間センシング技術から取得される。
第1のデータセットは、以前のリード抽出手順の目視検査から取得される。
癒着レベルとグランドトゥルースとの比較は、交差エントロピ損失関数(バイナリ分類タスクに典型的に使用される)に基づくか、又は、確率的勾配降下法を実行することによるものであり得る。
機械学習アルゴリズムのパラメータは、機械学習アルゴリズムの入力を機械学習アルゴリズムの出力にマップする重みのセットであってもよい。
本開示のこれら及び他の態様は、以下に説明される実施形態から明らかになり、また、当該実施形態を参照して説明される。
本開示の例示的な実施形態及び実施例については、添付の概略図を参照して説明する。
図1は、血管内に以前に埋め込まれた心臓リードを有する血管の画像を示す。 図2は、内側にリードを有する血管内の画像であって、動きベクトルはリードに対応している、画像を示す。 図3は、リードの癒着レベルを決定するための機械学習アルゴリズムの入力及び出力を示す。 図4は、機械学習アルゴリズムによって出力されたセグメントを有する血管の画像を示す。 図5は、機械学習アルゴリズムのアーキテクチャ例を示す。 図6は、機械学習アルゴリズムで使用されるトレーニングデータの例を示す。 図7は、トレーニングに使用する2本のリードを有する血管のCT画像を示す。 図8は、機械学習アルゴリズムのトレーニング方法例を示す。 図9は、本開示の実施形態に従って定義される処理システムの図を示す。 図10は、例えば、図9のような本明細書に説明される処理システムを含むイメージングシステムを示す。
本開示の原理をより深く理解し、それがどのように実行されるかをより明確に示すために、ほんの一例として添付の図面を参照して説明される実施形態を参照する。
詳細な説明及び具体的な実施例は、装置、システム及び方法の模範的な実施形態を示しているが、例示のみを目的としたものであり、本開示の範囲を限定することを意図したものではない。本開示の装置、システム、及び方法のこれら及び他の特徴、態様並びに利点は、次の説明、添付の特許請求の範囲、及び添付の図面からより深く理解されるようになるであろう。図は単なる概略図であり、縮尺どおりに描かれていない。図全体で同じ参照番号を使用して、同じ部分又は類似の部品を示す。
本開示は、リードのセクションが血管(例えば、血管の内壁のセクション)に癒着しているかどうかを決定する方法を提供する。この方法は、内側にリードを有する血管に対応するデータ(好ましくは、血管の画像)を取得し、血管に対応するデータからリードに対応する動きベクトルを決定することを含む。動きベクトルは、動きベクトルと、リードのセクションが血管に癒着しているかどうかとの相関関係を学習し、リードのセグメントの癒着レベルを出力するようにトレーニングされた機械学習アルゴリズムに入力される。
図1は、血管102内に以前に埋め込まれた心臓リード104を有する血管102の画像を示している。図1(a)は、リード104がある血管102の画像を示し、図1(b)は、血管内102でのリード104の可能な動きがある血管102の画像を示している。
図1(b)の破線106は、リード104が血管102内で移動できる極値を示している。これは、例えば、血管102のX線イメージング又はCTスキャンで観察できる。リード104の動きは、例えば、被検者の心拍、被検者の呼吸、又は血管内の血流に起因する。この動きはまた、例えば、医師が実施した手順中に部品を操作することによってもたらされるようなものなど、リード104との術中の相互作用によっても誘発される。
血管102にも動き範囲(図示せず)がある。リード104が血管102の壁に癒着していない場合、リード104の動きは、血管102の動きとほとんど相関しない。図1は、リードが血管102の壁に癒着している2つの領域を示している。この場合、リード104は、血管102の動きにつれて動く。リード104が血管102の壁に付着していない他のセグメントでは、リード104の動きはより複雑な動きになる。この動きの範囲は、図1(b)のリード104の周りの破線106によって定義される。
リード104が血管102の壁に癒着している場合、リード104が血管102に癒着しているポイントでは血管102に対する動きが観察されることはほとんどない。血管102内でのリード104の動きは、動きベクトルを使用して定量化できる。
図2は、内側にリード104を有する血管102の画像であって、動きベクトル202は、リード104に対応している画像を示している。動きベクトル202は、血管102内でのリード104の全体的な動きの方向と大きさとを描写するベクトルである。図2では、血管102は静止しているように描写されているが、場合によっては、例えば、血管102の動きベクトルも決定することによって、血管に対する動きベクトル202を決定する必要がある。
リード104は、例えば、閾値化法、マルチスケールリッジ検出法(又はヘッセン(hessian)ベースのベッセルレスフィルタなどの変形例)、アクティブ輪郭法、又はセグメンテーションなどの深層学習ベースの方法(例えば、U-netアーキテクチャ)を使用して、画像内で識別される。リード104を識別するための他の方法は、当業者に知られているであろう。
実施例では、埋め込まれたリード104が、蛍光透視画像において可視であり、場合によっては、より厚い血管壁も可視である。血管102に対する動きベクトル202は、血管102にコントラストがある蛍光透視画像から導出される。動きベクトル202は、ピクセルベース(即ち、直接)又は特徴ベース(即ち、間接)の動きベクトル推定方法を使用して蛍光透視画像シーケンスから導出される。また、深層学習ベースの方法を使用して動きベクトルを計算することもできる。動きベクトル202を決定する方法は、当業者に知られているであろう。
例えば、P.H.S Torr及びA.Zissermanの記事「Feature Based Methods for Structure Motion Estimation」、並びにM.Irani及びP.Anandanの「All About Direct Methods」(どちらもwww.robots.ox.ac.ukから入手可能)に例が記載されている。
或いは、リード画像は、電磁センシング、光ファイバリアルシェイプ(FORS)、又は同様の技法などのセンシング技術から得ることもできる。
リード104の動きベクトル202は、複数の異なる角度から取得した2D蛍光透視画像を使用して、3Dで得ることができる。典型的なリード抽出の場合、2D蛍光透視画像を複数の角度から取得して、リード104の屈曲部を視覚化する。2D蛍光透視画像を使用して、2D蛍光透視画像からセグメント化されたリード104を逆投影することにより、リード104が3Dで再構成される。2つの角度からの2Dデータによって、例えば、2つの異なる角度の画像から2D動きベクトルを抽出し、それらを組み合わせて3D動きベクトルを得ることによって、3D動きベクトルが構成される。3D動きベクトルを使用すると、機械学習アルゴリズムが癒着のレベルを分類するための情報がより多く提供される。このアプローチでは、時系列のCTスキャン(即ち、4D CT-3D画像の時間におけるシーケンス)から得られる3D動きベクトルの決定と比較して、癒着のレベルを簡単に決定できる。
図3は、リード104の癒着レベル310を決定するための機械学習アルゴリズム302の入力及び出力を示している。リード104の動きベクトル202が、機械学習アルゴリズム302への入力である。機械学習アルゴリズム302は、リード104の動きベクトル202と、リード104が血管102の壁に癒着しているかどうかとのパターン/相関関係を学習するようにトレーニングされている。そして、機械学習アルゴリズム302は、リード104の癒着レベル310を出力する。
血管102の動きベクトルも機械学習アルゴリズム302に入力される。或いは(又は更に)、血管の画像又は血管の静脈造影図が入力されてもよい。これらは、機械学習アルゴリズムに、血管102の動きに関する知識を与える。
図3では、癒着レベル310は、リード104の異なるセグメント304、306、308のバイナリ選択として示されている。例えば、セグメント304、306、308は、セグメント内の動きベクトル202の数に基づいているか、事前定義されたサイズに基づいている。機械学習アルゴリズム302は、セグメント304及び306を「癒着」として出力し、残りのセグメント308(破線で示す)を「非癒着」として出力する。
或いは、機械学習アルゴリズム302は、各セグメント304、306、308の確率範囲を出力してもよい。更に、機械学習アルゴリズム302は、入力と同じ動きベクトル202を出力するが、各動きベクトル202の追加の癒着レベル変数と共に出力してもよい。例えば、機械学習アルゴリズム302は、異なる色(例えば、緑は「非癒着」を定義し、オレンジは「癒着」を定義する)で動きベクトル202を出力する。
或いは、癒着レベル310の視覚化は、リード104に沿った色勾配であってもよく、リード104の全てのセグメント304、306、308が血管102の壁に癒着している確率が示される。また、視覚化は、リード104上の治療デバイスの先端の場所と、その先端がどのゾーン内にあるかとに基づいていてもよい(つまり、不要なクラッタを回避するためにリード104の特定の部分のみを視覚化する)。情報のクラッタを低減することができるため、機械的アテローム切除デバイスなどの治療デバイスが癒着部位の近くにあるときにのみ、癒着レベル(色分け)が有利に視覚化される。
セグメント304、306、308のサイズは、ピクセルのサイズ(解像度によって異なる)又は事前定義された幅/高さのピクセル数である。
要するに、機械学習アルゴリズム302は、血管102の壁に癒着したリード104のセグメント304、306、308を識別する。これは、リード抽出中の血管の破裂を回避し、レーザ又は機械的なリード抽出デバイスのいずれかを選択し、及び/又はリード抽出手順をスピードアップするために使用できる。
図4は、機械学習アルゴリズム302によって出力されたセグメント304、306、308を有する血管102の画像を示している。癒着レベルが「癒着」であるセグメント304及び306は、血管102の壁に接触しているリード104のポイント上/近接に表示され、したがって、それらが癒着していることが識別される。
リード104が血管102の壁に付着している場所をユーザに示すために、機械学習アルゴリズム302の出力を、血管102の画像(例えば、動きベクトル202を決定するために使用された元の画像)に重ね合わせることができる。動きベクトル202も表示されてもよい。
図5は、機械学習アルゴリズム302のアーキテクチャ例を示している。機械学習アルゴリズム302への入力502は、血管102に埋め込まれたリード104の動きベクトル202であり、出力は、リード104に沿ったセグメント304、306、308の癒着レベル310のバイナリ指標である。機械学習アルゴリズム302は、畳み込みニューラルネットワーク(CNN)であり、最後の層506としてソフトマックス活性化関数を使用している。使用されるソフトマックスの損失関数は、ログ損失関数である。他の実施例では、活性化関数はシグモイド活性化関数又は他の非線形活性化関数であり、特にネットワークが回帰タスクを実行する場合、例えば、癒着部位の石灰化の重症度又はレベルを予測する。例えば、整流線形ユニット(ReLU)関数が使用される。
中間層504、506の数は、使用する特定の実装態様に依存する。例えば、各層で使用される関数、入力から出力までの合計時間(CNNはリアルタイムで使用される場合がある)、又はCNNの設計者の特定の設計選択に依存する。CNNは、典型的には、3つ以上の中間層504、506で構成され、各層は畳み込み操作、バッチ正規化、ドロップアウト、プーリング操作、及び/又は非線形活性化で構成される。
例えば、静脈造影画像又は蛍光透視画像から動きベクトル202が計算され、CNNに入力される。CNNは、癒着又は非癒着として、リード104に沿ってセグメント304、306、308のバイナリ分類を出力する。クラスは、CNNによって生成されたロジットから決定される。ロジットは、活性化関数(例えば、シグモイド)に渡され、0~1の値にマップされる。閾値(0.5など)を使用してクラスを決定できる。
或いは、CNNによって出力される癒着レベル310は、CNNによって生成された値が[0,1]の範囲で示される、リード104に沿った色勾配であってもよい(例えば、スムーズカラーマップ)。これらの値は、リードの各ポイントが血管102の壁に癒着している確率として大まかに解釈される。
また、静脈造影画像のみを使用するCNNが使用されてもよい。ここでは、静脈造影画像フレームだけでなく動きベクトル202もCNNに入力される。血管102は静脈造影画像内で可視である、血管102から動きベクトル202を抽出できるだけでなく、CNNは、その予測を支援するために、リード104が組織に囲まれているかどうかを観察することで学習できる。したがって、CNNは、血管/リードの動きと解剖学的特徴の両方から手がかりを学習し、リード104の癒着を予測する。解剖学的なコンテキストは特に有用である。これは、例えば、ほとんどの被検者では、リード104が鎖骨下静脈の近くの血管102の壁に癒着していることがよく知られているためである。
或いは、一方向の非コントラスト強調蛍光透視画像のみを使用するCNNを使用してもよい。低心拍数時に1回、また、運動、投薬、又はペーシングデバイスによる心拍数変更によって誘発された心拍数増加時に画像シーケンスを撮影できる。非癒着領域に対応する動きベクトル202は、癒着領域よりも多くのパターン変化を示す。
或いは、機械学習アルゴリズム302は、多層パーセプトロン(MLP)、サポートベクターマシン(SVM)、決定木(ランダムフォレスト)モデル、多変数回帰(線形又はロジスティック回帰)、又はこれらの組み合わせであってもよい。
更に、機械学習アルゴリズム302は、リード104の見かけの動きを最大化するために、最適な視野角を出力することもできる。これは、異なる視野角における同じリード104の複数の動きベクトル202を観察することによってトレーニングされた機械学習アルゴリズム302によって実現できる。この場合、機械学習アルゴリズム302は、ユーザが更なる動きベクトル202を得ることができる視野角の提案を出力できる。
上記の機械学習アルゴリズム302を使用したシステムの例としては、X線を生成するX線管と、X線画像を取得するX線検出器とを有する介入X線システムが挙げられる。このようなX線システムの例としては、固定CアームX線システムや移動式X線システムがある。
次に、プロセッサを使用して、X線画像から抽出するリード104の長さに沿った動きベクトル202を計算する。動きベクトル202は、(例えば、新しいフレーム/フレームセットごとに)異なる時間とリード104の長さに沿って決定できる。
次に、プロセッサは、動きベクトル202を機械学習アルゴリズム302に入力する。機械学習アルゴリズム302は、リードに沿ったセグメント304、306、308を、例えば、癒着ポケット304、306、及び非癒着ポケット208として分類する。
機械学習アルゴリズムのトレーニング
機械学習アルゴリズム302をトレーニングするために使用されるトレーニングデータは、埋め込まれたリード104の動きベクトル202、リード104が通常埋め込まれている血管102の動きベクトル102、及びグラウンドトゥルース(つまり、セグメント304、306、208ごとにリード104が血管102に癒着しているか)で構成されている。動きベクトル202は、時系列のX線画像から得ることができる。グラウンドトゥルースは、術前CT画像から取得できる。
図6は、機械学習アルゴリズム302で使用されるトレーニングデータ202、602、604の例を示す。トレーニングは、di=(m,mv,G)で記述されるデータセットタプルで実行される。ここで、
m:リード104の動きベクトル202、
mv:血管102の動きベクトル、及び
G:癒着(又は非癒着)のグラウンドトゥルース604である。
図7は、2本のリード104を有する血管102のCT画像を示している。画像を使用して、CT画像からグラウンドトゥルース604を識別できる。図7(a)は血管102のCT画像を示し、図7(b)及び図7(c)は図7(a)の断面(1)及び(2)を示している。
図7(b)には、リード104が血管102の壁から外れている(即ち、癒着していない)領域(1)の断面が示されている。図7(c)の領域(2)では、リード104は造影剤で満たされた血管102の外側にあるように見受けられ、癒着が起こったことを示している。したがって、CT画像からグラウンドトゥルースを取得できる。
或いは、リード104の癒着に関するグラウンドトゥルース604は、リード抽出手順からのデータに注釈(リード104に沿った異なるセグメントでリードの癒着が発生した(はい/いいえ))を付けることで取得できる。リード抽出デバイスに、電磁、FORSなどの空間センシング技術が装備されている場合は、癒着の場所を自動的に記録できる。更に、所与のリード抽出デバイスが血管102へのリード104の癒着を克服することに成功したかどうかを記録できる。この情報を使用して別のモデルをトレーニングして、リード104を有する所与のデバイスが他の手順で成功するかどうかを予測できる。
リード癒着についてグラウンドトゥルース604を取得する別の方法は、除去後のリード104の目視検査である。先端から組織がリード104に癒着した場所までの距離を測定できる。CTスキャンによって3D形状が提供され、それを、例えば、蛍光透視画像と位置合わせすることによって、癒着の位置を特定できる。
或いは、機械学習アルゴリズム302はエンドツーエンド方式でトレーニングすることもできる。例えば、機械学習アルゴリズム302への入力は、リード104に沿ったセクション(ROI)のシーケンスである。各セクションは血管102とリード104の両方をカバーするので、リード104と血管102の壁との相対的な動きを暗黙的に含む。この入力を所与として、シーケンスニューラルネットワークをトレーニングして、血管102へのリード104の癒着の有無を予測できる。
機械学習アルゴリズム302は、血管102の画像から動きベクトル202を決定し、動きベクトルに基づいて癒着レベルを決定するようにトレーニングされた動きベクトル層を含む。
図8は、機械学習アルゴリズム302のトレーニング方法例を示している。画像(例えば、蛍光透視画像、シネ画像、又は静脈造影画像)から選択したリード104は、より小さなセグメント304、306、308に分割され、リード103に沿った各セグメントについて動きベクトル202が計算される。セグメントの範囲は、1ピクセル~数ピクセルである。セグメントごとに動きベクトル202が計算される。これらは機械学習アルゴリズム302をトレーニングするために使用される。機械学習アルゴリズム302は、その出力癒着レベル310と、対応する術前CT画像から得られたグラウンドトゥルース604とを比較する(801)。CT画像から癒着のグラウンドトゥルース604の場所が決定され、対応するセグメントには癒着又は非癒着のラベルが割り当てられる。
機械学習アルゴリズム302のパラメータは、好ましくは、交差エントロピ損失関数(バイナリ分類タスクに典型的に使用される)を使用して、出力癒着レベル310とグラウンドトゥルース604とを比較し(810)、確率的勾配降下を実行することによって、トレーニングプロセス中に反復的に最適化される。他の損失関数が使用されてもよい。
機械学習アルゴリズム302は、出力データを生成又は予測するために入力データを処理する任意の自己トレーニングアルゴリズムである。ここでは、入力データは動きベクトルを含み、出力データは癒着レベルを含む。
本開示での使用に適した機械学習アルゴリズムは、当業者には明らかであろう。適切な機械学習アルゴリズムの例としては、決定木アルゴリズム及び人工ニューラルネットワークなどがある。ロジスティック回帰、サポートベクターマシン、又はナイーブベイズモデルなどの他の機械学習アルゴリズムは、適切な代替案である。
人工ニューラルネットワーク(又は、単にニューラルネットワーク)の構造は、人間の脳から発想を得たものである。ニューラルネットワークは層で構成され、各層は複数のニューロンを含む。各ニューロンは数学操作を含む。特に、各ニューロンは、単一のタイプの変換の異なる重み付けの組み合わせ(例えば、シグモイドなどの同じタイプの変換であるが、異なる重み付けを有する)を含み得る。入力データの処理プロセスでは、各ニューロンの数学操作が入力データに対して行われて、数値出力が生成され、ニューラルネットワークの各層の出力は、次の層に順番に供給される。最終層が出力を提供する。
機械学習アルゴリズムのトレーニング方法はよく知られている。通常、このような方法は、トレーニング入力データエントリと対応するトレーニング出力データエントリとを含むトレーニングデータセットを取得することを含む。初期化された機械学習アルゴリズムが各入力データエントリに適用されて、予測された出力データエントリが生成される。予測された出力データエントリと対応するトレーニング出力データエントリとのエラーを使用して、機械学習アルゴリズムが修正される。このプロセスはエラーが収束するまで、即ち、予測された出力データエントリがトレーニング出力データエントリと十分に類似する(例えば±1%)まで繰り返される。これは一般に、教師付き学習技術として知られている。
例えば、機械学習アルゴリズムがニューラルネットワークから形成される場合、各ニューロンの数学操作(の重み付け)は、エラーが収束するまで修正され得る。ニューラルネットワークを修正する既知の方法には、勾配降下アルゴリズム、誤差逆伝搬アルゴリズムなどがある。
単一のプロセッサ又は他のユニットが、特許請求の範囲に記載されているいくつかのアイテムの機能を果たしてもよい。
図9は、リード(104)のセクションが血管(102)に癒着しているかどうかを決定するシステム900の概略図である。システムは処理システム又はユニットである。システムは、スタンドアロン又は統合された様式でコンピュータ、コントローラ、又はワークステーションの形をとり、指定された目的を実行するための適切なハードウェア及びソフトウェアを備えている。統合された形では、システムは、X線イメージングシステム又はCTイメージングシステムなどのイメージングシステムの一部であるか、又は統合されている。このシステムには、本明細書に説明されている方法の1つ以上のステップを実行するために、本明細書に説明されている実施形態に従って、データプロセッサ、並びに適切なデータ入力及び出力が含まれている。データプロセッサは単一のプロセッサであってもよいが、複数の処理ユニットが複数のデバイスや場所に分散され、相互に通信できるように構成された分散プロセッサを使用することもできる。このような通信は、例えば、ワイヤレス又は有線の通信接続や、通信ネットワークを使用するかどうかにかかわらずデバイスを介して行われる。
システム900は、入力インターフェース912、データプロセッサ914、及び出力インターフェース916を含み、メモリ926を含んでいてもよい。入力インターフェース912は、血管(102)に対応するデータを受信又は取得し、血管(102)にはリード(104)が内部にある。例えば、入力インターフェースは、内側にリードを有する血管の画像データ(上記のとおり)から構成される上記データを受信又は取得する画像データ入力インターフェースを含む。データの一例は、2DのX線画像データである。データの入力は、ハッシュ化された矢印922で示され、この入力はイメージングデバイスの画像データの出力部に接続される。
データプロセッサ914は、例えば、バス又は他の接続を介して入力インターフェース912及び出力インターフェース916と通信可能に結合されているため、受信したデータはデータプロセッサによって処理され、その後、処理されたデータ(例えば、癒着レベルを含む)が出力インターフェースを介して出力される。入力インターフェース及び出力インターフェースは、例えば、必要な説明したデータを表す又は含む電気信号又は光信号を受信でき、データプロセッサは、このような電気信号及び/又は光信号を処理して、受信データを操作するために本明細書に説明されているステップを実行して、結果データを提供できる。
データプロセッサ914は、例えば、本明細書に説明されているフローチャートを参照して、本明細書に説明されている方法又はステップを実行することによって入力データから癒着データを生成する。実施形態では、プロセッサは、血管(102)に対応するデータからリード(104)に対応する動きベクトル(202)を決定し、動きベクトル(202)を機械学習アルゴリズム(302)に入力する。次に、動きベクトル(202)と、リード(104)のセクションが血管(102)に癒着しているかどうかとの相関関係を学習するようにトレーニングされた機械学習アルゴリズムを使用するデータプロセッサは、リード(104)の1つ以上のセグメント(304、306、308)の癒着レベル(310)を出力できる。次に、この癒着レベルは出力インターフェース916に提供又は送出される。データプロセッサは更に、機械学習アルゴリズム(302)に、セグメント(304、306、308)と、それぞれの癒着レベル(310)とに基づいて癒着位置を出力させる。データプロセッサは、機械学習アルゴリズム(302)に、推奨視野角を出力させる。推奨視野角で撮影された血管(102)の画像が正確な動きベクトル(202)を提供する可能性がある。
いくつかの実施形態では、データプロセッサは、畳み込みニューラルネットワーク、多層パーセプトロン、サポートベクターマシン、決定木モデル、多変数回帰モデルのうちの1つ以上に基づいて機械学習アルゴリズム(302)を実行する。
いくつかの実施形態では、システム又はデータプロセッサは、血管(102)の画像上に重ね合わされた又はその画像と一緒に対応する動きベクトル(202)と共に、癒着レベル(310)を生成し、ユーザインターフェースに出力する。
いくつかの実施形態では、動きベクトル(202)は2Dの動きベクトルである。
いくつかの実施形態では、入力は、2つ以上の画像と、好ましくは、例えば、2D蛍光透視法及び/又は2D静脈撮影法を介して取得された2つ以上の2D画像とを含むか又はこれらで構成されるように、血管(102)に対応するデータを受信するためのものである。
いくつかの実施形態では、血管(102)に対応するデータも機械学習アルゴリズムに入力される。
出力インターフェース916は、そのようなデータを表すデータ又は信号を提供する。データは癒着レベル310を含み、信号又はデータは、例えば、癒着データを表示するためのディスプレイを含むものなどのユーザインターフェースによって受信されるのに適している。データ310及び他のデータの出力は、第1のハッシュ化された矢印920で示される。
フレーム924は、入力インターフェース912、データプロセッサ914、及び出力インターフェース16を、例えば、ワークステーションやイメージングシステムなどの共通のハウジング内に統合されるやり方で提供するオプションを示している。オプションでは、入力インターフェース912、データプロセッサ914、及び出力インターフェース16は、本明細書でこれまでに説明されたように個別の配置として提供される。
システムによって受信又は取得されたデータは、好ましくは、画像データの供給に関連する。入力インターフェース912は、画像データを入力するためのインターフェースを提供する。入力インターフェース912は、画像データソース、画像データ供給、データ入力、データ供給ユニット、データ入力ユニット、又はデータ供給モジュールとも呼ぶ。入力インターフェース912は、スタンドアロン様式のデータストレージ又はイメージングソースに接続することも、X線イメージング配置に接続することもできる。
入力インターフェース912は、データをデータプロセッサ914に提供する。「受信」という用語は、データをデータプロセッサ14にフィードするシステムへのデータの(例えば、パッシブ)提供に関連する。或いは、「取得」という用語は、システムの(例えば、アクティブ)挙動に関連して使用することもできる。例えば、プロセッサは、入力インターフェース912に、ストレージ、又はイメージングシステム若しくはイメージングデバイスなどのソースからデータを受信させる。
いくつかの実施形態では、「プロセッサ」又は「データプロセッサ」は、画像データ処理に関連している。データプロセッサ914は、プロセッサ、プロセッサユニット、又はコンピューティングモジュールとも呼ぶ。
「出力インターフェース」は、データ処理の結果の提供に関連している。出力インターフェース916は、出力ユニット又は出力モジュールとも呼ぶ。
結果として、癒着データを提供することで、リードの除去手順の前又はその間の被検者内のリードの癒着状況に関する知識が向上する。したがって、例えば、治療の前後の状況を比較したり、治療中の状況をモニタリングしたりすることによって、介入評価を実施することも可能である。
プロセッサ914には、中央処理ユニット(CPU)、デジタル信号プロセッサ(DSP)、ASIC、コントローラ、FPGA、別のハードウェアデバイス、ファームウェアデバイス、又は本明細書に説明されている操作を実行するこれらの任意の組み合わせが含まれる。プロセッサ914は、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、又は任意の他のそのような構成など、コンピューティングデバイスの組み合わせとして実装することもできる。
メモリ926には、キャッシュメモリ(例えば、プロセッサ914のキャッシュメモリ)、ランダムアクセスメモリ(RAM)、磁気抵抗RAMメモリ(MRAM)、読み取り専用メモリ(ROM)、プログラム可能読み取り専用メモリ(PROM)、消去可能プログラム可能読み取り専用メモリ(EPROM)、電気的消去可能プログラム可能読み取り専用メモリ(EEPROM)(登録商標)、フラッシュメモリ、ソリッドステートメモリデバイス、ハードディスクドライブ、他の形式の揮発性及び不揮発性メモリ、又は様々なタイプのメモリの組み合わせが含まれる。一実施形態にでは、メモリ926は、非一時的コンピュータ可読媒体を含む。メモリ及び/又は非一時的コンピュータ可読媒体には、命令が保存されている。例えば、メモリ926又は非一時的コンピュータ可読媒体は、プログラムコードが記録されている。プログラムコードは、システムにその機能を実行させる命令や、プロセッサにコンピュータが実施する様式で方法を実行させるために説明されている操作を実行させる命令を含む。例えば、プロセッサ回路914は、本明細書に説明されている方法の1つ以上の操作を実行できる。命令は、コード又はプログラムコードとも呼ぶ。「命令」及び「コード」という用語は、任意のタイプのコンピュータ可読命令文を含むように広く解釈されるべきである。例えば、「命令」及び「コード」という用語は、1つ以上のプログラム、ルーチン、サブルーチン、関数、プロシージャなどを指す。「命令」及び「コード」には、単一のコンピュータ可読命令文又は多くのコンピュータ可読命令文が含まれていてもよい。コードが記録されたメモリ964は、コンピュータプログラム製品と呼ばれることがある。
処理システム又はプロセッサは、単一のプロセッサ、又は、バス及びLAN又はWLANなどのネットワーク接続を介して相互に通信する複数の別個のプロセッサで構成された分散プロセッサであってもよい。処理システムは、イメージング装置に接続可能な単一のデバイス又は装置の形をとることができる。例えば、このような単一のデバイスがワークステーションを構成していても、ワークステーションであってもよい。いくつかの実施形態で言及されているように、プロセッサ回路及び/又はイメージングシステムは、LAN又はWLANなどのデータ転送ネットワークを介して相互接続されているか、相互接続可能な分散要素を有するリモート分散の形を有している。
コンピュータプログラムは、他のハードウェアと一緒に又はその一部として供給される、光記憶媒体又は固体媒体などの任意の適切な媒体に格納/配布することができるが、インターネット又は他の有線若しくはワイヤレス通信システムを介してなど他の形式で配布することもできる。
図10は、図9のシステムを含むイメージングシステム1000の例を示している。システム1000は、X線イメージングデバイス1002を含む。例として、X線イメージングデバイス1002は、天井に取り付けられた可動式Cアーム構造1004で、X線源1006とX線検出器1008とがCアームの端部に取り付けられている。例示のために、検査、介入、他の治療、又はイメージングの目的で、患者サポート1012によって支持されているオブジェクト1010(つまり、被検者)も示されている。システム1000は更に、天井から可動式に吊り下げられているものとして示されているモニタ配置の形の表示デバイス装置1014を含む。また、システム1000は、先行実施例例及び以下の実施例のいずれかに従って、リードのセクションが血管に癒着しているかどうかを決定するシステム1016も含む。更に、例示のために、モニタ1018や、マウス、キーボード、制御パネル、及びタッチパッドなどの他のユーザインターフェース機器を有する制御コンソールが右側に示されている。このために、システム900には、適切な入力デバイス及び通信デバイス、並びにそのような機能を提供するための対応するソフトウェアを含めることができる。デバイス1016は、制御コンソールに統合されてもよい。線1020は、X線イメージングデバイス1002とデバイス1016とのデータ接続(有線又はワイヤレス)を示す。この接続により、例えば、イメージングシステム又はそのストレージデバイスから図9のシステムへのデータの通信が可能になる。X線イメージングデバイス1002は、リードが設置されている場所など、被検体の身体の関心領域のX線画像を提供する。表示デバイス1014は、大血管に関連する時間濃度曲線及び微小血管に関連する時間濃度曲線を表示する。このイメージングシステムは、当技術分野において知られており、販売のために市場に出ており、更なる詳細については説明しない。
特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせを有利に使用することができないことを意味するものではない。
「~するように適応されている」という用語が、特許請求の範囲又は説明で使用されている場合、「~するように適応されている」という用語は「~するように構成されている」という用語と同等であることを意図していることに留意されたい。
特許請求の範囲における任意の参照符号は、範囲を限定するものと解釈されるべきではない。
開示された実施形態の変形例は、図面、開示、及び添付の特許請求の範囲の検討から、本開示を実施する際に当業者によって理解され、実行され得る。特許請求の範囲において、語「含む」は、他の要素又はステップを排除するものではなく、単数形の要素は複数を排除するものではない。

Claims (15)

  1. リードのセクションが血管に癒着しているかどうかを決定する方法であって、前記方法は、
    前記血管に対応するデータを受信又は取得するステップであって、前記血管は内側にリードがあり、前記血管に対応する前記データは、任意選択で2つ以上の異なる角度からの2つ以上の2D画像を含む、受信又は取得するステップと、
    前記血管に対応する前記データから前記リードに対応する動きベクトルを決定するステップと、
    前記動きベクトルを機械学習アルゴリズムに入力するステップであって、
    前記機械学習アルゴリズムは、前記動きベクトルと、リードのセクションが血管に癒着しているかどうかとの相関関係を学習するようにトレーニングされており、
    前記機械学習アルゴリズムは、入力された前記動きベクトルに基づいて、前記リードのセグメントの癒着レベルを出力するように構成されている、入力するステップと、
    任意選択で、ユーザに前記癒着レベルを提供するステップと、
    を含む、方法。
  2. 前記動きベクトルは、2D動きベクトルである、請求項1に記載の方法。
  3. 前記血管に対応する前記データは、2D蛍光透視法、2D静脈造影法、及び/又は2D超音波法などを介して取得された2つ以上の2D画像を含むか又は当該2D画像で構成されている、請求項1又は2に記載の方法。
  4. 前記機械学習アルゴリズムは更に、前記セグメント、及び前記セグメントのそれぞれの癒着レベルに基づいて、癒着の位置を出力する、請求項1から3のいずれか一項に記載の方法。
  5. 前記機械学習アルゴリズムへの更なる入力は、前記血管に対応する前記データである、請求項1から4のいずれか一項に記載の方法。
  6. 前記機械学習アルゴリズムは更に、推奨視野角を出力し、前記推奨視野角で撮影された前記血管の画像は、正確な動きベクトルを提供する可能性がある、請求項1から5のいずれか一項に記載の方法。
  7. 前記機械学習アルゴリズムは、
    畳み込みニューラルネットワーク、
    多層パーセプトロン、
    サポートベクターマシン、
    決定木モデル、
    多変数回帰モデル、又は
    これらの組み合わせ、
    に基づいている、請求項1から6のいずれか一項に記載の方法。
  8. 前記血管の画像上に対応する動きベクトルと共に前記癒着レベルを表示するステップを更に含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記癒着レベルは、バイナリ分類又は癒着範囲に基づいている、請求項1から7のいずれか一項に記載の方法。
  10. コンピュータプログラムコード手段を含むコンピュータプログラムであって、前記コンピュータプログラムコード手段は、処理システムを有するコンピューティングデバイス上で実行されると、前記処理システムに、請求項1から9のいずれか一項に記載の方法の全てのステップを実行させる、コンピュータプログラム。
  11. リードのセクションが血管に癒着しているかどうかを決定するシステムであって、前記システムは、
    前記血管に対応するデータを受信又は取得する入力インターフェースであって、前記血管は内側にリードがあり、前記血管に対応する前記データは、任意選択で2つ以上の異なる角度からの2つ以上の2D画像を含む、入力インターフェースと、
    プロセッサであって、
    前記血管に対応する前記データから前記リードに対応する動きベクトルを決定することと、
    前記動きベクトルを機械学習アルゴリズムに入力することであって、
    前記機械学習アルゴリズムは、前記動きベクトルと、リードのセクションが血管に癒着しているかどうかとの相関関係を学習するようにトレーニングされており、
    前記機械学習アルゴリズムは、前記リードのセグメントの癒着レベルを出力するように構成されている、入力することとを実行する、プロセッサと、
    ユーザインターフェースに前記癒着レベルを提供する出力インターフェースと、
    任意選択で、ユーザに前記癒着レベルを提供する出力インターフェースと、
    を含む、システム。
  12. 2つ以上の異なる角度から前記血管の前記2つ以上の2D画像を取得し、前記2つ以上の2D画像を表すデータを前記入力インターフェースに送出するイメージングデバイスを更に含む、請求項11に記載のシステム。
  13. 前記イメージングデバイスは、2D蛍光透視画像、2D静脈造影画像、及び/又は2D超音波画像などを取得するために、2D画像を取得する2Dイメージングデバイスである、請求項12に記載のシステム。
  14. 前記ユーザインターフェースは更に、前記血管の前記2つ以上の2D画像、前記動きベクトル、及び対応する前記癒着レベルを表示するディスプレイを含む、請求項12又は13に記載のシステム。
  15. 血管内のリードに対応する動きベクトルと、前記リードのセクションが前記血管に癒着しているかどうかとの相関関係を学習するために機械学習アルゴリズムをトレーニングする方法であって、
    内側にリードがある血管に対応する第1のデータセットを取得するステップと、
    前記血管に対応する前記第1のデータセットのグラウンドトゥルースを決定するステップであって、前記グラウンドトゥルースは、前記リードが前記血管に癒着しているかどうか及び前記癒着の場所を定義する、決定するステップと、
    内側にリードがある前記血管に対応する第2のデータセットを取得するステップであって、前記第2のデータセットは、前記血管内の前記第1のデータセットと同じ解剖学的場所で取得され、前記第2のデータセットは、任意選択で2つ以上の異なる角度からの2つ以上の2D画像を含む、取得するステップと、
    前記血管に対応する前記第2のデータセットから前記リードに対応する動きベクトルを決定するステップと、
    前記動きベクトルを前記機械学習アルゴリズムに入力するステップであって、前記機械学習アルゴリズムは、前記リードのセグメントの癒着レベルを出力するように構成されている、入力するステップと、
    前記機械学習アルゴリズムによって出力された前記癒着レベルと、対応するグラウンドトゥルースとを比較し、前記癒着レベルと前記グラウンドトゥルースとの前記比較に基づいて誤差を決定するステップと、
    前記誤差に基づいて前記機械学習アルゴリズムのパラメータを適応させるステップと、
    を含む、方法。
JP2023535691A 2020-12-15 2021-12-09 リードの癒着の推定 Pending JP2023552645A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063125905P 2020-12-15 2020-12-15
US63/125,905 2020-12-15
EP21157912.3A EP4015035A1 (en) 2020-12-15 2021-02-18 Stimulation lead adhesion estimation
EP21157912.3 2021-02-18
PCT/EP2021/084875 WO2022128703A1 (en) 2020-12-15 2021-12-09 Lead adhesion estimation

Publications (1)

Publication Number Publication Date
JP2023552645A true JP2023552645A (ja) 2023-12-18

Family

ID=78822295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023535691A Pending JP2023552645A (ja) 2020-12-15 2021-12-09 リードの癒着の推定

Country Status (4)

Country Link
US (1) US20240041534A1 (ja)
EP (1) EP4262970A1 (ja)
JP (1) JP2023552645A (ja)
WO (1) WO2022128703A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024079084A1 (en) * 2022-10-14 2024-04-18 Koninklijke Philips N.V. Providing guidance information for an implantable device extraction procedure
EP4353155A1 (en) * 2022-10-14 2024-04-17 Koninklijke Philips N.V. Providing guidance information for an implantable device extraction procedure

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3636158A1 (en) * 2018-10-10 2020-04-15 Koninklijke Philips N.V. Image guidance for implanted lead extraction
JP2022517245A (ja) * 2019-01-15 2022-03-07 コーニンクレッカ フィリップス エヌ ヴェ 血管デバイスによって感知された特徴を特定するためのシステム及び方法

Also Published As

Publication number Publication date
EP4262970A1 (en) 2023-10-25
WO2022128703A1 (en) 2022-06-23
US20240041534A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
US10762637B2 (en) Vascular segmentation using fully convolutional and recurrent neural networks
EP3142033B1 (en) Physiology-driven decision support for therapy planning
CN112368781A (zh) 基于机器学习来评估血管阻塞的方法和系统
JP2022522960A (ja) 動脈画像領域及びそれらの特徴を分類するシステム及び方法
CN110998744A (zh) 针对弥漫性和串联性病变中冠状动脉疾病的非侵入性评估和治疗指导
US20200337773A1 (en) Optimum treatment planning during coronary intervention by simultaneous simulation of a continuum of outcomes
JP2023552645A (ja) リードの癒着の推定
CN113241183B (zh) 治疗方案预测方法及装置
EP4015035A1 (en) Stimulation lead adhesion estimation
JP2022545355A (ja) 医療機器を識別、ラベル付け、及び追跡するためのシステム及び方法
Revathi et al. An intelligent model for coronary heart disease diagnosis
JP2021521949A (ja) インターベンショナルx線画像及びディープラーニングを用いたインタラクティブ冠動脈ラベル付け
EP3989828B1 (en) Automated coronary angiography analysis
JP7426824B2 (ja) 非侵襲的イメージングベースのffrのインタラクションモニタリング
EP3457413B1 (en) Method for classifying a risk for thrombus formation in an organ, system for classifying a risk for thrombus formation in an organ, a computer program product and a computer readable medium
US11657519B2 (en) Method for deformation correction
JP2023512004A (ja) 超音波ガイダンス方法及びシステム
EP4280224A1 (en) A computer-implemented method of determining a myocardial infarct risk information and for providing a trained risk determination function, a risk determination system and computer program
EP3975199A1 (en) Method and system for determining a significance score as-sociated with a medical imaging dataset of a patient
US20220238203A1 (en) Adaptive navigation and registration interface for medical imaging
WO2023247159A1 (en) Generating an anatomical model of an anatomical cavity
WO2023239734A1 (en) Percutaneous coronary intervention planning
WO2023239738A1 (en) Percutaneous coronary intervention planning
WO2023052278A1 (en) Intraluminal ultrasound vessel segment identification and associated devices, systems, and methods
CN118014927A (zh) 基于血管造影x射线检查确定血液动力学特性的估计