JP2023554038A - 可撓性デバイスのための予測動作マッピング - Google Patents
可撓性デバイスのための予測動作マッピング Download PDFInfo
- Publication number
- JP2023554038A JP2023554038A JP2023536124A JP2023536124A JP2023554038A JP 2023554038 A JP2023554038 A JP 2023554038A JP 2023536124 A JP2023536124 A JP 2023536124A JP 2023536124 A JP2023536124 A JP 2023536124A JP 2023554038 A JP2023554038 A JP 2023554038A
- Authority
- JP
- Japan
- Prior art keywords
- medical device
- interventional medical
- distal end
- interventional
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 214
- 238000013507 mapping Methods 0.000 title description 38
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 112
- 238000000034 method Methods 0.000 claims abstract description 94
- 238000002059 diagnostic imaging Methods 0.000 claims abstract description 55
- 230000015654 memory Effects 0.000 claims abstract description 39
- 230000006399 behavior Effects 0.000 claims description 76
- 238000012549 training Methods 0.000 claims description 32
- 210000003484 anatomy Anatomy 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 description 50
- 230000011218 segmentation Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 18
- 238000013135 deep learning Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000003068 static effect Effects 0.000 description 6
- 238000002604 ultrasonography Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000002594 fluoroscopy Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 239000002775 capsule Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002324 minimally invasive surgery Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000012285 ultrasound imaging Methods 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 208000009087 False Aneurysm Diseases 0.000 description 1
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 206010047163 Vasospasm Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000001105 femoral artery Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000003966 vascular damage Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/50—Machine tool, machine tool null till machine tool work handling
- G05B2219/50391—Robot
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30021—Catheter; Guide wire
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
インターベンション型医療デバイス用のコントローラ150は、メモリ151とプロセッサ152とを含む。メモリ151は、プロセッサ152が実行する命令を記憶する。命令が実行されるとき、命令は、コントローラ150に、インターベンション型医療デバイス101の遠位端の少なくとも1つの位置を取得させ、インターベンション型医療デバイス101の近位端における動作を特定させ、第1の訓練済み人工知能を、インターベンション型医療デバイス101の近位端における動作と、インターベンション型医療デバイス101の遠位端の少なくとも1つの位置とに適用させ、インターベンション型医療処置中に、インターベンション型医療デバイス101の遠位端に向かってインターベンション型医療デバイス101に沿った動作を予測させる。また、コントローラ150は、実際の動作が予測動作と乖離したときを決定するために、医療撮像システム120からインターベンション型医療デバイス101の遠位端の画像を取得する。
Description
[0001] 低侵襲処置における解剖学的構造で器具を使用することは、ライブ医療撮像によって器具の予期せぬ動作が見えないとき、困難になり得る。いくつかの器具については、近位端において動作が導入されたとき、器具の長さ方向に沿った対応する動作、及び器具の遠位端での対応する動作が発生しない場合がある。器具の長さ方向に沿った予期せぬ動作としては、横移動及び座屈が挙げられる。動作のバリエーションは、器具のタイプ、患者の解剖学的構造、器具の長さに沿った曲率に依存する。器具の予期せぬ動作は、寸法、柔軟性、トルク伝達、及び摩擦などの器具特性にも起因し得る。意図せぬ動作の結果、血管の切断又は穿孔などの、組織への誤った接触が起こり得る。例として、予期せぬ動作は、カテーテル又はガイドワイヤなどの長細い器具の近位端に導入される動作に起因する。
[0002] 低侵襲処置が2次元(2次元)蛍光透視の誘導下で行われる場合、器具の3次元(3次元)の動作の側面を見逃しかねない。多くの場合、器具の遠位端のみが蛍光透視視野(FOV)内にあるので、FOV外にある器具の長さ方向に伝わる動作は知覚されない。さらに、多くの場合、遠位端の動作も、蛍光透視撮像のフォアショートニングのため知覚されない。そのため、器具の近位端での大きな動作があっても、結果として遠位端では動作が知覚されないことが多く、器具の長さ方向に沿った予期せぬ挙動をもたらすことになる。この問題の具体例は、脚の末梢血管ナビゲーションを行う際に発生する。カテーテル及びガイドワイヤは、大腿部からアクセスし、腸骨角を越えて、対側の大腿動脈を下るように移動する。器具に追随するX線画像は、器具が大動脈内に戻って座屈し得る腸骨角の交差を写すことができない。
[0003] 従来、器具のコースの開始及び器具のコースの終了が与えられる場合、マイクロカテーテルの中心線に沿ったマイクロカテーテル・チューブを備えたマイクロカテーテルをモデル化し、マイクロカテーテルの中心線は直線と曲線とが交互に連続する線で構成されると仮定することによって、コースがプロットされる。しかしながら、医師によるカテーテルの操作などの、外部の力からの干渉は考慮されていない。
[0004] 本明細書に記載される可撓性デバイスのための予測動作マッピングは、上述の懸念に対処する。
[0005] 例示的な実施形態は、添付図面の図と併せて読んだとき、以下の詳細な説明から最もよく理解される。様々な特徴は必ずしも縮尺通りに描写されていないことを強調しておく。実際に、考察を明快にするため、寸法を任意に拡大又は縮小することがある。適用可能で、実用的であれば、同様の参照数字は同様の要素を指す。
[0016] 以下の発明を実施するための形態では、説明を目的とし、限定の意図はなく、具体的な詳細を開示する代表的な実施形態は、本教示による実施形態への完全な理解を提供するために、記載されている。知られているシステム、デバイス、材料、操作方法、及び製造方法の説明は、代表的な実施形態の説明が不明瞭になるのを避けるように省略され得る。それにもかかわらず、当業者の認識範囲内にあるシステム、デバイス、材料、及び方法は、本教示の範囲内にあり、代表的な実施形態に従って使用することができる。本明細書で使用される専門用語は、特定の実施形態を説明することのみを目的としており、限定の意図はないことを理解されたい。定義されている用語は、本教示の技術分野において一般的に理解され、受け入れられている定義用語の技術的及び科学的な意味に、追加的に定義されるものである。
[0017] 本明細書では、第1の、第2の、第3のなどの用語が、様々な要素又は構成要素を説明するために使用されているが、これらの要素又は構成要素はこれらの用語によって限定されるべきではないことが理解されるであろう。これらの用語は、ある要素又は構成要素を別の要素又は構成要素と区別するためにだけ使用される。したがって、以下に考察される第1の要素又は構成要素は、本発明の概念の教示から逸脱することなく、第2の要素又は構成要素とも呼ばれ得る。
[0018] 本明細書で使用される専門用語は、特定の実施形態を説明することのみを目的としており、限定的であることは意図していない。本明細書及び添付の特許請求の範囲で使用されるとき、単数形は、コンテキストにより明確にそうではないと定められない限り、単数形と複数形との両方を含むことを意図している。さらに、用語「有する/備える」、「有している/備えている」、及び/又は類似の用語は、本明細書で使用されるとき、記載されている特徴、要素、及び/又は構成要素の存在を明細に示すが、1つ又は複数の他の特徴、要素、構成要素、及び/又はそれらのグループの存在又は追加を排除しない。本明細書で使用される場合、用語「及び/又は」は、関連する列挙された項目の1つ又は複数の任意の組み合わせ及び全ての組み合せを含む。
[0019] 別途言及されない限り、要素又は構成要素が別の要素又は構成要素に「接続され」、「連結され」、又は「隣接して」いると言われる場合、要素又は構成要素は他の要素又は構成要素に直接接続又は連結することができ、或いは介在している要素又は構成要素が存在し得ることが理解されるであろう。すなわち、これらの用語及び類似した用語は、2つの要素又は構成要素を接続するために、1つ又は複数の中間要素又は構成要素が採用されるケースを包含するものである。しかしながら、ある要素又は構成要素が別の要素又は構成要素に「直接接続」されていると言う場合、2つの要素又は構成要素が、いずれの中間の又は介在する要素又は構成要素も介さずに互いに接続されているケースのみを包含する。
[0020] 本開示は、その様々な態様、実施形態及び/又は特定の特徴若しくはサブ構成要素のうちの1つ又は複数を通じて、下記で具体的に言及される利点の1つ又は複数を明らかにすることを意図している。説明を目的とし、限定の意図はなく、具体的な詳細を開示する例示的な実施形態は、本教示による実施形態への完全な理解を提供するために、記載されている。しかしながら、本明細書に開示された具体的な詳細から逸脱する、本開示と整合性のある他の実施形態は、添付の特許請求の範囲の範囲内にある。さらに、例示的な実施形態の説明が不明瞭になるのを避けるように、よく知られている装置及び方法の説明は省略され得る。そのような方法及び装置は、本開示の範囲内にある。
[0021] 本明細書で説明されるように、インターベンション型医療デバイスの遠位端で予期可動域は、インターベンション型医療デバイスの近位端における特定の動作から予測される。蛍光透視FOVにおいて視認可能なインターベンション型医療デバイスの長さ方向に伝わる予期動作が予測され、観測動作が予期動作の範囲外であるとき、アラートが発せられる。さらに、観測された予期せぬ動作に基づいて、蛍光透視FOVの外部の起こり得る意図せぬ挙動が予測される。このシステムによって生成される警告により、血管の偶発的な損傷及び他の望ましくない結果を防ぐ。可撓性デバイスの予測動作マッピングは、インターベンション型医療デバイスの動作を追跡し、インターベンション型医療処置中に使用される医療撮像システムのFOV内に存在しないインターベンション型医療デバイスの一部についてさえも、インターベンション型医療デバイスの意図せぬ挙動を粗く位置推定するための予測概略推定位置を予測するために使用される。
[0022] 図1は、代表的な実施形態による、可撓性デバイスの予測動作マッピングのためのシステムを示している。
[0023] 図1では、制御システム100が、インターベンション型医療デバイス101と共に示されている。インターベンション型医療デバイス101は、制御システム100に最も近い近位端Pと、制御システム100から最も遠い遠位端Dとを有する。遠位端Dは、インターベンション型医療処置において患者の解剖学的構造に最初に挿入されるインターベンション型医療デバイス101の部分に対応している。
[0024] 制御システム100は、医療撮像システム120と、動作検出器130と、ワークステーション140と、ロボット160と、人工知能コントローラ180とを含む。ワークステーション140は、コントローラ150と、インターフェイス153と、モニタ155と、タッチ・パネル156とを含む。コントローラ150は、命令を記憶するメモリ151と、命令を実行するプロセッサ152とを含む。インターフェイス153は、モニタ155をワークステーション140の本体にインターフェイス接続する。人工知能コントローラ180は、命令を記憶するメモリ181と、本明細書に記載の方法の1つ又は複数の態様を実施する命令を実行するプロセッサ182とを含む。
[0025] インターベンション型医療デバイス101の特性は、予期動作と、予期せぬ及び/又は意図せぬ動作との両方に関して、インターベンション型医療デバイス101がどのように動くかに影響を与える。例えば、柔軟なガイドワイヤは、予期動作と、予期せぬ及び/又は意図せぬ動作との両方に関して、硬いガイドワイヤとは異なる挙動をする。したがって、インターベンション型医療デバイス101の特性は、意図せぬ動作を補償する基準又は複数の基準の1つとして使用される。インターベンション型医療デバイス101の例としては、ガイドワイヤ、カテーテル、マイクロカテーテル、及びシースが挙げられる。
[0026] 医療撮像システム120は、インターベンション型X線撮像システムである。インターベンション型X線撮像システムは、X線を発生させるように適合されたX線管と、蛍光透視画像などの時系列X線画像を取得するように構成されたX線検出器とを含む。そのようなX線撮像システムの例としては、PhilipsのProxiDiagnostなどのデジタル放射線蛍光透視システム、PhilipsのAzurionなどの固定式CアームX線システム、及びPhilipsのVeradiusなどの移動式CアームX線システムが挙げられる。
[0027] 医療撮像システム120は画像処理コントローラを備え、画像処理コントローラは、インターベンション型医療処置中に取得された蛍光透視画像を受信し、インターベンション型デバイスのセグメンテーションを出力するように構成される。画像処理コントローラは、図1に示すコントローラ150によって/として実施されてもよく、医療撮像システム120に直接統合された別のコントローラによって/として実施されてもよい。
[0028] 医療撮像システム120によって生成された画像のセグメンテーションは、解剖学的特徴及びインターベンション型医療デバイス101などの構造体の表面の表示を生成する。セグメンテーション表示は、例えば、構造体の表面上の3次元(3D)座標における点のセットと、隣接する3点のグループを接続することによって定義された三角形の平面セグメントとで構成され、構造体全体が、交差しない三角形の平面のメッシュで覆われるようにする。インターベンション型医療デバイス101の3次元モデルは、セグメンテーションによって取得される。また、セグメンテーションは、2値マスク、画像空間におけるインターベンション型医療デバイス101の(x,y)座標、2次元スプライン、又はワイヤフレーム・モデルとして表示される。セグメンテーションは、閾値処理、テンプレート・マッチング、アクティブ輪郭モデリング、ニューラル・ネットワーク・ベースのセグメンテーション方法、及び他のセグメンテーション方法によって計算される。X線撮像システムによって生成されたX線画像集合、又は超音波撮像システムで生成された3次元超音波ボリュームに対して、セグメンテーションが提供される。
[0029] ロボット160は、操作者の制御下で、インターベンション型医療デバイス101の運動を制御するために使用される。インターベンション型医療デバイス101の近位端における動作は、ロボット160がインターベンション型医療デバイス101を制御するとき、ロボット160の動作から検出される。
[0030] 人工知能コントローラ180は、複数のコントローラを含み、本明細書に記載の第1の人工知能及び第2の人工知能を実施する。人工知能コントローラ180によって実施される人工知能は、専用の訓練環境での訓練の結果得られる。人工知能コントローラ180は、図1の制御システム100の他の構成要素とは全体的に分離して提供される。
[0031] 人工知能コントローラ180は、ニューラル・ネットワーク・コントローラであってもよく、インターベンション型医療処置中の適用段階中に使用される。人工知能コントローラ180は、インターベンション型医療デバイス101の近位端で動作情報を受信するように構成されている。また、人工知能コントローラ180は、医療撮像システム120から、蛍光透視画像におけるインターベンション型医療デバイス101の蛍光透視画像及び/又はセグメンテーション表示を受信するように構成されている。また、人工知能コントローラ180は、インターベンション型医療デバイス101のタイプを、例えば、モニタ155を介して提供されるドロップダウン・メニューから、又はインターベンション型医療デバイス101の自動検出から、受信される。インターベンション型医療デバイスは、インターベンション型医療デバイス101が撮影される画像上の患者に挿入される前に手術室のカメラで撮影された、インターベンション型医療デバイス101の画像から、オブジェクトの検出及び分類を使用して自動的に検出される。人工知能コントローラ180は、任意選択で、インターベンション型医療デバイス101の、蛍光透視画像及び/又はセグメンテーション表示から得られる制約に基づいて動作する。人工知能コントローラによって入力としても使用される制約には、インターベンション型医療デバイス101の長さ、インターベンション型医療デバイス101の最大許容曲率、並びに、蛍光透視FOV内で視認可能なインターベンション型医療デバイス101の長さ方向に伝わる予測動作及び/又は観測される動作が含まれる。
[0032] 人工知能コントローラ180による第1の人工知能及び第2の人工知能の適用結果は、蛍光透視FOV内の予測された動作と観測動作との間の不一致に基づき、蛍光透視FOV外での座屈などの予期せぬ挙動が発生している場所の概略推定位置の予測である。蛍光透視FOV内のデバイス動作における予期せぬ挙動を特定することにより、蛍光透視FOVの外で発生する起こり得る意図せぬ挙動の特定を補助する。人工知能コントローラ180による第1の人工知能及び第2の人工知能の適用の別の結果は、予測動作と観測動作との一致が、通常範囲外に外れる場合に警告を生成することである。人工知能コントローラ180によって実施された訓練済み人工知能を使用して生成された警告は、インターベンション型医療デバイス101の遠位端において予期動作が観測されないとき、インターベンション型医療デバイス101の近位端で過剰な力が使用されることを防ぐのに役立つ。同様に、これは、血管の切断又は穿孔、仮性動脈瘤、血管れん縮などの有害事象、及び病変の一部が偶発的に除去されること、ガイドワイヤの破損などの他の望ましくない結果を防ぐことになる。
[0033] 図示しないが、図1の制御システム100は、FOV外の予期せぬ挙動が予測されるときに医師にアラートを発するためのフィードバック・コントローラも含む。フィードバック・コントローラは、アラーム音、蛍光透視ディスプレイ上の印刷メッセージ、インターベンション型医療デバイス101の近位端への触覚フィードバック、又はロボット制御誘導などの警告を生成する。ロボット制御誘導は、インターベンション型医療デバイス101の近位端における動作を修正するための表示される指示を提供する。表示される指示には、例えば、ロボット制御を前方、後方、又は横方向に動かす提案、Corindus CorPathのタッチ・パネル又はジョイスティックの動作についての提案、操縦可能シース、操縦可能ガイド・カテーテル、又は経食道心エコー(TEE)プローブのためのノブ回転についての提案が含まれる。また、フィードバック・コントローラは、例えば、自律型ロボットに自動的に後退するように命令を送ることによって、閉ループ・システムにおけるロボット制御誘導を提供する。また、フィードバック・コントローラは、前進動作が座屈の原因となっている場合、協調制御ロボットにそれ以上前進させないためのロボット制御誘導を提供する。
[0034] 制御システム100は、X線撮像システムのコンテキストで主に説明されているが、制御システム100は、インターベンション型超音波撮像システム、及び、固定式と移動式との両方のインターベンション型X線撮像システムを含むか又はそれらに組み込まれる。制御システム100は、インターベンション型血管処置を含むがこれに限定されない、様々な蛍光透視ベースのインターベンション型医療処置のために使用される。
[0035] 図2は、代表的な実施形態による、可撓性デバイスのための予測動作マッピングの方法を示している。
[0036] S210において、図2の方法は、人工知能を訓練することで開始される。訓練済み人工知能は、異なる入力を使用して訓練されて、異なる出力を生成する、第1の人工知能及び第2の人工知能を含む。さらに、第1の人工知能からの出力は、第2の人工知能への入力である。さらに、第1の人工知能による第1の予測又は予想は、第1の人工知能から出力され、第2の人工知能に入力され、第2の人工知能は、第1の人工知能からの第1の予測又は予想を入力として使用することに基づいて、第2の予測又は予想を出力する。インターベンション型医療デバイスの予期せぬ挙動の概略推定位置のグラウンド・トゥルース情報は人工知能の訓練に使用され、訓練済み人工知能は、人工知能がデプロイされた後に使用される。第1の人工知能及び第2の人工知能の特徴については、以下の段落で詳しく説明される。S210における人工知能の訓練は、人工知能がデプロイされる前に全部が行われる。一実施形態では、適応人工知能は、強化学習又は他の学習方法を介した自己改良のために、デプロイ後のフィードバックを使用する。
[0037] 図1の人工知能コントローラ180は、第1の訓練済み人工知能および第2の訓練済み人工知能の訓練を実施する。例えば、複数のインターベンション型医療デバイス用の複数の訓練セッションにおいて、人工知能コントローラ180は、インターベンション型医療デバイスの遠位端の少なくとも1つの位置を入力し、インターベンション医療デバイスの近位端の動作を検出し、インターベンション型医療デバイスの近位端における動作に起因するインターベンション型医療デバイスの遠位端に向かってインターベンション型医療デバイスに沿った動作を検出する。複数のインターベンション型医療デバイス用の複数の訓練セッションにおいて、人工知能コントローラ180は、インターベンション型医療デバイスのタイプ、解剖学的構造若しくは処置のタイプ、又は異なるインターベンション型医療処置によって変化する他のコンテキスト情報を入力するようにさらに構成されている。訓練におけるインターベンション型医療デバイスの遠位端の位置は、医療撮像システムによる医療画像からの導出されたものなどの画像から取得される。複数の訓練セッションは、インターベンション型医療デバイスの遠位端の少なくとも1つの位置、及びインターベンション型医療デバイスの近位端における検出動作に基づいて、インターベンション型医療デバイスの遠位端に向かってインターベンション型医療デバイスに沿った予測動作を予測することも含む。複数の訓練セッションは、インターベンション型医療デバイスの遠位端に向かってインターベンション型医療デバイスに沿った実際の動作を検出し、予測動作と実際の動作との間の差異に基づいて、ロス(損失)を決定することも含む。第1の訓練済み人工知能は、インターベンション型医療デバイスの近位端における動作と、インターベンション型医療デバイスの遠位端に向かってインターベンション型医療デバイスに沿った動作との間の関係を確立し、第1の人工知能は、予測動作と検出された実際の動作との間の差異に基づいて決定された各ロスに基づいて更新される。
[0038] S210における訓練の後、人工知能が、使用のために提供される。次いで、第1の人工知能は、図1の人工知能コントローラ180によって実施される。
[0039] インターベンション型医療処置のために、第1の人工知能は、異なるタイプのインターベンション型医療デバイス101についてさらに訓練される。第1の訓練済み人工知能は、任意選択で、インターベンション型医療デバイス101のタイプ、インターベンション型の医療処置のタイプ、解剖学的ランドマーク、又は患者の少なくとも1つの身体的特性のうちの少なくとも1つに基づいて入力し、作動する。臨床医には、インターベンション型医療デバイス101のタイプを選択するためのドロップダウン・メニューが提供される。インターベンション型医療デバイス101の遠位端近くのインターベンション型医療デバイス101を伝わる予測動作は、選択されたインターベンション型医療デバイスのタイプにさらに基づいて予測される。同様に、予測動作の予測は、インターベンション型医療処置における患者の解剖学的構造、医療撮像システムの配置、又はインターベンション型医療デバイス101の物理特性にさらに基づいてもよい。あるいは、インターベンション型医療処置の前に、例えば、インターベンション型医療デバイス101が患者に挿入される前に、オブジェクトの検出及び分類を行うことによって、第1の人工知能の対象となるインターベンション型医療デバイス101のタイプは、自動的に選択される。手術室のカメラで撮影された画像に基づいて、検出及び分類が実施される。あるいは、検出及び分類は、異なるタイプのインターベンション型医療デバイスを検出し、分類するために機械学習によって訓練されたモデルを使用して実施される。モデルの作成に使用される機械学習の訓練データセットは、複数の異なるインターベンション型医療デバイスのX線画像を含む訓練インスタンスを含む。訓練データは、複数の異なるインターベンション型医療デバイスの遠位端における通常動作又は予期動作のみを含み、これにより、人工知能は、異なるインターベンション型医療デバイスの遠位端における通常動作を予測することを学習することになり、推論中に、後続の観測動作が予測された通常動作と類似していない場合、アラーム又はアラートが生成され、発行される。訓練データは、FORSなどの形状検知技術を使用して収集される。FORSは、デバイスの長さに沿って3D形状情報を提供するので、データが予期動作を含むこと、及び座屈などの予期せぬ動作を含んでいないことを確認することを可能にする。
[0040] インターベンション型医療処置中の動作において、第1の人工知能は、第1の人工知能がフォアショートニングを予期するべきときを学習することを可能にするための、ターゲット領域又は解剖学的構造、周囲の解剖学的構造のセグメンテーション、ターゲット領域を伴うCアームの姿勢などの追加のコンテキスト情報にも基づいて実施される。さらに、第1の人工知能は、蛍光透視画像におけるインターベンション型医療デバイス101の長さ、又はインターベンション型医療デバイス101の最大許容曲率などの、出力に対する制約を受けとる。
[0041] 第1の人工知能は、畳み込みニューラル・ネットワーク、エンコーダ-デコーダ・ネットワーク、敵対的生成ネットワーク、カプセル・ネットワーク、回帰ネットワーク、強化学習エージェントなどのニューラル・ネットワークであってよく、インターベンション型医療デバイス101の近位端における動作情報、及び初期時間tにおける蛍光透視画像を使用して、蛍光透視視野(FOV)内で視認可能なインターベンション型医療デバイス101の長さ方向に伝わる動作又は動作場を予測する。時間t及びt+nにおける蛍光透視画像間の観測動作又は動作フィールドは、蛍光透視FOVにおいて観測され得る動作の予期範囲を学習するために、第1の人工知能によって予測された動作と比較される。時間t+nは、近位端における特定の動作が完了した後であってもよく、近位端における特定の動作が発生しているときなどの、別の任意の時間であってもよい。平均二乗誤差、平均絶対誤差、若しくはHuberロス、又は2つの運動ベクトル(R2、R3)間の差異を算出する任意のロス、例えば測地線ロスなどのロス(損失)関数を計算することによって、予測運動及び観測される(グランウド・トゥルース)運動が比較される。動作は、ベクトル・パラメータ表示、非ベクトル・パラメータ表示、及び/又は動作フィールドで表される。パラメータ表示は、オイラー角、4元数、行列、指数写像、並びに/又は、回転及び/若しくは移動を表す角度軸(例えば、移動及び回転の方向及び大きさを含む)の形態であり得る。
[0042] S220において、図2の方法は、インターベンション型医療デバイスの近位端における動作を特定することを含む。近位端における動作は、前方への移動、横方向の移動、及び軸に沿った回転を含むことができる。近位端における動作は、使用者又はロボットによって引き起こされる動作であり、使用者又はロボットがインターベンション型医療デバイス101を制御するために引き起こす任意の動作を含む。インターベンション型デバイスの近位端の動作情報は、検知デバイスから取得される。そのような動作情報を取り込み提供することができる検知デバイスの例としては、デバイス・トラッカ、慣性測定装置(IMU)センサ、光学追跡システムとしてはたらく単眼式若しくはステレオ式カメラ・システム、リニア・エンコーダ、トルク・エンコーダ、又は光学エンコーダが挙げられる。デバイス・トラッカの例としては、光学追跡検知システム、光学追跡システム、電磁追跡システム、又は光学形状検知機構が挙げられる。IMUセンサの例としては、加速度計、ジャイロスコープ、及び場合によっては磁力計などの構成要素によって、角速度、力、及び場合によっては磁場を測定するセンサが挙げられる。リニア・エンコーダの例としては、光学リニア・エンコーダ、磁気リニア・エンコーダ、及び容量誘導リニア・エンコーダが挙げられる。
[0043] S225において、図2の方法は、インターベンション型医療デバイスの医療画像集合を取得することを含む。S225で取得される医療画像集合は、医療撮像システム120によって取得される。S225で取得された医療画像集合は、インターベンション型医療デバイス101の遠位端の画像から、インターベンション型医療デバイス101の遠位端の少なくとも1つの位置を取得するために使用される。医療画像集合は、医療撮像システムの視野内にあるインターベンション型医療デバイスの一部の複数の蛍光透視画像である。S225で取得された医療画像集合は、遠位端近くのインターベンション型医療デバイスの一部である。図2に基づく実施形態は、インターベンション型医療デバイスのセグメンテーション表示は、S230の前、例えば、S230において適用される第1の人工知能への入力として使用されるときに、インターベンション型医療デバイスの遠位端の画像を取得することを含む。後述する図4Bでは、遠位端の画像は、蛍光透視フレームftとして表されている。医療画像集合は、インターベンション型医療デバイス101の遠位端を含む単一又は時系列の蛍光透視画像を含む。閾値処理、テンプレート・マッチング、アクティブ輪郭モデリング、マルチスケール隆起強調フィルタ、又は深層学習をベースとしたセグメンテーション・アルゴリズムなどの方法を使用して、画像処理コントローラによって、医療画像集合は自動的にセグメンテーションされる。
[0044] S230において、図2の方法は、訓練済み第1の人工知能を、インターベンション型医療デバイスの近位端における特定された動作、及びインターベンション型医療デバイスの近位端に動作が適用された時点の、インターベンション型医療デバイスの遠位端の医療画像に適用することを含む。訓練済み第1の人工知能は、インターベンション型医療デバイスの近位端において適用される動作と、インターベンション型医療画像集合において観測された、インターベンション型医療デバイスの遠位端において受ける動作との間の相関を発見するように訓練された人工知能である。
[0045] S240では、第1の人工知能は、S220においてインターベンション型医療デバイス101の近位端において特定された動作と、S225において遠位端の近くのインターベンション型医療デバイスの画像とに基づいて、遠位端に向かってインターベンション型医療デバイスに沿った動作を予測する。第1の人工知能は、S225において、初期状態では座屈などの予期せぬ/意図せぬ挙動を伴わないインターベンション型医療デバイス101の画像を網羅するインターベンション型医療デバイスのセグメンテーション表示の蛍光透視画像を受けとることによって実施される。第1の人工知能は、インターベンション型医療処置の前に訓練されているので、第1の人工知能は、セグメンテーション表示からのインターベンション型医療デバイスの初期情報を、通常の又は予期される近位-遠位動作マッピングを決定するための基準として使用する。
[0046] S250において、図2の方法は、医療撮像システムからインターベンション型医療デバイスの画像を取得することを含む。S250で取得されたインターベンション型医療デバイスの画像は、インターベンション型医療デバイスの遠位端の画像及び/又はインターベンション型医療デバイスの遠位端近くの画像である。
[0047] S255において、図2の方法は、医療撮像システムによる画像内でインターベンション型医療デバイスをセグメンテーションすることを含む。セグメンテーションの結果、インターベンション型医療デバイスのセグメンテーション表示が得られる。S255は、任意選択であり、また、S225で取得され、S230で訓練済み第1の人工知能に入力される、遠位端近くのインターベンション型医療デバイスの画像に対して実行される。
[0048] S257では、医療撮像システムからの画像から実際の動作が検出される。
[0049] S260では、インターベンション型医療デバイスの検出された実際の動作が、インターベンション型医療デバイスの予測された動作と比較される。図2においてS260で比較されたインターベンション型医療デバイスの予測動作は、S240で予測された動作である。
[0050] S270では、実際の動作が予測動作から乖離しているかの判定が行われる。乖離は、2値分類プロセスによって特定されてもよく、或いは、1つ若しくは複数の閾値、スコア付けアルゴリズム、又は、インターベンション型医療デバイスの実際の動作が、予測動作による予測の範囲内にあるかを判定する他のプロセスに基づくものでもあり得る。
[0051] 実際の動作が予測動作と乖離しない場合(S270=No)、アラームは生成されない。実際の動作が予測動作と乖離している場合(S270=Yes)、S280においてアラームが生成される。
[0052] さらに、S271において、図2の方法は、インターベンション型医療デバイスからの画像の視野外のインターベンション型医療デバイスを伝わる動作の概略推定位置を予測することを含む。さらに、第2の人工知能は、予測された概略推定位置の予測信頼度を予測する。S271で予測される概略推定位置は、本明細書に記載の第2の人工知能によって予測される。第2の人工知能は、人工知能コントローラ180によって実施され、位置推定ニューラル・ネットワークを実施する。第2の人工知能は、蛍光透視画像から予測デバイス動作及び観測デバイス動作を受けとるように構成される。S210で第2の人工知能に、医療用撮像システムのFOV外で発生する動作の概略推定位置を予測するように訓練させるデータは、FORSなどの形状検知技術を使用して取得される。
[0053] 第2の人工知能は、畳み込みニューラル・ネットワーク、エンコーダ-デコーダ・ネットワーク、敵対的生成ネットワーク、カプセル・ネットワーク、回帰ネットワーク、強化学習エージェントなどの訓練済みニューラル・ネットワークによって実施される。第2の人工知能は、予測動作及び遠位端で観測動作を入力として使用して、座屈などの予期せぬ及び/又は意図せぬ挙動が蛍光透視FOV外で発生しているか、並びにどこで発生しているかを予測し、その予測をFORSからのものなどのS210における訓練で取得されるグラウンド・トゥルース推定位置のグラウンド・トゥルース情報と比較する。平均二乗誤差、平均絶対誤差、又はHuberロスなどのロス関数を計算することによって、予測推定位置とグラウンド・トゥルース情報によるグラウンド・トゥルース推定位置とが比較される。第2の人工知能は、予期せぬ/意図せぬ挙動が予測される場合、警告を生成する。警告は、本明細書に記載のやり方で予測された意図せぬ挙動の有無に基づいて生成される。
[0054] S281では、画像のFOV外のインターベンション型医療デバイスを伝わる、予測された概略推定位置についての表示が生成される。
[0055] 図3は、別の代表的な実施形態による、可撓性デバイスの予測動作マッピングのための別の方法を示している。
[0056] S310において、図3の方法は、インターベンション型医療デバイスの近位端において検出された動作を入力することを含む。
[0057] S320において、インターベンション型医療デバイスの遠位端の少なくとも1つの位置が検出される。
[0058] S330において、第1の人工知能は、遠位端に向かってインターベンション型医療デバイスに沿った動作を予測するように訓練される。
[0059] S360において、遠位端に向かってインターベンション型医療デバイスに沿った動作が、近位端における動作と、インターベンション型医療デバイスの近位端において動作を適用する前の、インターベンション型医療デバイスの遠位端の医療画像とに基づいて予測される。
[0060] S370において、遠位端に向かってインターベンション型医療デバイスに沿った実際の動作が検出される。実際の動作は、医療撮像システムの視野内にあるインターベンション型医療デバイスの一部の医療画像又はセグメンテーション表示から検出される。
[0061] S380において、図3の方法は、インターベンション型医療デバイスの遠位端に向かって予測動作と実際の動作との間の差異に基づくロス関数を決定することを含む。
[0062] S385において、第1のニューラル・ネットワークは、決定されたロス関数に基づいて更新され、プロセスはS330に戻る。
[0063] 図3の実施形態では、第1のニューラル・ネットワークは、第1のニューラル・ネットワークが訓練される際に、S385において更新される。一実施形態では、作動中に生成されたデータが、通常の又は予期される近位-遠位動作マッピングを表し、グラウンド・トゥルースとして高い信頼度で使用できる場合、第1のニューラル・ネットワークは、第1のニューラル・ネットワークが作動中になった後にこのデータを使用して、S385において更新される。
[0064] 図4Aは、代表的な実施形態による、可撓性デバイスの予測動作マッピングのための混成プロセスを示している。
[0065] 図4Aにおいて、第1の人工知能410A及び第2の人工知能415Aは、インターベンション型医療デバイスの近位端及び遠位端における動作を含む入力に基づく、第1のロス関数(ロス関数#1)及び第2のロス関数(ロス関数#2)を使用して訓練される。訓練中の第1の人工知能410A及び第2の人工知能415Aへの入力は、以下に説明するように、図4Bの対応する特徴について例示のために説明される。
[0066] 図4Bは、代表的な実施形態による、可撓性デバイスの予測動作マッピングのための別の混成プロセスを示している。
[0067] 図4Bは、近位-遠位予測動作マッピングのプロセス及びシステムを模式的に表している。ガイドワイヤなどのインターベンション型医療デバイス401、及び蛍光透視X線医療撮像システムなどの医療撮像システム420は、制御環境におけるものなどの人工知能の訓練に使用される。インターベンション型医療デバイス401は、医療撮像において視認可能な第1の領域と、医療撮像において視認可能ではない第2の領域とを含む。第1の領域及び第2の領域は、医療撮像システム420のFOVが変化するのにつれて動作中に変化する。動作中、医療撮像の視野が変化するとき、第1の領域及び第2の領域が変化する。第1の人工知能は、インターベンション型医療デバイス401の近位端における動作と、インターベンション型医療デバイス401の遠位端における結果的な動作との間の関係を確立するように、インターベンション型医療デバイス101の近位端における動作、及びインターベンション型医療デバイス101の近位端に動作が適用された時点でのインターベンション型医療デバイス101の遠位端の医療画像を使用することと、遠位端における結果的な動作を予測し、その動作を遠位端における観測動作と比較することとによって、訓練される。第2の人工知能は、遠位端において観測動作及び予測動作を使用して、インターベンション型医療デバイス401の意図せぬ挙動の概略推定位置を予測することと、意図せぬ挙動の予測された概略推定位置を、意図せぬ挙動のグラウンド・トゥルース概略推定位置と比較することとによって、訓練される。第2のニューラル・ネットワーク415Bの訓練は、インターベンション型医療デバイスの遠位端の概略推定位置のグラウンド・トゥルース情報を使用し、これにより、訓練による学習は、第2のニューラル・ネットワーク415Bがデプロイされた後、使用される。
[0068] 図4Bにおいては、蛍光透視フレームftにおけるインターベンション型医療デバイス401のセグメンテーション、420は、インターベンション型医療デバイス401の近位端で適用される動作と共に、第1のニューラル・ネットワーク410Bに入力として提供される。念のため、図4Bのインターベンション型医療デバイス401のセグメンテーションは、医療撮像システムにおける視野(FOV)内のインターベンション型医療デバイス401の一部を含む第1の領域について行われる。インターベンション型医療デバイス401の別の一部は、医療撮像システムの視野(FOV)内にない。第1のニューラル・ネットワーク410Bは、インターベンション型医療デバイス401のセグメンテーション表示の長さ方向に伝わる、ポイントごとの動作推定を出力する。ポイントごとの動作推定は、後続の蛍光透視フレームft+nにおけるインターベンション型医療デバイス401のセグメンテーション表示から計算される観測に対して比較される。言い換えると、図4Bにおける第1のニューラル・ネットワーク410Bは、インターベンション型医療デバイス401の近位端における動作が、結果としてどのようにインターベンション型医療デバイス401の遠位端に沿った点における動作になるかの相関を学習する。
[0069] また、図4Bにおいては、インターベンション型医療デバイスのセグメンテーション表示の長さ方向に伝わる予測されたポイントごとの動作推定、及びセグメンテーション表示で観測された実際の動作は、第2のニューラル・ネットワーク415Bに入力される。念のため、第2のニューラル・ネットワーク415Bへの入力は、医療撮像システムの視野(FOV)におけるインターベンション型医療デバイス401の一部を含む第1の領域におけるインターベンション型医療デバイス401の推定動作及び実際の動作についてのものである。第2のニューラル・ネットワーク415Bの出力は、医療撮像システムの視野外のインターベンション型医療デバイス401の一部を含む第2の領域における意図せぬ動作の概略推定位置の予測である。第2の領域において推定された概略推定位置は、形状検知技術などの機構から取得される第2の領域におけるグラウンド・トゥルース推定位置に対して比較される。例えば、Philips社によるFiber Optic RealShape(FORS)などの形状検知技術を介して、グラウンド・トゥルース推定位置が取得される。
[0070] 上述のように、図4Bでは、第1のニューラル・ネットワーク410Bが、インターベンション型医療デバイス401の近位端における動作の入力と、インターベンション型医療デバイス401のセグメンテーション表示とに基づいて、遠位端に向かってインターベンション型医療デバイス401の長さ方向に沿ったポイントごとの動作推定を出力するように訓練される。第1のニューラル・ネットワーク410Bの訓練は、インターベンション型医療デバイス401の遠位端における予測動作と観測動作との間の差異を反映する第1のロス関数(ロス関数1)をフィードバックすることに基づいている。第2のニューラル・ネットワーク415Bは、ポイントごとの動作推定及び医療撮像システムの視野内で実際に観測可能な動作に基づいて、インターベンション型医療デバイス401の意図せぬ挙動の概略推定位置を出力するように訓練される。第2のニューラル・ネットワーク415Bの訓練は、概略推定位置の出力と意図せぬ挙動のグラウンド・トゥルース推定位置との間の差異を反映する第2のロス関数(ロス関数2)をフィードバックすることに基づいている。図4Bの訓練中、意図せぬ挙動の予測された概略推定位置は、例えば光学形状検知による実際の推定位置を使用して、第2のロス関数を介して確定される。第2のニューラル・ネットワークが許容可能な精度に訓練された後、実際の推定位置が使用されないときであっても、訓練中の予測推定位置の使用が、動作中に適用される。結果として、インターベンション型医療デバイス401の意図せぬ挙動を予測し、粗く位置特定することができる。
[0071] 図5は、代表的な実施形態による、可撓性デバイスの予測動作マッピングの方法を示している。
[0072] 図5では、第1の人工知能及び第2の人工知能の訓練について説明される。S510において、インターベンション型医療デバイスの近位端で観測動作が、第1のニューラル・ネットワークに第1の入力として入力される。
[0073] S520において、遠位端でのインターベンション型医療デバイスのセグメンテーションが、第1のニューラル・ネットワークに第2の入力として入力される。
[0074] S525では、第1のニューラル・ネットワークがS510及びS520からの入力に適用される。
[0075] S530では、インターベンション型医療デバイスの遠位端における予測動作が第1のニューラル・ネットワークから出力される。
[0076] S540では、インターベンション型医療デバイスの遠位端において観測動作が、インターベンション型医療デバイスの遠位端における予測動作と比較されて、第1のロス関数を生成する。
[0077] S545では、第1のニューラル・ネットワークが更新される。プロセスが終了するまで、S525に戻って第1のニューラル・ネットワークを訓練するプロセスが継続する。
[0078] S550では、第1のニューラル・ネットワークの出力からインターベンション型医療デバイスの遠位端における予測動作が、第2のニューラル・ネットワークに第1の入力として入力される。
[0079] S560では、インターベンション型医療デバイスの遠位端で観測動作が、第2のニューラル・ネットワークに第2の入力として入力される。
[0080] S565では、第2のニューラル・ネットワークが適用される。
[0081] S570では、撮像デバイスの視野外における意図せぬ挙動の概略推定位置が、第2のニューラル・ネットワークによって出力される。
[0082] S580では、インターベンション型医療デバイスの意図せぬ挙動のグラウンド・トゥルース推定位置が、意図せぬ挙動の予測された概略推定位置と比較されて、第2のロス関数を生成する。
[0083] S585では、第2のロス関数がフィードバックされて、第2のニューラル・ネットワークを更新する。S585の後、第2のニューラル・ネットワークを訓練させるプロセスは、S565に戻る。
[0084] 図6Aは、代表的な実施形態による、可撓性デバイス用の予測動作マッピングのための混成プロセスを示す図である。
[0085] 図6Aにおいて、第1の人工知能610A及び第2の人工知能615Aは、本明細書に記載の出力を生成する動作で使用される。動作中の第1の人工知能610A及び第2の人工知能615Aへの入力は、以下に説明するように、図6Bの対応する特徴について例示として説明される。
[0086] 図6Bは、代表的な実施形態による、可撓性デバイス用の予測動作マッピングのための別の混成プロセスを示している。
[0087] 図6Bにおいて、別の近位-遠位予測動作マッピングのプロセス及びシステムが概略的に表されている。図6Bの混成プロセス及びシステムは、インターベンション型医療処置中に使用される。図6Bの混成プロセスと同様に、任意の蛍光透視フレームftについて、医療撮像の視野内の第1の領域におけるインターベンション型医療デバイス601のセグメンテーションが、インターベンション型医療デバイス601の近位端において適用される動作と共に、第1のニューラル・ネットワーク610Bへの入力として提供される。第1のニューラル・ネットワーク610Bは、インターベンション型医療デバイス601のセグメンテーション表示の長さ方向に沿ったポイントごとの動作推定を出力する。第1のニューラル・ネットワーク610Bによる推定が、後続の蛍光透視フレームft+nにおける医療撮像システムの視野内の第1の領域におけるインターベンション型医療デバイス601のセグメンテーション表示から計算された観測に対して比較される。2つの動作、すなわち推定動作及び観測動作は、2つの動作が一致しない場合に、蛍光透視FOV外の第2の領域において意図せぬ動作があり得る場所の概略推定位置を予測する第2のニューラル・ネットワーク616Bの入力となる。
[0088] 図6Cは、代表的な実施形態による、可撓性デバイスの予測動作マッピングのための方法を示している。
[0089] 図6Cでは、インターベンション型医療デバイスの近位端において観測動作が、S610において第1のニューラル・ネットワークに第1の入力として入力される。
[0090] S620において、インターベンション型医療デバイスの遠位端におけるインターベンション型医療デバイスのセグメンテーションが、第1のニューラル・ネットワークに第2の入力として入力される。セグメンテーション表示は、蛍光透視画像におけるインターベンション型医療デバイスのセグメンテーション表示の2値マスクとして提供される。
[0091] S625において、S610での第1の入力とS620での第2の入力に対して、第1のニューラル・ネットワークが適用される。
[0092] S630において、インターベンション型医療デバイスの遠位端における予測動作が、予測動作として第1のニューラル・ネットワークから出力される。第1のニューラル・ネットワークは、訓練済みのエンコーダ-デコーダ・ネットワークであってもよい。予測動作は、遠位端に向かってインターベンション型医療デバイスの長さ方向に沿った動作であり、訓練済みエンコーダ-デコーダ・ネットワークによって出力される。
[0093] S650において、第1のニューラル・ネットワークから出力されるインターベンション型医療デバイスの遠位端における予測動作が、第2のニューラル・ネットワークに第1の入力として入力される。
[0094] S660において、インターベンション型医療デバイスの遠位端で観測動作が、第2のニューラル・ネットワークに第2の入力として入力される。第2のニューラル・ネットワークは、訓練済み畳み込みニューラル・ネットワークであってもよい。
[0095] S665において、第2のニューラル・ネットワークが、S650での予測動作と、S660での観測動作とに適用される。
[0096] S670において、第2のニューラル・ネットワークは、医療撮像システムのFOV外の意図せぬ挙動の概略推定位置を出力する。第2のニューラル・ネットワークは、医療撮像システムのFOV内のインターベンション型医療デバイスの遠位端における予測動作と観測動作との間の不一致に基づいて、蛍光透視FOV外のインターベンション型医療デバイス101における予期せぬ/意図せぬ挙動を位置特定する。予測は、上記のアラームを生成するのに使用される。
[0097] 上記の実施形態で説明されたように、インターベンション型医療デバイスの近位端において適用される動作と、インターベンション型医療デバイスの遠位端において観測される動作との間の関係又はマッピングを学習するために、1つ又は複数の深層学習アルゴリズムが訓練される。撮影された入力動作は、手動動作又はロボット動作若しくはロボット支援動作などの機械的動作を含み、回転及び/又は移動であり得る。代替実施形態では、深層学習アルゴリズムは、複数の点における速度場の近位-遠位マッピング、加速度、慣性、空間構成、接線(角度)動作及び直線速度又は直線加速度も学習する。深層学習アルゴリズムによる学習は、インターベンション型医療デバイスの特定のパラメータを考慮する。処置の間、近位端においてインターベンション型医療デバイスに適用される動作、及びインターベンション型医療デバイスの近位端に動作が適用された時点でのインターベンション型医療デバイスの遠位端の医療画像が与えられると、制御システム100は、遠位端におけるインターベンション型医療デバイスの動作を推定する。制御システム100は、遠位端における予測されたデバイス動作と観測デバイス動作との差異を、蛍光透視FOV外で発生する異なる観測されていないデバイス挙動に関連付けることも学習する。制御システム100は、次いで、医療撮像システムのFOV外のインターベンション型医療デバイスにおける起こり得る意図せぬ挙動について医師にアラートを出し、それにより、起こり得る血管損傷又は他の望ましくない結果を防止する。
[0098] 一実施形態では、上記の教示と一貫して、深層学習モデルは、インターベンション型医療デバイス101の遠位端における動作を、インターベンション型医療デバイス101のセグメンテーション表示の2次元座標から、又は蛍光透視像のインターベンション型医療デバイスのセグメンテーション表示に適合するスプラインの2次元座標から、予測するように訓練される。
[0099] 別の実施形態では、例えば、長短期記憶(LSTM)ネットワーク、時間畳み込みネットワーク(TCN)、又は変換器などの再帰型ニューラル・ネットワーク(RNN)アーキテクチャは、例えば、フレームt_nにおける動作予測をより良好に通知するために、複数の蛍光透視フレーム(t_0~t_n)におけるインターベンション型医療デバイス101のセグメンテーション表示を観測するために使用される。
[00100] 別の実施形態において、深層学習モデルは、フレームt_nのみにおいて、又はフレームt_0~t_nにおいてのいずれかでインターベンション型医療デバイスのセグメンテーションから得られる、フレームt_(n+1)におけるインターベンション型医療デバイスのセグメンテーション表示の位置を予測するように訓練される。予測は、蛍光透視フレームt_(n+1)で観測されるデバイスと直接比較される。
[00101] 別の実施形態では、3次元モデル、又は知られているインターベンション型医療デバイス101のパラメータ、規則、若しくは特性のセットが、インターベンション型医療デバイス101の動作又は速度の予測を通知するために使用される。
[00102] 別の実施形態では、深層学習アルゴリズムが、デバイス固有のパラメータの近位-遠位マッピングを学習するように訓練される。デバイス固有のパラメータの例としては、複数の点にわたる速度場、加速度、慣性、空間構成、及び接線/角度の、及び直線の速度又は加速度が挙げられる。本実施形態では、予測されたパラメータが、測定されたパラメータに対して比較される。
[00103] 別の実施形態では、機械学習アルゴリズムが、予測された動作情報及び観測動作情報を使用して、観測結果を正常又は異常として分類する。機械学習アルゴリズムの例としては、1クラスのサポート・ベクタ・マシン(SVM)分類又は深層学習ベースの分類が挙げられる。本実施形態では、異常が検出されたとき、警告が生成される。
[00104] 別の実施形態では、深層学習ネットワークは、インターベンション型医療デバイスの遠位端の超音波画像から、インターベンション型医療デバイスの遠位端における動作を予測するように訓練される。深層学習ネットワークへの入力は、超音波画像、超音波におけるインターベンション型医療デバイスのセグメンテーション表示の2値マスク、超音波におけるインターベンション型医療デバイス101のセグメンテーション表示の2次元(x,y)座標、又は超音波におけるインターベンション型医療デバイス101のセグメンテーション表示に適合するスプラインの2次元(x,y)座標から提供される。
[00105] さらに別の実施形態では、深層学習ネットワークは、訓練中のグラウンド・トゥルースとの一致、又は信頼度若しくは不確実性を決定する任意の他の方法に基づいて、インターベンション型医療デバイスの遠位端における予測動作の信頼度をさらに学習するように訓練される。制御システム100は、遠位端における確かな推定を生成するインターベンション型医療デバイス101の近位端における入力動作のタイプを学習するか、又は、確かな動作予測に関連付けられた蛍光透視像のタイプを学習する。例えば、制御システム100は、フォアショートニングを示す像が、遠位端において非常に確かな動作推定を生成しないことを学習する。第1の深層学習ネットワークによって予測された遠位端における予測動作の信頼度は、医療撮像システムの視野外のインターベンション型医療デバイス101を伝わる意図せぬ挙動の概略推定位置を予測するために第2のネットワークに追加的に入力される。同様に、第2の深層学習ネットワークは、医療撮像システムの視野外のインターベンション型医療デバイス101を伝わる意図せぬ挙動の予測された概略推定位置の信頼度をさらに予測するように訓練される。
[00106] さらに別の実施形態では、血管内ロボット・システムは、カテーテルの先端部で加えられている力を測定して、力の測定値をコンソールに表示するか、又は力の測定値を制御ループに組み込む。この機能は、継続して力が加わっている危険性を臨床医にアラートとして出し、これにより、穿孔又は血管壁の他の損傷の可能性を減少させる。本実施形態では、座屈などの異常な又は意図せぬデバイス挙動の検出は、ロボット・システムの安全機構又は制御ループのいずれかに組み込まれる。例えば、エンド・エフェクタ(遠位部)において座屈が予測された場合、血管壁穿孔の危険性が高く、ロボット・アクチュエータが減速する、又は緊急停止がトリガされることになる。使用者にコンソール上で通知が行われ、是正処置を行うように求められる。あるいは、制御システム100は、半自律型ロボット又は完全自律型ロボットの場合、自動的にエンド・エフェクタを引き出し、異なる方向に操縦し、カニューレ挿入の再アプローチを行う。ガイドワイヤの医療部に座屈が発生した場合、制御システム100は、予めプログラムされた規則又は複雑な予測モデルのいずれかを使用して、バックグラウンドで、ゲイン及びモータ速度を含むPIDコントローラ・パラメータなどのコントローラ150の設定を調整する。コントローラの調整が失敗する、又は効果がない場合にのみ、使用者に通知が行われるので、操作者の過負荷、認知負担、ロボット・システムに対する信頼の低下が回避される。ロボット・システムは、操作者の嗜好も学習し、特定の領域で、特定の強度若しくは頻度で、又は特定の期間、座屈が発生した場合にのみ、操作者に通知する。
[00107] さらに別の実施形態では、Corindus CorPathを制御するものなどのタッチ・パネル若しくはジョイスティックの操作、又は、操縦可能シース、操縦可能ガイド・カテーテル、TEEプローブを制御するものなどのノブ回転の形態の、インターベンション型医療デバイス101の近位端における複雑な入力が、組み込まれている。制御システム100がインターベンション型医療デバイスにおいて意図せぬ挙動を検出した場合、制御システム100は、入力デバイスに関連する意図せぬ挙動を排除するための機構を提案する。入力デバイスの例としては、タッチ・パネル、ジョイスティック、及びノブが挙げられる。
[00108] 図7は、別の代表的な実施形態による、可撓性デバイスの予測動作マッピングのための方法が実施されるコンピュータ・システムを示している。
[00109] 図7のコンピュータ・システム700は、通信デバイス又はコンピュータ・デバイスの構成要素の完全なセットを示している。しかしながら、本明細書に記載の「コントローラ」は、メモリとプロセッサとの組み合わせによるものなどの、図7の構成要素のセットよりも少ない構成要素のセットで実施される。コンピュータ・システム700は、本明細書の可撓性デバイスの予測動作マッピングのためのシステムにおける1つ又は複数の構成装置の一部又は全ての要素を含むが、そのような装置は、コンピュータ・システム700について説明された要素の1つ又は複数を必ずしも含まず、記載されていない他の要素を含む。
[00110] 図7を参照すると、コンピュータ・システム700は、コンピュータ・システム700に、本明細書に開示された方法又はコンピュータ・ベースの機能のいずれかを実行させる実行可能なソフトウェア命令のセットを含む。コンピュータ・システム700は、スタンドアロン・デバイスとして動作するか、又は、例えば、ネットワーク701を使用して他のコンピュータ・システム若しくは周辺デバイスに接続される。実施形態では、コンピュータ・システム700は、アナログ-デジタル変換器を介して受信されたデジタル信号に基づいて論理処理を実行する。
[00111] ネットワーク展開において、コンピュータ・システム700は、サーバの能力内で、或いはサーバ-クライアント・ユーザ・ネットワーク環境のクライアント・ユーザ・コンピュータとして、又はピア・ツー・ピア(若しくは分散)ネットワーク環境のピア・コンピュータ・システムとして動作する。コンピュータ・システム700は、図1のコントローラ150、据え置き型コンピュータ、モバイル・コンピュータ、パーソナル・コンピュータ(PC)、ノート型コンピュータ、タブレット・コンピュータ、又はそのマシンが取るべき措置を指定する(シーケンス又はその他の)ソフトウェア命令のセットを実行することが可能な任意の他のマシンなどの、様々なデバイスとして実施するか、又はそれらに組み込むこともできる。コンピュータ・システム700は、同様に、追加のデバイスを含む統合システム内にあるデバイスとして、又はその中に組み込むことができる。一実施形態では、コンピュータ・システム700は、音声、映像、又はデータ通信を提供する電子デバイスを使用して実施することができる。さらに、コンピュータ・システム700は、単数で図示されているが、用語「システム」は、1つ又は複数のコンピュータ機能を実行するソフトウェア命令のセット又は複数のセットを個別に又は合わせて実行するシステム又はサブシステムの任意の複数体も含むとも見なされるべきである。
[00112] 図7に図示のように、コンピュータ・システム700は、プロセッサ710を含む。プロセッサ710は、図1のコントローラ150のプロセッサ152の代表的な例と考えられ、本明細書に記載の方法及びプロセスの一部又は全ての態様を実施する命令を実行する。プロセッサ710は、有形であり、非一時的である。本明細書で使用する場合、「非一時的」という用語は、ある状態の不変の特性としてではなく、ある期間続くことになる状態の特性として解釈されるべきである。「非一時的な」という用語は、搬送波若しくは搬送信号の特性、又は任意の場所、任意の時間に一時的にのみ存在する他の形態などの一過性の特性であることを特に否定している。プロセッサ710は、製品及び/又は機械部品である。プロセッサ710は、本明細書の様々な実施形態で説明される機能を実行するソフトウェア命令を実行するように構成されている。プロセッサ710は、汎用プロセッサであってもよく、又は特定用途向け集積回路(ASIC)の一部であってもよい。プロセッサ710は、マイクロプロセッサ、マイクロコンピュータ、プロセッサ・チップ、コントローラ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、ステート・マシン、又はプログラマブル論理デバイスであってもよい。プロセッサ710は、フィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・ゲート・アレイ(PGA)、又はディスクリート・ゲート及び/若しくはトランジスタ論理を含む別のタイプの回路を含む論理回路であってもよい。プロセッサ710は、中央処理装置(CPU)、グラフィックス処理装置(GPU)、テンソル・プロセッシング・ユニット(TPU)、又は何らかの組み合わせであってもよい。さらに、本明細書で記載される任意のプロセッサは、複数のプロセッサ、並列プロセッサ、又はその両方を含む。複数のプロセッサは、単一のデバイス又は複数のデバイスに含まれ、又は連結される。
[00113] 本明細書で使用される「プロセッサ」という用語は、プログラム又は機械実行可能命令を実行することができる電子部品を包含する。「プロセッサ」を備える計算デバイスへの言及は、マルチコア・プロセッサと同様に、複数のプロセッサ又は処理コアを含むと解釈されるべきである。プロセッサは、単一のコンピュータ・システム内の、又は複数のコンピュータ・システム間で分散したプロセッサの集合体も指す。また、計算デバイスという用語は、それぞれが1つ又は複数のプロセッサを含む計算デバイスの集合体又はネットワークを含むと解釈されるべきである。プログラムは、同じ計算デバイス内にある、又は複数の計算デバイスにわたって分散されている1つ又は複数のプロセッサによって実行されるソフトウェア命令を有する。
[00114] コンピュータ・システム700は、メイン・メモリ720とスタティック・メモリ730とをさらに含み、コンピュータ・システム700のメモリは、バス708を介して、互いに通信し、プロセッサ710とも通信する。メイン・メモリ720及びスタティック・メモリ730のいずれか又は両方は、図1のコントローラ150のメモリ151の代表的な例と考えられ、本明細書に記載の方法及びプロセスの一部又は全ての態様を実施するのに使用される命令を記憶する。本明細書に記載のメモリは、データ及び実行可能なソフトウェア命令を記憶する有形記憶媒体であり、ソフトウェア命令が記憶されている間、非一時的である。本明細書で使用する場合、「非一時的」という用語は、ある状態の不変の特性としてではなく、ある期間続くことになる状態の特性として解釈されるべきである。「非一時的な」という用語は、搬送波若しくは搬送信号の特性、又は任意の場所、任意の時間に一時的にのみ存在する他の形態などの一過性の特性であることを特に否定している。メイン・メモリ720及びスタティック・メモリ730は、製品及び/又は機械部品である。メイン・メモリ720及びスタティック・メモリ730は、コンピュータ可読媒体であり、そこから、データ及び実行可能なソフトウェア命令をコンピュータ(例えば、プロセッサ710)によって読み出すことができる。メイン・メモリ720及びスタティック・メモリ730のそれぞれは、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュ・メモリ、電気的プログラマブル読み出し専用メモリ(EPROM)、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM(登録商標))、レジスタ、ハードディスク、リムーバブル・ディスク、テープ、コンパクト・ディスク読み出し専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、フロッピー・ディスク、ブルーレイ・ディスク、又は当技術分野において知られている任意の他の形態の記憶媒体のうちの1つ又は複数として実施される。メモリは、揮発性又は不揮発性、セキュアな及び/又は暗号化された、非セキュアな及び/又は暗号化されていないものであってよい。
[00115] 「メモリ」は、コンピュータ可読記憶媒体の例である。コンピュータ・メモリは、プロセッサに直接アクセス可能な任意のメモリである。コンピュータ・メモリの例としては、RAMメモリ、レジスタ、及びレジスタ・ファイルが挙げられるが、これらに限定されない。「コンピュータ・メモリ」又は「メモリ」への言及は、複数のメモリである可能性があると解釈されるべきである。メモリは、例えば、同一のコンピュータ・システム内の複数のメモリである。メモリは、複数のコンピュータ・システム又は計算デバイス間に分散している複数のメモリであってもよい。
[00116] 図示のように、コンピュータ・システム700は、例えば、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)、フラット・パネル・ディスプレイ、固体ディスプレイ、又は陰極線管(CRT)などの映像表示ユニット750をさらに含む。さらに、コンピュータ・システム700は、キーボード/仮想キーボード、接触感応入力画面、又は音声認識を用いた音声入力などの入力デバイス760と、マウス、接触感応入力画面、又はパッドなどのカーソル制御デバイス770とを含む。また、コンピュータ・システム700は、任意選択で、ディスク・ドライブ・ユニット780、スピーカ又はリモート・コントロールなどの信号生成デバイス790、及び/又はネットワーク・インターフェイス・デバイス740を含む。
[00117] 一実施形態では、図7に描写のように、ディスク・ドライブ・ユニット780は、ソフトウェア命令784の1つ又は複数のセット(ソフトウェア)が埋め込まれたコンピュータ可読媒体782を含む。ソフトウェア命令のセット784は、コンピュータ可読媒体782から読み出されてプロセッサ710によって実行される。さらに、ソフトウェア命令784は、プロセッサ710によって実行されるとき、本明細書に記載の方法及びプロセスの1つ又は複数のステップを実行する。一実施形態では、ソフトウェア命令784は、全て又は一部が、コンピュータ・システム700によって実行される間、メイン・メモリ720、スタティック・メモリ730及び/又はプロセッサ710内に常駐する。さらに、コンピュータ可読媒体782は、ソフトウェア命令784を含み、又は伝播信号に応答してソフトウェア命令784を受信及び実行して、その結果、ネットワーク701に接続されたデバイスが、ネットワーク701を介して音声、映像、又はデータを通信する。ソフトウェア命令784は、ネットワーク・インターフェイス・デバイス740を介してネットワーク701上で送信又は受信される。
[00118] 一実施形態では、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、プログラマブル・ロジック・アレイ、及び他のハードウェア構成要素などの専用ハードウェア実装が、本明細書に記載の方法の1つ又は複数を実施するように構築される。本明細書に記載の1つ又は複数の実施形態は、モジュール間で、及びモジュールを通して通信可能な関連する制御信号及びデータ信号を有する2つ以上の特定の相互接続されたハードウェア・モジュール又はデバイスを使用して機能を実施する。したがって、本開示は、ソフトウェア、ファームウェア、及びハードウェアの実施を包含する。本出願のいずれのものも、有形で非一時的なプロセッサ及び/又はメモリなどのハードウェアは使用せずソフトウェア単独で実施される、又は実施可能であると解釈されるべきではない。
[00119] 本開示の様々な実施形態によると、本明細書に記載の方法は、ソフトウェア・プログラムを実行するハードウェア・コンピュータ・システムを使用して実施される。さらに、例示的で非限定的な実施形態では、実施は、分散処理、コンポーネント/オブジェクト分散処理、及び並列処理を含むことができる。仮想コンピュータ・システム処理は、本明細書に記載の方法又は機能の1つ又は複数を実施し、本明細書に記載のプロセッサは、仮想処理環境をサポートするために使用される。
[00120] したがって、可撓性デバイスの予測動作マッピングは、例えば、インターベンション型医療デバイスが、ライブ2次元蛍光透視撮像の誘導下でインターベンション型医療処置に使用されるとき、インターベンション型医療デバイスの実際の位置決めに関する誘導を提供する。意図せぬ動作につながり得るインターベンション型医療デバイスの特性は、意図せぬ動作を補償するための基準として使用することができる。同様に、意図せぬ動作につながり得る患者の解剖学的構造を、意図せぬ動作を補償するための基準として使用することができる。
[00121] 本発明は、近位端における特定の動作又は行動、インターベンション型医療デバイスの遠位端の現在の配置又は構成が与えられるとき、遠位端において予期可能な動作又は挙動の範囲を学習するシステムを説明する。それにより、蛍光透視で視認可能なガイドワイヤの長さ方向に伝わる予期動作を予測し、観測動作が予期動作の範囲外である場合にアラートを発することができる。さらに、システムは、蛍光透視視野(FOV)における予期せぬ動作のタイプを観測し、蛍光透視FOV外の予期せぬ又は意図せぬ挙動が発生している場所、例えば、FOVに近いか又はFOVから離れているかを予測することができる。
[00122] それにもかかわらず、可撓性デバイスのための予測動作マッピングは、本明細書に記載の特定の詳細への適用として限定されることなく、代わりに、第1の人工知能及び第2の人工知能への1つ又は複数の入力が、本明細書の実施形態について記載した特定の詳細とは異なる、追加の実施形態に適用されるものである。
[00123] いくつかの例示的な実施形態を参照して、可撓性デバイスのための予測動作マッピングを説明したが、使用された語句は、限定のための語句ではなく、説明及び例示のための語句であることが理解される。その態様における可撓性デバイスのための予測動作マッピングの範囲及び趣旨から逸脱することなく、本明細書で言及され、修正されるように、添付の請求項の範囲内で、変更を行うことができる。可撓性デバイスのための予測動作マッピングは、特定の手段、材料、及び実施形態を参照して説明されてきたが、可撓性デバイスのための予測動作マッピングは、開示された特定のものに限定されることを意図せず、むしろ、可撓性デバイスの予測動作マッピングは、添付の特許請求の範囲内にあるものなどの、全ての機能的に等価な構造、方法、及び使用にわたる。
[00124] 本明細書に記載の実施形態の図示は、様々な実施形態の構造の一般的な理解を提供することを意図している。図示は、本明細書に記載の開示の要素及び特徴の全ての完全な説明として機能することは意図していない。多くの他の実施形態は、本開示を検討する上で当業者にとって明らかである。他の実施形態は、本開示の範囲から逸脱することなく、構造的及び論理的な置換及び変更が行われるように、本開示から利用及び導出される。また、図示は単に代表的なものであり、縮尺通りに描かれていない場合がある。図示内の特定の比率が誇張される場合があり、その他の比率が小さくされる場合もある。したがって、本開示及び図は、制限のためのものではなく、例示的とみなされるべきである。
[00125] 本開示の1つ又は複数の実施形態は、「発明」という用語によって、単に便宜のために、及び本出願の範囲をいずれの特定の発明又は発明概念にも自発的に限定することを意図せず、個別に及び/又は集合的に本明細書において言及され得る。さらに、特定の実施形態が本明細書において図示及び説明されたが、同一又は類似の目的を達成するように設計された任意のそこから導かれる構成が、図示の特定の実施形態の代わりになり得ることを理解されたい。本開示は、様々な実施形態の、任意の及び全ての、そこから導かれる適合又は変形を網羅することを意図している。上記の実施形態の組み合わせ、及び本明細書で特に説明されていない他の実施形態は、当業者にとって本明細書を検討すれば明らかであろう。
[00126] 開示の要約は、37 C.F.R. §1.72(b)を遵守して提供され、特許請求の範囲又は意味の解釈又は限定に使用されないことを理解の上で提出されている。さらに、前述の発明を実施するための形態において、本開示を簡潔に記載する目的で、様々な特徴がまとめられるか、又は単一の実施形態で記載されることがある。本開示は、特許請求されている実施形態が各請求項に明示的に記載されているものよりも多くの機能を必要とするという意図を反映すると解釈されるべきではない。むしろ、以下の特許請求の範囲が反映するように、発明の主題は、開示の実施形態のいずれかの特徴の全てよりも少ないものに向けられていてよい。したがって、以下の特許請求の範囲は発明を実施するための形態に組み込まれ、各請求項は、別々に特許請求された主題を定義するものとして、自立している。
[00127] 開示の実施形態の先述の説明は、当業者の誰もが本開示に記載の概念を実践できるようにするために提供されている。このように、上記の開示された主題は、例示的であり、制限するものではないと考えられるべきであり、添付の特許請求の範囲は、本開示の真の趣旨及び範囲内にある全てのそのような修正、拡張、及び他の実施形態を網羅することを意図している。したがって、法律で許容される最大限の範囲で、本開示の範囲は、以下の特許請求の範囲及びそれらの均等物の最も広い許容可能な解釈によって決定されるべきであり、前述の発明を実施するための形態によって制限又は限定されるものではない。
Claims (15)
- 命令を記憶するメモリと、前記命令を実行するプロセッサとを備えるコントローラであって、前記命令が、前記プロセッサによって実行されるとき、前記コントローラに、
インターベンション型医療処置中の、インターベンション型医療デバイスの遠位端の少なくとも1つの位置を取得させ、
前記インターベンション型医療処置中の前記インターベンション型医療デバイスの近位端における動作を特定させ、
第1の訓練済み人工知能を、前記インターベンション型医療デバイスの前記近位端における前記動作と、前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置とに適用させ、
前記第1の訓練済み人工知能を、前記インターベンション型医療デバイスの前記近位端における前記動作と、前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置とに、適用することに基づいて、前記インターベンション型医療処置中の、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った予測動作を予測させ、
前記インターベンション型医療デバイスの前記近位端における前記動作が特定された後、医療撮像システムから前記インターベンション型医療デバイスの前記遠位端の画像を取得させ、
前記インターベンション型医療デバイスの前記画像から、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った実際の動作と、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った予測動作とを比較させ、
前記実際の動作が前記予測動作と乖離したときを決定させる、
コントローラ。 - 前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置が、前記医療撮像システムからの前記インターベンション型医療デバイスの前記遠位端の画像から取得され、
前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った前記予測動作が、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った複数の位置について予測される、請求項1に記載のコントローラ。 - 前記第1の訓練済み人工知能が、前記インターベンション型医療デバイスのタイプ、前記インターベンション型医療処置のタイプ、解剖学的ランドマーク、又は患者の少なくとも1つの身体的特徴のうちの少なくとも1つを入力し、
前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った前記予測動作が、前記第1の訓練済み人工知能への前記入力に基づいて予測される、請求項1に記載のコントローラ。 - 前記プロセッサによって実行されるとき、前記命令が、前記コントローラに、さらに、
前記実際の動作が前記予測動作と乖離しているときにアラームを生成させる、請求項1に記載のコントローラ。 - 前記プロセッサによって実行されるとき、前記命令が、前記コントローラに、さらに、
前記実際の動作及び前記予測動作に基づいて、かつ第2の訓練済み人工知能を適用することによって、前記医療撮像システムの視野外の、前記インターベンション型医療デバイスに沿った意図せぬ挙動の予測概略推定位置を予測させる、請求項1に記載のコントローラ。 - インターベンション型医療デバイスの近位端における動作を検出する動作検出器と、
命令を記憶するメモリ、及び前記命令を実行するプロセッサを備えるコントローラとを備える、インターベンション型医療デバイスを制御するためのシステムであって、前記命令が、前記プロセッサによって実行されるとき、前記システムに、
インターベンション型医療処置中の、インターベンション型医療デバイスの遠位端の少なくとも1つの位置を取得させ、
前記インターベンション型医療処置中の前記インターベンション型医療デバイスの前記近位端における前記動作を特定させ、
前記インターベンション型医療デバイスの前記近位端における前記動作と、前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置とに、第1の訓練済み人工知能を適用させ、
前記第1の訓練済み人工知能を、前記インターベンション型医療デバイスの前記近位端における前記動作と、前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置とに、適用することに基づいて、前記インターベンション型医療処置中の、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った予測動作を予測させ、
前記インターベンション型医療デバイスの前記近位端における前記動作が特定された後、医療撮像システムから前記インターベンション型医療デバイスの前記遠位端の画像を、前記コントローラによって取得させ、
前記インターベンション型医療デバイスの前記画像から、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った実際の動作と、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った予測動作とを比較させ、
前記実際の動作が前記予測動作と乖離したときを決定させる、
システム。 - 前記システムは、前記医療撮像システムをさらに備え、
前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置が、前記医療撮像システムからの前記インターベンション型医療デバイスの前記遠位端の画像から、取得され、
前記医療撮像システムからの前記画像が、セグメンテーションされて、前記医療撮像システムによって撮像された前記インターベンション型医療デバイスを特定する、請求項6に記載のシステム。 - 前記システムは、前記第1の訓練済み人工知能及び第2の訓練済み人工知能を実施する人工知能コントローラをさらに備え、前記プロセッサによって実行されるとき、前記命令が、前記システムに、さらに、
複数のインターベンション型医療デバイスのための複数の訓練セッションにおいて、前記インターベンション型医療デバイスの遠位端の少なくとも1つの位置を入力させ、前記インターベンション型医療デバイスの近位端における動作を特定させ、前記インターベンション型医療デバイスの前記近位端における前記動作に起因する、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った実際の動作を検出させ、
前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置と、前記インターベンション型医療デバイスの前記近位端において特定された前記動作とに基づいて、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った予測動作を予測させ、
前記予測動作と前記実際の動作との間の差異に基づいて、ロスを決定させ、
前記第1の訓練済み人工知能によって、前記インターベンション型医療デバイスの前記近位端における前記動作と、前記インターベンション型医療デバイスの前記遠位端近くの前記インターベンション型医療デバイスを伝わる前記動作との間の関係を確立させ、
前記予測動作と前記実際の動作との間の差異に基づいて決定された各ロスに基づいて、前記第1の訓練済み人工知能を更新させる、請求項6に記載のシステム。 - 前記命令が、前記システムに、さらに、
複数の訓練セッションにおいて、前記医療撮像システムの視野外の、前記インターベンション型医療デバイスの概略推定位置のグラウンド・トゥルース情報を入力させ、
前記予測動作及び前記実際の動作に基づいて、かつ、第2の人工知能を適用することによって、前記医療撮像システムの前記視野外の前記インターベンション型医療デバイスの予測概略推定位置を予測させ、
前記インターベンション型医療デバイスの前記概略推定位置の前記グラウンド・トゥルース情報と、前記医療撮像システムの前記視野外の前記インターベンション型医療デバイスの前記予測概略推定位置との間の差異に基づいてロスを決定させ、
各ロスに基づいて、前記第2の人工知能を更新させる、請求項6に記載のシステム。 - 前記インターベンション型医療デバイスの前記近位端における動作を制御するロボットと、
前記医療撮像システムの視野内の、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った前記予測動作に基づいてアラートを出力するインターフェイスと
をさらに備える、請求項6に記載のシステム。 - インターベンション型医療デバイスを制御するための方法であって、
インターベンション型医療処置中の、医療撮像システムからの、前記インターベンション型医療デバイスの遠位端の少なくとも1つの位置を取得するステップと、
前記インターベンション型医療処置中の、前記インターベンション型医療デバイスの近位端の動作を特定するステップと、
第1の訓練済み人工知能を、前記インターベンション型医療デバイスの前記近位端における前記動作と、前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置とに適用するステップと、
前記第1の訓練済み人工知能を、前記インターベンション型医療デバイスの前記近位端における前記動作と、前記インターベンション型医療デバイスの前記遠位端の前記少なくとも1つの位置とに、適用することに基づいて、前記インターベンション型医療処置中の、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った予測動作を、予測するステップと、
前記インターベンション型医療デバイスの前記近位端における前記動作が特定された後、医療撮像システムから前記インターベンション型医療デバイスの前記遠位端の画像を取得するステップと、
前記インターベンション型医療デバイスの前記画像から、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った実際の動作と、前記インターベンション型医療デバイスの前記遠位端に向かって前記インターベンション型医療デバイスに沿った予測動作とを比較するステップと、
前記実際の動作が前記予測動作と乖離したときを決定するステップと
を有する、方法。 - 前記インターベンション型医療デバイスの前記画像をセグメンテーションして、前記医療撮像システムによって撮像された前記インターベンション型医療デバイスを特定するステップをさらに有する、請求項11に記載の方法。
- 前記予測動作の信頼度を伴う前記予測動作を予測するステップと、
前記実際の動作、前記予測動作、及び前記予測動作の前記信頼度に基づいて、かつ第2の訓練済み人工知能を適用することによって、前記インターベンション型医療撮像システムの視野外の前記インターベンション型医療デバイスに沿った意図せぬ挙動の予測概略推定位置、及び前記予測概略推定位置の予測信頼度を予測するステップと
をさらに有する、請求項11に記載のシステム。 - 前記インターベンション型医療デバイスのタイプ、前記インターベンション型医療処置における患者の解剖学的構造、前記医療撮像システムの配置、又は前記インターベンション型医療デバイスの物理的特性のうちの少なくとも1つに基づいて、前記予測動作を予測するステップと、
前記実際の動作が前記予測動作と乖離したときにアラームを出力するステップと
をさらに有する、請求項11に記載の方法。 - 前記実際の動作及び前記予測動作に基づいて、かつ第2の訓練済み人工知能を適用することによって、前記医療撮像システムの視野外の、前記インターベンション型医療デバイスに沿った意図せぬ挙動の予測概略推定位置を予測するステップと、
前記医療撮像システムの前記視野外の、前記インターベンション型医療デバイスに沿った意図せぬ挙動の前記予測概略推定位置の表示を生成するステップと
をさらに有する、請求項11に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063126263P | 2020-12-16 | 2020-12-16 | |
US63/126,263 | 2020-12-16 | ||
EP21173896.8A EP4016455A1 (en) | 2020-12-16 | 2021-05-14 | Predictive motion mapping for flexible devices |
EP21173896.8 | 2021-05-14 | ||
PCT/EP2021/084464 WO2022128589A1 (en) | 2020-12-16 | 2021-12-07 | Predictive motion mapping for flexible devices |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023554038A true JP2023554038A (ja) | 2023-12-26 |
Family
ID=79024778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023536124A Pending JP2023554038A (ja) | 2020-12-16 | 2021-12-07 | 可撓性デバイスのための予測動作マッピング |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240045404A1 (ja) |
EP (1) | EP4264546A1 (ja) |
JP (1) | JP2023554038A (ja) |
WO (1) | WO2022128589A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024162096A1 (ja) * | 2023-02-01 | 2024-08-08 | ソニーグループ株式会社 | 制御システムおよび制御方法、ならびに、学習モデル生成方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10454347B2 (en) * | 2016-04-29 | 2019-10-22 | Auris Health, Inc. | Compact height torque sensing articulation axis assembly |
CN113490465A (zh) * | 2019-02-28 | 2021-10-08 | 皇家飞利浦有限公司 | 用于机器学习模型的训练数据收集 |
-
2021
- 2021-12-07 JP JP2023536124A patent/JP2023554038A/ja active Pending
- 2021-12-07 US US18/266,621 patent/US20240045404A1/en active Pending
- 2021-12-07 WO PCT/EP2021/084464 patent/WO2022128589A1/en active Application Filing
- 2021-12-07 EP EP21830984.7A patent/EP4264546A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022128589A1 (en) | 2022-06-23 |
US20240045404A1 (en) | 2024-02-08 |
EP4264546A1 (en) | 2023-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3402408B1 (en) | Automated probe steering to clinical views using annotations in a fused image guidance system | |
KR102558061B1 (ko) | 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템 | |
JP5288447B2 (ja) | 手術支援システム、接近状態検出装置及びそのプログラム | |
JP2019515754A (ja) | 解剖学的モデルの表示 | |
WO2016191364A1 (en) | Methods, systems, and computer readable media for controlling a concentric tube probe | |
WO2012114224A1 (en) | Non-rigid-body morphing of vessel image using intravascular device shape | |
EP3054885B1 (en) | Image guidance system with user definable regions of interest | |
US20210322105A1 (en) | Control of a robotically moved object | |
JP7278269B2 (ja) | 脈管内usカテーテルの案内 | |
JP2023554038A (ja) | 可撓性デバイスのための予測動作マッピング | |
CN114974548A (zh) | 用于移动医学对象的装置和用于提供控制预设的方法 | |
EP4016455A1 (en) | Predictive motion mapping for flexible devices | |
US11185372B2 (en) | Assisting in navigation of a medical instrument | |
US20220202501A1 (en) | Real-time correction of regional tissue deformation during endoscopy procedure | |
CN118434380A (zh) | 荧光透视图像引导的机器人血管插管 | |
CN108369268B (zh) | 用于医学设备跟踪的系统和方法 | |
CN114173675A (zh) | 超声目标点跟踪 | |
CN112085153A (zh) | 借助触敏输入单元提供输出信号并且提供训练后的函数 | |
EP3389539B1 (en) | Navigation assistance system | |
US20240029205A1 (en) | Systems and methods for multi-source medical imaging reconstruction | |
JP7374289B2 (ja) | 長尺状医療用デバイスの位置検出システムおよび方法 | |
WO2023154713A1 (en) | Collision warning for medical device | |
WO2024088836A1 (en) | Systems and methods for time to target estimation from image characteristics | |
CN118215446A (zh) | 利用荧光透视反馈控制机器人血管内设备与目标血管对准 | |
CN118401192A (zh) | 用于估计和可视化机器人控制的介入设备的轨迹的系统和方法 |