JP2022521556A - エンドエフェクタのフィードフォワード連続配置制御 - Google Patents

エンドエフェクタのフィードフォワード連続配置制御 Download PDF

Info

Publication number
JP2022521556A
JP2022521556A JP2021549791A JP2021549791A JP2022521556A JP 2022521556 A JP2022521556 A JP 2022521556A JP 2021549791 A JP2021549791 A JP 2021549791A JP 2021549791 A JP2021549791 A JP 2021549791A JP 2022521556 A JP2022521556 A JP 2022521556A
Authority
JP
Japan
Prior art keywords
placement
intervention
intervention device
pose
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021549791A
Other languages
English (en)
Other versions
JPWO2020173816A5 (ja
Inventor
グジェゴジ アンドレイ トポレク
アレクサンドラ ポポヴィッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2022521556A publication Critical patent/JP2022521556A/ja
Publication of JPWO2020173816A5 publication Critical patent/JPWO2020173816A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1607Calculation of inertia, jacobian matrixes and inverses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39286Forward inverse, dynamics model, relaxation neural network model firm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Urology & Nephrology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Manipulator (AREA)

Abstract

介入デバイスの部分40を含む介入デバイス30の配置制御のための順予測モデル60及び/又は逆制御予測モデル70を含む配置制御装置50である。動作中、制御装置50は、エンドエフェクタ40の予測されたナビゲートされたポーズをレンダリングするために、介入デバイス30の指示された配置運動に順予測モデル60を適用して、部分40の予測されたナビゲートされたポーズに基づいて、目標ポーズへの介入デバイス40の部分の介入デバイス30による配置について情報提供する配置データを生成する。代替的に、先行的に、又は後続的に、制御装置50は、介入デバイス30の予測された配置運動をレンダリングするために、介入デバイス40の部分の目標ポーズに制御予測モデル70を適用して、介入デバイス30の予測された配置運動に基づいて、目標ポーズへのデバイス部分40の介入デバイス30による配置を制御する配置指示を生成する。

Description

本開示は、概して、介入処置(例えば、低侵襲性手術、ビデオ補助式胸部手術、脈管処置、腔内処置、整形外科的処置)において使用される介入デバイスの部分(例えば、介入デバイスのエンドエフェクタ)の配置制御に関する。本開示は、特に、介入処置において使用される介入デバイスのこのような部分の配置制御における予測モデルの組み込みに関する。
連続(又は不連続)制御-特定の作業空間内におけるデバイス部分(例えばエンドエフェクタ)の配置-は、従来の剛性リンクロボットにおいて最も一般的に試みられる形態の制御のうちの1つである。ロボットの別個の剛性リンク構造物を利用することにより、例えば製造といった体系的な用途において所望されるように、介入デバイスの部分(例えばエンドエフェクタ)の正確な配置が実現され得る。しかし、変形可能な軟組織のヒトの臓器の注意を要する性質、及び患者の安全性を理由として、臨床現場では剛性リンクロボットの使用はあまり望まれていない。
更には特に、生物学的にインスピレーションを受けたロボットは、軟質の解剖学的物体の操作において非常に効果的であり得るヘビ、象、及びタコと同様の運動をもたらす。それにもかかわらず、臨床現場におけるロボット構造物の効果的な制御、及び、特に効果的な連続制御は、安定制御を可能にするための十分なアクチュエータ入力を数学的にモデル化すること、又は提供することが困難である所望の自由度に対して、連続体(又は準連続体)構造物における複雑さの観点から実現することが非常に困難であることが明らかにされている。
例えば、連続体ロボットにより支持されたエンドエフェクタの連続配置制御に対する1つのアプローチは、連続体ロボットの構成のモデル化及び制御を伴い、この場合において、非線形微分方程式の集合として定式化された静的モデルが、屈曲、ねじれ、及び延びに起因した連続体ロボットのランス変形を考慮しようと試みる。しかし、数学的モデル化の正確さは、ロボットコンポーネントの機械的性質に影響を与えるロボットの環境条件(例えば、温度及び湿度)の変化に影響されやすく、及び、任意の製造上の不正確さ、又は様々な作業負荷の存在に影響されやすい。
更なる例によると、ロボットにより支持されたエンドエフェクタの配置制御のための別のアプローチは、許容される運動の集合及び許容される力の集合を、マニピュレーター制御に対応した関節空間に射影することによるロボットの操作である。例えば、鼻腔内へのロボットの挿入後、制御装置は測定された一般化力と各エンドディスクにおける想定される一般化力との間の差を大きくするように、ロボットの各セグメントの位置を調節する。しかし、より操作しやすくなるようにロボットの自由度がより多くなることは、ロボットに対する運動学を複雑にする悪影響をもたらす。これは、連続体ロボットの連続制御の場合に特に問題となる。
しかし、更に、ロボットにより支持されたエンドエフェクタの効果的な配置制御が実現される場合でも、ロボットシステムの正しくない校正又は使用、又は機械的コンポーネントの一般的な摩耗及び断裂が、ロボット構造物の運動学の予測精度に悪影響を与える。同様に、これは、連続体ロボット(又は連続体ロボット構造物)の連続制御の場合に特に問題となる。
介入デバイスの部分(例えばエンドエフェクタ)の配置制御のために考えられた知られた技術は、限られた利点を提供するものであった。したがって、介入デバイスのこれらの部分の効果的な配置制御を提供するための改善された技術の必要性が依然として存在する。この目的を達成するために、本開示は、フィードフォワード配置制御、フィードバック配置制御、及びデータ収集について教示する。この制御は好ましくは連続的に実行される。
この目的のために、本発明は、第1の実施形態として、請求項1から請求項12のいずれか一項に記載されているように、イメージングデバイスを含む介入デバイスのための配置制御装置を提案する。
第2の実施形態及び第3の実施形態として、本発明は、請求項13に記載されているような、命令を含んで符号化された非一時的な(又は、そうではない)機械可読記憶媒体、及び、請求項14に記載されているような、介入デバイスのための配置制御装置により実行可能な配置する方法を提案する。
フィードフォワード(好ましくは連続)配置制御
本開示は、任意選択的にこれらの運動学に基づいて訓練された、介入デバイスの運動学を使用して構成された予測モデルに基づく、介入デバイスにより支持されたデバイス部分(例えばエンドエフェクタ)の手動ナビゲート配置又は自動ナビゲート配置のフィードフォワード(好ましくは連続)配置制御のための予測モデルアプローチを更に教示する。
デバイス部分(例えばエンドエフェクタ)のフィードフォワード(好ましくは連続)配置制御のための本開示の1つの他の実施形態は、エンドエフェクタのナビゲートされたポーズを予測する介入デバイスの(任意選択的には順)運動学を使用して構成された(任意選択的には、介入デバイスのこれらの順運動学に基づいて訓練された)順予測モデル、及び/又は、任意選択的に、介入デバイスの配置運動を予測する介入デバイスの逆運動学に基づいて訓練された、介入デバイスの運動学を使用して構成された制御(任意選択的には逆)予測モデルを含む(連続)配置制御装置である。
本説明の目的及び本開示の目的において、「ナビゲートされたポーズ」という用語は、介入処置中に空間位置に介入デバイスを介してナビゲートされたときの介入デバイスの部分(例えば、介入デバイスのエンドエフェクタ)のポーズを広く包含し、及び、「配置運動」という用語は、介入処置中に空間位置にこのデバイス部分をナビゲートする介入デバイスの任意の動きを広く包含する。
動作中、連続配置制御装置は、エンドエフェクタの予測されたナビゲートされたポーズをレンダリングするように介入デバイスの指示された配置運動に順予測モデルを適用し、デバイス部分の予測されたナビゲートされたポーズに基づいて、目標ポーズへのデバイス部分の介入デバイスによる配置について情報提供する連続配置データを生成する。
代替的に、先行的に、又は同時に、(好ましくは連続)配置制御装置が、介入デバイスの予測された配置運動をレンダリングするために、介入デバイスの部分(例えばエンドエフェクタ)の目標ポーズに逆予測モデルを適用し、及び、介入デバイスの予測された配置運動に基づいて、目標ポーズへのデバイス部分の介入デバイスによる配置を制御する(連続)配置指示を生成する。
フィードバック(好ましくは連続)配置制御
本開示は、目標ポーズへのイメージングデバイスの(又は、イメージングデバイスにリンクされた介入デバイスの部分-例えばエンドエフェクタ-の)手動ナビゲート配置又は自動ナビゲート配置へのフィードバックとしてイメージングデバイスからイメージングデータを受信するための、(任意選択的に画像データに相関した)介入デバイスの運動学を使用して構成されたイメージング予測モデルに基づく、介入デバイスの部分(例えば介入デバイスのエンドエフェクタ)に関連した、又は装着されたイメージングデバイスの手動ナビゲート配置又は(半)自動ナビゲート配置のフィードバック(好ましくは連続)配置制御のための予測モデルアプローチを更に教示する。予測モデルは、デバイス部分(例えばエンドエフェクタ)により生成された画像に基づいて任意選択的に訓練され、又は訓練されている。
イメージングデバイスの(又は、イメージングデバイスにリンクされた介入デバイスの部分-例えばエンドエフェクタ-の)フィードバック(好ましくは連続)制御配置のための本開示の実施形態は、エンドエフェクタによる相対イメージング、及び、エンドエフェクタのナビゲートされたポーズを予測する介入デバイスの順運動学の相関に基づいて訓練されたイメージング予測モデルを含む連続配置制御装置である。(連続)配置制御装置は、介入デバイスの修正配置運動を予測する介入デバイスの運動学を使用して構成された制御予測モデルを更に含む。任意選択的に、この制御予測モデルは、修正配置運動を予測するものを出力するために、介入デバイスの逆運動学に基づいて訓練されており、又は訓練される。
本説明の目的及び本開示の目的において、「相対イメージング」という用語は、介入処置の基準画像に対する所与のポーズにおけるエンドエフェクタによる介入処置の画像の生成を広く包含する。
動作中、目標ポーズへのデバイス部分(例えばエンドエフェクタ)のナビゲーションの後に、(好ましくは)連続配置制御装置が、デバイス部分(例えばエンドエフェクタ)の予測されたナビゲートされたポーズをレンダリングするために、エンドエフェクタにより生成されたイメージングデータにイメージング予測モデルを適用し、介入デバイスの予測された修正配置運動をレンダリングするために、エンドエフェクタの目標ポーズとエンドエフェクタの予測されたナビゲートされたポーズとの間の差の観点から導出された誤差配置データに制御(又は特に逆)予測モデルを適用し、及び、介入デバイスの予測された修正配置運動に基づいて、目標ポーズへのイメージングデバイス(40)の介入デバイスによる、又はイメージングデバイスに関連した介入デバイスの部分(例えばエンドエフェクタ)の修正配置を制御する連続配置指示を生成する。
訓練データ収集
更に、環境差(例えば患者間の解剖学的差、例えば患者サイズ、心臓位置など)に対して不変な予測モデルを介した介入デバイスの部分(例えばエンドエフェクタ)の手動ナビゲート配置又は自動ナビゲート配置を(任意選択的な連続)配置制御を円滑化するために、本開示は、既定のデータ点パターンを介した介入デバイス部分のナビゲートされた配置、及び、介入デバイスの順運動学又は逆運動学を推測するために予測モデルのための(訓練)データを結果的に収集するための、介入デバイスの空間配置、及び各データ獲得点における介入デバイス部分のポーズの記録を前提とした(任意選択的には訓練)データ収集技術を更に教示する。
予測モデルのための(任意選択的には訓練)データの収集のための本開示の実施形態は、介入デバイスの部分(例えばエンドエフェクタ)、及び、位置及び/又は配向及び/又は形状情報を提供するように適応されたセンサーを含む介入デバイスのための(任意選択的には訓練)データ収集システムであり、センサー(332)の少なくとも一部は介入デバイス部分に(任意選択的には固定形状により)取り付けられている。このようなセンサーは、イメージングシステム(例えばX線、MRIシステム)、電磁追跡センサー、トランスデューサーセンサー、及び/又は、光ファイバーにより/において提供される光学的形状検出から視認可能なマーキングを含む。
この実施形態の1つの特定の実施形態は、介入デバイスの部分(例えばエンドエフェクタ)、及び、光学的形状センサーを含む介入デバイスのための(任意選択的には訓練)データ収集システムであり、光学的形状センサーのセグメントがエンドエフェクタに(任意選択的には固定形状により)取り付けられている。
(訓練)データ収集システムは、ロボット制御装置、データ獲得制御装置、配置特定モジュール(又は、上述の特定の実施形態における形状検出制御装置)、及びデータストレージ制御装置を使用する。
動作中、データ獲得制御装置は、既定のデータ点パターンに従って介入デバイスの運動変数を制御するようにロボット制御装置に指示し、及び配置特定モジュール(又は、形状検出制御装置)は、既定のデータ点パターンの各データ点における、介入デバイス部分の部分のポーズの推定結果、及び/又は、介入デバイスの配置運動の推定結果を出力するために、センサーから受信された位置及び/又は配向及び/又は形状情報に基づいて位置情報を特定するように構成されている。したがって、特定された位置情報は、任意選択的に運動学又は配置特定モジュールを構成する介入デバイス挙動に基づいて、推定結果を目的として入手され、又は導出され、又は抽出され、又は受信される。特定の実施形態において、配置特定モジュールは、推定結果を特定するために、位置及び/又は配向及び/又は形状情報から、導出された形状データを導出し、又は受信する。この配置特定モジュールが(上述の特定の実施形態におけるもののような)形状検出制御装置である場合、配置特定モジュールは、既定のデータ点パターンの各データ点における、エンドエフェクタのポーズの推定結果、及び、介入デバイスの配置運動の推定結果を含む、光学的形状センサーの形状検出を制御する。
「位置及び/又は配向及び/又は形状情報からの形状データの導出」は、「センサー」により提供されるデータから形状を導出する知られた技術に従って実施される。一例として、センサーにより追跡された位置は、これらのセンサーを搭載した介入デバイスのセグメントの全体的な形状の良い標示を与え、(多かれ少なかれ、センサー間の距離、及びこのセグメントに沿ったこの介入デバイスの取り得る形状に従って開発された)アルゴリズムは、この形状を導出するために、又は再構成するために開発されたものである。この配置の動的な追跡は、変形の配向に関する標示を更に与える。センサーは、局所配置及び介入デバイスの配向を示し得るひずみ情報を更に提供し(例えばレイリー又はブラッグ回折格子センサー)、そこから形状が導出され、及び再構成され得る(同様に知られた技術である)。
介入デバイス部分(例えばエンドエフェクタ)のポーズの推定結果は、エンドエフェクタに(任意選択的に固定形状により)取り付けられたセンサーの少なくとも一部から導出される。
既定のデータ点パターンに従ってロボット制御装置が介入デバイスの運動変数を制御する間にわたって、データストレージ制御装置は、各データ点に対するエンドエフェクタの推定されたポーズの、形状検出制御装置からの通信を受信し、各データ点に対する介入デバイスの推定された配置運動の、配置特定モジュール(又は形状検出制御装置)からの通信を受信し、及び、各データ点に対する介入デバイスの少なくとも1つの運動変数の、ロボット制御装置からの通信を受信する。
通信に応答して、データストレージ制御装置は、各データ点におけるエンドエフェクタの推定されたポーズから導出された介入デバイスに対する時間的データシーケンス、各データ点における介入デバイスの推定された空間配置、及び、各データ点における介入デバイスの運動変数を記憶する。時間的データシーケンスは、任意の種類の機械学習モデルのための、特に本開示の予測モデルのための訓練データとして機能する。
更に、データ獲得制御装置は、更なる既定のデータ点パターンに従って介入デバイスの運動変数を制御するようにロボット制御装置に更に指示し、この場合において、データストレージ制御装置は、任意の種類の機械学習モデルのための、特に本開示の予測モデルのための更なる時間的データシーケンスを生成する。
更に、本開示の説明及び請求項の目的において、以下の通りである。
(1)「エンドエフェクタ」、「運動学」、「位置」、「配置」、「ポーズ」、「ポージング」、「運動」、及び「ナビゲーション」を包含するがこれらに限定されない当技術分野の用語は、本開示の技術分野において知られているように、及び本開示において例示的に説明されるように解釈される。
(2)エンドエフェクタの例は、本開示の技術分野において知られている、及び以下で検討されている、術中イメージングデバイス、介入型ツール/手術器具、及び外科縫合糸を包含するがこれらに限定されない。
(3)「術中イメージングデバイス」という用語は解剖学的物体/領域を示すための、本開示の技術分野において知られている、及び以下で検討されているすべてのイメージングデバイスを広く包含する。術中イメージングデバイスの例は、経食道心エコー検査トランスデューサー(例えば、X7-2tトランスデューサー、Philips)、腹腔鏡超音波トランスデューサー(例えば、L10-4lapトランスデューサー、Philips)、光学カメラ、及び検出デバイス(例えば、組織スペクトル検出センサー、ECG電極、電気生理学的マッピングのためのプローブ)を包含するがこれらに限定されない。
(4)介入ツール/手術器具の例は、本開示の技術分野において知られている、及び以下で検討されている、外科用メス、焼灼器、アブレーションデバイス、針、鉗子、kワイヤ及び関連するドライバ、内視鏡、突き錐、ねじ回し、骨刀、のみ、槌、キューレット、クランプ、鉗子、ペリオステオーム、及びjニードルを包含するがこれらに限定されない。
(5)「介入デバイス」という用語は、適用中にエンドエフェクタの配置をサポートするための、本開示の技術分野において知られている、及び以下で検討されているすべてのデバイスを広く包含する。介入デバイスの例は、連続体柔軟ロボット、柔軟介入スコープ及びガイドワイヤを包含するがこれらに限定されない。
(6)柔軟ロボットの例は、本開示の技術分野において知られている、及び以下で検討されている、超冗長ロボット(例えば、複数の独立リンク、蛇行リンク、又は同心管)、連続バックボーンセクションロボット(例えばケーブル作動型)、腱駆動ロボット、ゲル様軟質ロボット、及び流体充填管作動型ロボットを包含するがこれらに限定されない。
(7)柔軟介入スコープの例は、本開示の技術分野において知られている、及び以下で検討されている、経食道心エコー検査(TEE)プローブの内視鏡、心腔内エコー検査(ICE)プローブの内視鏡、腹腔鏡、及び気管支鏡を包含するがこれらに限定されない。
(8)「予測モデル」という用語は、本開示において例示的に説明されている本開示による(任意選択的に)介入デバイスの部分(例えばエンドエフェクタ)の連続配置制御に関連したナビゲーション変数を予測する、本開示の技術分野において知られている、及び以下で検討されているすべての種類のモデルを広く包含する。任意選択的に、これらの予測モデルは、配置データ集合に基づいてこの予測を出力するために運動学を使用して構成される。任意選択的に、予測モデルは、介入デバイスの運動学に基づいて訓練可能であるか、又は訓練される。予測モデルの例は、人工的ニューラルネットワーク(例えば、フィードフォワード畳み込みニューラルネットワーク、回帰型ニューラルネットワーク、長期短期記憶ネットワーク、オートエンコーダネットワーク、敵対的生成ネットワーク、及び多くの他の深層学習ニューラルネットワーク)を包含するがこれらに限定されない。
(9)「制御装置」という用語は、本開示において例示的に説明されている本開示の様々な発明の原理の適用を制御するための主回路基板又は集積回路の、本開示の技術分野において理解される及び本開示において例示的に説明されているすべての構造上の構成を広く包含する。制御装置の構造上の構成は、プロセッサ、コンピュータ可用/コンピュータ可読記憶媒体、オペレーティングシステム、アプリケーションモジュール、周辺デバイス制御装置、スロット、及びポート、制御するための命令を包含してもよいがこれらに限定されない。制御装置は、ワークステーション内に収容され、又はワークステーションに通信可能にリンクされる。
(10)「アプリケーションモジュール」という用語は、特定のアプリケーションを実行するための、電子回路(例えば電子コンポーネント及び/又はハードウェア)、及び/又は、実行可能プログラム(例えば、非一時的な(又は、そうではない)コンピュータ可読媒体に記憶された実行可能ソフトウェア、及び/又は、ファームウェア)からなる制御装置内に組み込まれた、又は制御装置によりアクセス可能なアプリケーションを広く包含する。
(11)「信号伝達」、「データ」、及び「指示」という用語は、本開示において後で説明される本開示の様々な発明の原理を適用することを支援する情報及び/又は命令を送信するための、本開示の技術分野において理解される、及び本開示において例示的に説明されているすべての形態の検出可能な物理量又はインパルス(例えば、電圧、電流、又は磁場強度)を広く包含する。本開示の様々なコンポーネントの信号伝達/データ/コマンド通信は、任意の種類の有線又は無線データリンクを介した信号伝達/データ/コマンド送信/受信、及び、コンピュータ可用/コンピュータ可読記憶媒体にアップロードされた信号伝達/データ/指示の読み取り値を包含するがこれらに限定されない、本開示の技術分野において知られている任意の通信方法を伴う。
本開示の前述の実施形態及び他の実施形態、及び本開示の様々な構造物及び利点が、添付図面とともに読まれる本開示の様々な実施形態の以下の詳細な説明から更に明らかになる。詳細な説明及び図面は、限定ではなく本開示の例示にすぎず、本開示の範囲は添付の請求項及びその均等なものにより規定される。
本開示の技術分野において知られているエンドエフェクタを含む介入デバイスの例示的な実施形態を示す図である。 本開示の様々な態様による連続位置制御装置の例示的な実施形態を示す図である。 本開示の様々な態様による連続配置ステートマシンの例示的な実施形態を示す図である。 本開示の技術分野において知られている経食道心エコー検査(TEE)プローブの例示的な実施形態を示す図である。 本開示の技術分野において知られている経食道心エコー検査(TEE)プローブのハンドルの例示的な実施形態を示す図である。 本開示の技術分野において知られている図2AのTEEプローブの例示的な運動を示す図である。 本開示の技術分野において知られているロボット操作型経胸壁心エコー検査(TTE)プローブの例示的な実施形態を示す図である。 本開示の技術分野において知られている光学的形状検出される連続体ロボットの例示的な実施形態を示す図である。 本開示の順予測モデル及び順予測方法の第1の例示的な実施形態を示す図である。 本開示の逆予測モデル及び逆予測方法の第1の例示的な実施形態を示す図である。 本開示の順予測モデル及び順予測方法の第2の例示的な実施形態を示す図である。 本開示の逆予測モデル及び逆予測方法の第2の例示的な実施形態を示す図である。 本開示の順予測モデル及び順予測方法の第3の例示的な実施形態を示す図である。 本開示の順予測モデル及び順予測方法の第4の例示的な実施形態を示す図である。 本開示の画像予測モデル及び画像予測方法の第1の例示的な実施形態を示す図である。 本開示の順予測モデル及び順予測方法の第2の例示的な実施形態を示す図である。 本開示の閉ループポーズ制御を示す図である。 本開示の閉ループベクトル速度制御を示す図である。 本開示の訓練データ収集システム及び方法を示す図である。 本開示の連続配置制御装置の例示的な実施形態を示す図である。
本開示は、エンドエフェクタの連続位置制御を必要とする多くの、及び様々な用途に適用可能である。このような用途の例は、低侵襲性処置(例えば、内視鏡肝切除、壊死組織切除術、前立腺切除など)、ビデオ補助式胸部手術(例えばロベテクトミーなど)、(例えば、カテーテル、シース、配備システムなどを介した)最小脈管処置、最小医療診断処置(例えば、内視鏡又は気管支鏡を介した腔内処置)、(例えばkワイヤ、ねじ回しなどを介した)整形外科的処置、及び非医療用途を包含するがこれらに限定されない。
本開示は、エンドエフェクタの手動ナビゲート配置又は自動ナビゲート配置を制御する、及び/又は確実にすることに使用される、エンドエフェクタのポーズ及び/又は介入デバイスの配置運動の予測を提供することにより、このような用途中におけるエンドエフェクタの連続位置制御を改善する。
本開示の理解を円滑化するために、図1の以下の説明が、本開示の技術分野において知られているエンドエフェクタを含む介入デバイスの例示的な実施形態を教示する。図1の説明から、本開示の当業者は、本開示の技術分野において知られている、及び以下で検討されているエンドエフェクタを含む介入デバイスの更なる実施形態を製造するために、及び使用するために本開示をどのように適用するかを理解する。
図1を参照すると、実際には、介入デバイス30が、エンドエフェクタ40から延びた矢印により表されているように、適用中にエンドエフェクタ40の手動ナビゲート配置又は自動ナビゲート配置をサポートする。介入デバイス30の例は、連続体柔軟ロボット、柔軟介入スコープ、及びガイドワイヤを包含するがこれらに限定されず、エンドエフェクタ40の例は、術中イメージングデバイス、介入ツール/手術器具、及び外科縫合糸を包含するがこれらに限定されない。
動作中、ナビゲーション指示31、作動信号32、及び/又はナビゲーション力33が、介入デバイス30に通信され/介入デバイス30に与えられ、この場合において、介入デバイス30が、ナビゲーション指示31、作動信号32、及び/又はナビゲーション力33に従って並進移動させられ、回転させられ、及び/又は旋回させられ、以て、エンドエフェクタ40を目標ポーズ(すなわち、適用空間における位置及び配向)にナビゲートする。
例えば、図3A及び図3Bは、患者Pの心臓の画像を捕捉するために患者Pの口を通して食道に挿入可能なイメージングエンドエフェクタ140を含む介入デバイス30の実施形態として経食道心エコー検査(TEE)プローブ130を示し、医師(図示されていない)又はロボット制御装置100(図2B)は、TEEプローブ130のハンドル132を操作して、患者P内においてTEEプローブ130を再配置し、以て、イメージングエンドエフェクタ140を目標ポーズにナビゲートする。
更には特に、TEEプローブ130は、可撓性長尺部材131、ハンドル132、及びイメージングエンドエフェクタ140を含む。可撓性長尺部材131は、例えば食道といった患者の体管腔内に配置されるように寸法決めされ、及び/又は形作られ、構造的に配置され、及び/又は別様に構成されている。イメージングエンドエフェクタ140は、部材131の遠位端に搭載されており、1つ又は複数の超音波トランスデューサー要素を含み、この場合において、イメージングエンドエフェクタ140は、患者Pの解剖学的構造物(例えば心臓)に向けて超音波エネルギーを出射するように構成されている。超音波エネルギーは、患者の脈管構造及び/又は組織構造により反射され、この場合において、イメージングエンドエフェクタ140における超音波トランスデューサー要素が反射された超音波エコー信号を受信する。幾つかの実施形態において、TEEプローブ130は、イメージングされている患者Pの解剖学的構造物を表す画像信号を生成するために、超音波エコー信号をローカルに処理し得る内部の、又は統合された処理コンポーネントを含む。実際には、超音波トランスデューサー要素は、患者Pの解剖学的構造物の二次元(2D)画像又は三次元(3D)画像を提供するように構成される。TEEプローブ130により獲得された画像は、本明細書において更に詳細に説明されるイメージングエンドエフェクタ140の挿入深さ、回転、及び/又はチルトに依存する。
ハンドル132は、部材131の近位端に結合されている。ハンドル132は、イメージングエンドエフェクタ140を目標ポーズにナビゲートするための制御要素を含む。示されるように、ハンドル132は、ノブ133及び134、及びスイッチ135を含む。ノブ133は、患者P(例えば心臓)の前後平面に沿って部材131及びイメージングエンドエフェクタ140を曲げる。ノブ134は、患者Pの左右平面に沿って部材131及びイメージングエンドエフェクタ140を曲げる。スイッチ135は、イメージングエンドエフェクタ140におけるビーム形成を制御する(例えば、イメージング面の角度を調節する)。
手動ナビゲート式の実施形態では、イメージングエンドエフェクタ140を目標ポーズにナビゲートするために必要なときに、医師はノブ133及び134を手動で回し、及び/又は、スイッチ135をオン及び/又はオフに手動で切り替える。医師は、イメージングエンドエフェクタ140により生成された画像の表示を見て、以て、ハンドル132におけるノブ133及び134及び/又はスイッチ135を制御するためのナビゲーション力33(図1)を与える。
自動ナビゲート式の実施形態では、ロボットシステム(図示されていない)は、ノブ133及び134を回すように、及び/又はスイッチ135をオン及び/又はオフに切り替えるように構成された電気的な、及び/又は機械的コンポーネント(例えば、モーター、ローラー、及びギア)を含み、この場合において、ロボット制御装置100は、ナビゲーション制御装置(図示されていない)又は入力デバイス(図示されていない)から運動制御指示31(図1)を受信し、以て、ハンドル132におけるノブ133及び134及び/又はスイッチ135を制御する。代替的に、ロボット制御装置100は、ロボット制御装置100により実施されるガイダンス方法に基づいて、作動信号32(図1)を介してTEEプローブ130を直接操作するように構成される。
TEEプローブ130は、様々な自由度において操作可能である。図3C~図3Fは、TEEプローブ130を操作するための様々なメカニズムを示す。
図3Cは、矢印131bにより示されるように患者の食道内に手動で進行させられる、又は、矢印131cにより示されるように患者の食道から引き抜かれるTEEプローブ130を示す概略図である。TEEプローブ130は、矢印139a及び139bにより示されるように、それぞれ、TEEプローブ130の長軸131aに対して左に(例えば反時計回りに)又は右に(例えば時計回りに)手動で、又はロボットを使用して回転させられ得る。部材131の回転は、γと表記されたパラメータにより説明され得る。
図3Dは、例えば、ハンドル132におけるスイッチ135の手動又はロボット制御により、矢印136a及び136bにより示されるように(例えばビーム形成のために)0度から180度まで電子的に回転させられるTEEプローブ130を示す概略図である。イメージング面の回転は、ωと表記されたパラメータにより説明され得る。
図3Eは、例えばハンドル132におけるノブ134を手動により、又はロボットにより回すことにより、矢印137a及び137bにより示されるように、例えば患者の心臓に対して前後平面に沿って曲げられるTEEプローブ130を示す概略図である。前後平面に沿って曲げることは、αと表記されたパラメータにより説明され得る。
図3Fは、例えばハンドル132におけるノブ133を手動により、又はロボットにより回すことにより、矢印138a及び138bにより示されるように、例えば患者の心臓に対して左右平面に沿って曲げられるTEEプローブ130を示す概略図である。左右平面に沿って曲げることは、βと表記されたパラメータにより説明され得る。
介入デバイス30(図1)の例示的な実施形態の更なる例により、図3Gは、患者Pの体の外部から患者Pの解剖学的構造物の超音波画像を捕捉するように構成された経胸壁心エコー検査(TTE)プローブ240、及び、TTEプローブ240を目標ポーズ(すなわち、患者Pに対するTTEプローブ240の位置及び/又は配向)に再配置するようにTTEプローブ240を手動で、又はロボットを使用してハンドリングするための示されるようなロボット230を示す。更には特に、ロボット230は、患者Pの外面において(例えば心臓をイメージングするために胸部エリアの周囲において)TTEプローブ240を保持するように、及びTTEプローブ240を操作するように構成された複数の関節232に結合された複数のリンク231を含む。
手動ナビゲート式の実施形態では、医師がリンク231にナビゲーション力33(図1)を手動で与え、以て、イメージングTTEプローブ240を目標ポーズにナビゲートするために、ロボット230のリンク231を並進移動させ、回転させ、及び/又は旋回させる。医師は、ロボット230のリンク231の制御の基礎として使用するために、TTEプローブ240により生成された画像の表示を見る。
自動ナビゲート式の実施形態では、ロボットシステム(図示されていない)は、ロボット230のリンク231を操縦するように構成された電気的な、及び/又は機械的コンポーネント(例えば、モーター、ローラー、及びギア)を含み、この場合において、ロボット制御装置101は、デカルト速度パラメータ又は関節速度パラメータの形態をとるナビゲーション制御装置(図示されていない)又は入力デバイス(図示されていない)から運動制御指示32(図1)を受信し、以て、ロボット230のリンク231を操作する。代替的に、ロボット制御装置101は、ロボット制御装置101により実施されるガイダンス方法に基づいて、作動信号32(図1)を介してTTEプローブ240を直接操作するように構成される。
介入デバイス30(図1A)の例示的な実施形態の更なる例により、図3Hは、エンドエフェクタ340を含む連続体ロボット331に組み込まれた、又は装着された形状検出されるガイドワイヤ332を示す。形状検出されるガイドワイヤ232は、本開示の技術分野において知られている光学的形状検出(OSS)技術を組み込んだものである。更には特に、形状検出制御装置103は、手術介入中におけるデバイスの位置特定及びナビゲーションのためにガイドワイヤ332のマルチコア光ファイバー333に沿った光を使用する。関与する原理は、特徴的なレイリー後方散乱又は制御された回折格子パターン(例えばファイバーブラッグ回折格子)を使用した光ファイバーにおける分布ゆがみ測定を利用する。実際には、ロボット制御装置102又は医師(図示されていない)が目標ポーズにエンドエフェクタ340を配置するために患者P内において連続体ロボット331をナビゲートするときに、形状検出制御装置103が、形状検出されるガイドワイヤ332を介して連続体ロボット331の重ね合わされた形状を獲得する。
本開示の理解を更に円滑化するために、図2A及び図2Bの以下の説明が、それぞれ、本開示の連続位置制御装置及び本開示の連続配置ステートマシンの例示的な実施形態を教示する。図2A及び図2Bの説明から、本開示の当業者は、本開示の連続位置制御装置及び本開示の連続配置ステートマシンの更なる実施形態を製造する、及び使用するために本開示をどのように適用するかを理解する。
更に、TEEプローブ130(図3A)、ロボット230/TTEプローブ240(図3G)、及び連続体ロボット331(図3H)は、本開示の連続位置制御装置の様々な実施形態の説明をサポートするために、エンドエフェクタ40(図1)を含む介入デバイス30の非限定的な例として本明細書において使用される。それにもかかわらず、本開示の当業者は、エンドエフェクタ40を含む介入デバイス30の様々な、及び多くの更なる実施形態に本開示をどのように適用するかを理解する。
図1、図2A、及び図2Bを参照すると、本開示のエンドエフェクタ40を含む介入デバイス30、及び連続配置制御装置50は、連続配置ステートマシン90を表す。
特に、図2Bに示されるように、連続配置ステートマシン90の状態S92は、特定の用途(例えば、低侵襲性処置、ビデオ補助式胸部手術、最小脈管処置、最小医療診断処置、又は整形外科的処置)に従ったエンドエフェクタ40を含む介入デバイス30のナビゲーションを包含する。実際には、本用途は、目標ポーズへのエンドエフェクタ40の手動ナビゲーション配置又は自動ナビゲーション配置を伴い、この場合において、本用途は、エンドエフェクタ40を目標ポーズに配置するための、イメージングガイダンス(例えば、画像セグメント分け、画像重ね合わせ、経路計画など)、介入デバイス追跡(例えば、電磁的、光学的、又は形状検出)、及び/又は任意の他のナビゲーション技術を組み込んだものである。
連続配置ステートマシン90の状態S92の実行は、ナビゲーションデータ34の生成、及び補助データ35の任意選択的な生成をもたらす。概して、実際には、ナビゲーションデータ34は、介入デバイス30に通信された/介入デバイス30に与えられたナビゲーション指示31、作動信号32、及び/又はナビゲーション力33の形態をとり、補助データ35は、介入デバイス30及び/又はエンドエフェクタ40の画像、介入デバイス30の動作特性(例えば、形状、ひずみ、ねじる、温度など)、及びエンドエフェクタ40の動作特性(例えば、ポーズ、力など)の形態をとる。
それに応答して、連続配置ステートマシン90の状態S94は、状態S92に従った、介入ツール30及びエンドエフェクタ40のナビゲーションの連続位置制御装置50による連続配置制御を包含する。この目的を達成するために、連続位置制御装置50は、本開示の順予測モデル60、本開示の逆予測モデル70、及び/又は本開示のイメージング予測モデル80を使用する。
実際には、本開示において更に説明されるように、順予測モデル60は、実施される特定の種類の用途において使用される特定のタイプの介入デバイス30に適した、エンドエフェクタ40のナビゲートされたポーズへの介入デバイスの配置運動30の回帰のための任意の種類の機械学習モデル又は同等なもの(例えばニューラルネットワーク)であり、この場合において、順予測モデル60は、エンドエフェクタ40のナビゲートされたポーズを予測する介入デバイス30の順運動学に基づいて訓練される。
動作中、順予測モデル60は、介入デバイス30の手動ナビゲーション又は自動ナビゲーションに関連したナビゲーションデータ34(及び、通信される場合、補助データ35)を入力し、以て、介入デバイス30のナビゲーションに対応したエンドエフェクタ40のナビゲートされたポーズを予測し、及び、エンドエフェクタ40の予測されたナビゲートされたポーズに基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30による配置について情報提供する連続配置データ51を出力する。連続配置データ51は、エンドエフェクタ40を目標ポーズに配置するための介入デバイス30の手動ナビゲーション又は自動ナビゲーションの正確さを決定するための、及び/又は再校正を実行するための制御として状態S92において使用される。
実際には、本開示において更に説明されるように、逆予測モデル70は、実施される特定の種類の用途において使用される特定のタイプの介入デバイス30に適した、介入デバイス30の配置運動へのエンドエフェクタ40の目標ポーズの回帰のための任意の種類の機械学習モデル又は同等なもの(例えばニューラルネットワーク)であり、この場合において、逆予測モデル60は、介入デバイス30の配置運動を予測する介入デバイス30の逆運動学に基づいて訓練される。
動作中、逆予測モデル70は、エンドエフェクタ40の目標ポーズに関連したナビゲーションデータ34(及び、通信される場合、補助データ35)を入力し、以て、エンドエフェクタ40を目標ポーズに配置するために介入デバイス30の配置運動を予測し、及び、介入デバイス30の予測された配置運動に基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30による配置を制御するための連続配置指示52を出力する。連続配置指示52は、エンドエフェクタ40を目標ポーズに配置するための介入デバイス30の手動ナビゲーション又は自動ナビゲーションを実行するための制御として状態S92において使用される。
実際には、本開示において更に説明されるように、イメージング予測モデル80は、実施される特定の種類の用途において使用される特定のタイプのエンドエフェクタ40に適した、エンドエフェクタ40のナビゲートされたポーズへのエンドエフェクタ40による相対イメージングの回帰のための任意の種類の機械学習モデル又は同等なもの(例えばニューラルネットワーク又はスケール不変特徴変換ネットワーク)であり、この場合において、逆予測モデル60は、エンドエフェクタ40による相対イメージング、及びエンドエフェクタ40のナビゲートされたポーズを予測する介入デバイス30の順運動学の相関に基づいて訓練される。
動作中、イメージング予測モデル60は、1つ又は複数のポーズにおいてエンドエフェクタ40により生成された画像の形態をとる補助データ35を入力し、以て、目標ポーズへのエンドエフェクタ40の介入デバイス30による修正配置について情報提供するフィードバックデータとしてエンドエフェクタ40のナビゲートされたポーズを予測する。フィードバックデータは、エンドエフェクタ40の目標ポーズとエンドエフェクタ40の予測されたナビゲートされたポーズとの間の差を生成するために状態S94の閉ループにおいて使用され、この場合において、逆予測モデル70は、エンドエフェクタ30を目標ポーズに再配置するために介入デバイス30の修正配置運動を予測するために差を入力する。
実際には、連続配置制御装置50の実施形態は、順予測モデル60、逆予測モデル70、及び/又はイメージング予測モデル80を使用する。
例えば、連続配置制御装置50の実施形態は、エンドエフェクタ40を目標ポーズに配置するための介入デバイス30の手動ナビゲーション又は自動ナビゲーションの正確さの表示を円滑化するために順予測モデル60のみを使用する。
更には特に、ユーザーインターフェースが、目標ポーズへのエンドエフェクタ40の試みられたナビゲーションの画像、及び、順予測モデル60によるエンドエフェクタ40の予測されたナビゲートされたポーズの画像を表示するために提供される。予測の信頼率がユーザーに示される。予測の不確かさを評価するために、順予測モデル60の複数のフィードフォワード反復は、本開示の技術分野において知られているように確率的に可能にされたドロップアウトを伴って実施される。
更なる例によると、連続配置制御装置50の実施形態は、エンドエフェクタ40を目標ポーズに配置するために介入デバイス30の手動ナビゲーション又は自動ナビゲーションを指示するために逆予測モデル70のみを使用する。
更なる例によると、連続配置制御装置50の実施形態は、目標ポーズへのエンドエフェクタ40の介入デバイス30による修正配置について情報提供するフィードバックデータを提供するためにイメージング予測モデル80のみを使用する。
更なる例によると、連続配置制御装置50の実施形態は、順予測モデル60と逆予測モデル70とを使用し、以て、エンドエフェクタ40を目標ポーズに配置するために介入デバイス30の手動ナビゲーション又は自動ナビゲーションを指示し、及びエンドエフェクタ40を目標ポーズに配置するために介入デバイス30の手動ナビゲーション又は自動ナビゲーション正確さの表示をする。
更なる例により、連続配置制御装置50の実施形態は、逆予測モデル70とイメージング予測モデル80とを使用し、以て、エンドエフェクタ40を目標ポーズに配置するために介入デバイス30の手動ナビゲーション又は自動ナビゲーションを指示し、及び、目標ポーズへのエンドエフェクタ40の介入デバイス30による修正配置について情報提供するフィードバックデータを提供する。
本開示の理解を更に円滑化するために、図4~図14の以下の説明が、本開示の順予測モデル、逆予測モデル、及びイメージング予測モデルの例示的な実施形態を教示する。図4~図14の説明から、本開示の当業者は、本開示の順予測モデル、逆予測モデル、及びイメージング予測モデルの更なる実施形態を製造する、及び使用するために本開示をどのように適用するかを理解する。
図4A~図4Eは、エンドエフェクタ40(図1)のナビゲートされたポーズを予測し、以て、介入処置中に、エンドエフェクタ40の予測されたナビゲートされたポーズをレンダリングするための介入デバイス30の指示された配置運動への順予測モデル60aの適用を円滑化する、介入デバイス30(図1)の順運動学に対して訓練された本開示の順予測モデル60aの訓練及び適用を示し、この場合において、連続配置制御装置50(図1)は、エンドエフェクタ40の予測されたナビゲートされたポーズに基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30による配置について情報提供する連続配置データ51を生成する。
更には特に、図4Aを参照すると、順予測モデル60aの訓練フェーズは、本開示の図16~図18の後述の説明において例示的に教示されているように、グランドトゥルース訓練データ集合Dを解釈するように構成された訓練制御装置(図示されていない)の関与を伴う。データ集合Dは2要素タプル、すなわちd=(T,Q)により表されたi個のデータ点を含むn個のシーケンスWからなる。2要素タプルは、エンドエフェクタポーズ(T∈SE(3))62aと、tから始まりt+jまでの連続した時点において獲得されたj個の連続した関節変数のシーケンス(Q∈(q、qt+1…qt+j))61aとからなる。要素qは、ロボット制御装置(図示されていない)により制御されるすべての関節変数を表す。
実際には、訓練データ集合Dは、介入デバイス30の異なるナビゲーションの合理的なカバレッジを伴うエキスパートデータの集合体である。この目的を達成するために、学習のための多様なデータ集合訓練データ集合Dは、様々な種類のロボットの間の製造差、性能特性、ハードウェアコンポーネントの摩耗及び断裂、及び他のシステムに依存した及びシステムから独立した因子、例えば、ロボットが動作する環境の温度又は湿度を組み込まなければならない。
図4Bを参照すると、順予測モデル60aの適用段階は、連続配置制御装置50が、エンドエフェクタ40のナビゲートされたポーズへの介入デバイス30の指示された配置運動の回帰のためにフィードフォワード予測モデル60aを使用した深層学習型アルゴリズムを実行することを伴う。順予測モデル60aは、介入デバイス30のj個の連続した関節変数61bのシーケンスQ(例えば、図3Bに示されるパラメータα、β)が与えられたとき、エンドエフェクタ40のポーズ
Figure 2022521556000002
62bを推測するように構成されている。
図4Eに示される1つの実施形態において、順予測モデル60aは、1つ又は複数の全結合層(FCL)163a、1つ又は複数の畳み込み層(CNL)164a、1つ又は複数のリカレント層(RCL)165a、及び1つ又は複数の長期短期記憶(LSTM)層166aの組み合わせから導出された入力層、隠れ層、及び出力層を含むニューラルネットワークベース160aを使用する。
実際には、層の組み合わせが、ポーズ
Figure 2022521556000003
への関節変数Qの回帰を実施するように構成される。
ポーズ
Figure 2022521556000004
への関節変数Qの回帰を実施するための1つの実施形態において、ニューラルネットワークベース160aは、N個の全結合層163aの集合を含む。
ポーズ
Figure 2022521556000005
への関節変数Qの回帰を実施するための第2の実施形態において、ニューラルネットワークベース160aは、N個の畳み込み層164aの集合、及び、その後のM個の全結合層163aの集合、又はW個のリカレント層165aの集合、又はW個の長期短期記憶層166aの集合を含む。
ポーズ
Figure 2022521556000006
への関節変数Qの回帰を実施するための第3の実施形態において、ニューラルネットワークベース160aは、N個の畳み込み層164aの集合、及び、その後のM個の全結合層163aの集合、及びW個のリカレント層165aの集合、又はW個の長期短期記憶層166aの集合の組み合わせを含む。
実際には、全結合層163aはK個のニューロンを含み、ここで、N、M、W、Kは任意の正の整数であり、値は、実施形態に応じて変わる。例えば、Nは約8であり、Mは約2であり、Wは約2であり、Kは約1000であり得る。更に、畳み込み層164aは、演算(例えば、バッチ正規化、正規化線形ユニット(ReLU)、プーリング、ドロップアウト、及び/又は畳み込み)の合成関数である非線形変換を実施し、畳み込み層164aは、正規化特徴マップを抽出するように構成された(例えば正規化非線形ReLU演算を含む)非線形性関数を更に含んでもよい。
更に実際には、層163a又は164aのうちの1つが関節変数Qのシーケンス161aを入力するための入力層として機能し、この場合において、関節変数Qのシーケンスのサイズは、≧1であり、層163a、165a、166aのうちの1つが、(例えば、デカルト空間におけるエンドエフェクタ40の並進移動及び回転といった)デカルト空間におけるエンドエフェクタ40のポーズ162aを出力するための出力層として機能する。デカルト空間におけるエンドエフェクタ40の出力されたポーズは、硬質ボディ位置及び配向のベクトルパラメータ化及び/又は非ベクトルパラメータ化として表される。更には特に、パラメータ化は、オイラー角、四元数、行列、指数写像、及び/又は、回転及び/又は(例えば、並進移動に対する方向及び大きさを含む)並進移動を表す角度軸の形態である。
更に実際には、出力層は、出力変数の集合を生成するためにニューラルネットワークベース160aの最後の畳み込み層164aの高次元出力を徐々に縮小する非線形全結合層163aである。
訓練において、順予測モデル60aの訓練重みは、-入力シーケンスQを与えられた-出力推測順予測モデル
Figure 2022521556000007
を、データメモリ(図示されていない)から系統的に、又はランダムに選択される訓練データ集合DのバッチからのグランドトゥルースエンドエフェクタポーズTと比較することにより継続的に更新される。更には特に、フィルタに対する係数は、既定値又は任意値を使用して初期化される。フィルタに対する係数は、前方伝播を介して訓練データ集合Dのバッチに適用され、任意の出力誤差を最小化するために後方伝播を介して調節される。
適用時に、順予測モデル60aは、j個の連続した関節変数62aのシーケンスQが与えられたとき、エンドエフェクタ40のポーズ
Figure 2022521556000008
62aを推測する。
更に図4Eを参照すると、示されている順予測モデル60aの例示的な実施形態のニューラルアーキテクチャは、j個の連続した関節変数61aのシーケンスQを与えられたとき、エンドエフェクタ40のポーズ
Figure 2022521556000009
62aを予測するように規定された出力層169aにおいて指定されるタスクの複雑さに応じた固有の層数をもつ。このニューラルアーキテクチャの訓練のための損失関数は、例えば、
Figure 2022521556000010
のように、並進移動成分と回転成分との間のユークリッド距離の和として規定される。
図4C及び図4Dを参照すると、TEEプローブ130(図3A)及びロボット制御装置100(図3B)を使用する例示的な介入処置90aのステージS92aは、ロボット制御装置100が関節変数としてTEEプローブ130の位置を受信することと、TEEプローブ130のハンドル132(図3A)に動き信号を送信することとを有する。モーター駆動式ノブを使用することにより、ハンドル132がTEEプローブ130の腱を引く/緩め、このことが、目標ポーズへのエンドエフェクタ140(図3C~図3F)の運動をもたらす。実際には、関節変数としてのTEEプローブ130の位置は、ユーザー又は外部追跡デバイス又はガイダンスシステムにより示される。
工程90aのステージS94aは、ロボット制御装置100、順予測モデル50a、及び表示制御装置104の関与を伴う。ロボット制御装置100は、連続した関節変数(Q)61aのシーケンスを記憶し、エンドエフェクタ140のナビゲートされたポーズ
Figure 2022521556000011
を予測する順予測モデル60aに通信する。連続配置制御装置50aは、本開示の技術分野において知られているように確率的に可能にされたドロップアウトを伴って実施される順予測モデル60aの不確かな複数のフィードフォワード反復から導出された予測の信頼率を生成する。順予測モデル50aは、エンドエフェクタ140の予測されたナビゲートされたポーズ
Figure 2022521556000012
及び信頼率を含む連続配置データ51aを表示制御装置104に通信し、次に、表示制御装置104が、目標ポーズへのエンドエフェクタ140に対するガイダンス目的のために、エンドエフェクタ140のナビゲートされたポーズの画像105a、エンドエフェクタ140のナビゲートされたポーズの画像106a、及び、信頼率の表示を制御する。
図5A~図5Eは、介入デバイス30の配置運動を予測し、以て、介入デバイス30の関節変数運動(q)72をレンダリングするために、介入処置中にエンドエフェクタ40の目標ポーズ(T)71aへの逆予測モデル70aの適用を円滑化する、介入デバイス30(図1)の逆運動学に基づいて訓練された本開示の逆予測モデル70aの訓練及び適用を示し、この場合において、連続配置制御装置50(図1)は、介入デバイス40の予測された配置運動に基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30による再配置を制御する連続配置指示を生成する。
更には特に、図5Aを参照すると、逆予測モデル70aの訓練フェーズは、図17~図18の説明において例示的に教示されているようにグランドトゥルース訓練データ集合Dを解釈するように構成された訓練制御装置(図示されていない)の関与を伴う。データ集合Dは、2要素タプル、すなわちd=(T,Q)により表されたi個のデータ点を含むn個のシーケンスWからなる。2要素タプルは、エンドエフェクタポーズ(T∈SE(3))71aと、tから始まりt+jまでの連続した時点において獲得されたj個の連続した関節変数のシーケンス(Q∈(q、qt+1…qt+j))72aとからなる。要素qは、ロボット制御装置(図示されていない)により制御されるすべての関節変数を表す。変数jは更に1に等しくてもよく、このことは、予測モデルが1つの関節変数集合を推測するために訓練されることを意味する。
実際には、訓練データ集合Dは、介入デバイス30の異なるナビゲーションの合理的なカバレッジを伴うエキスパートデータの集合体である。この目的を達成するために、学習のための多様なデータ集合訓練データ集合Dは、様々な種類のロボット間の機械的相違、ハードウェアコンポーネントの摩耗及び断裂、及び他のシステムに依存した因子を組み込んだものでなければならない。
図5Bを参照すると、逆予測モデル70aの適用段階は、連続配置制御装置50が運動回帰に対する逆予測モデル70aを使用して深層学習型アルゴリズムを実行することを伴う。逆予測モデル70aは、エンドエフェクタ40のポーズ(T∈SE(3))71tに到達するために、j個の連続した関節変数72(例えば、図3Bに示されるパラメータα、β)のシーケンス
Figure 2022521556000013
を推測するように構成されている。
図5Eに示される1つの実施形態において、逆予測モデル70aは、1つ又は複数の全結合層(FCL)173a、1つ又は複数の畳み込み層(CNL)174a、1つ又は複数のリカレント層(RCL)175a、及び1つ又は複数の長期短期記憶(LSTM)層176aの組み合わせから導出された入力層、隠れ層、及び出力層を含むニューラルネットワークベース170aを使用する。
実際には、層の組み合わせは、関節変数
Figure 2022521556000014
へのポーズTの回帰を実施するように構成されている。
関節変数
Figure 2022521556000015
へのポーズTの回帰を実施するための1つの実施形態において、ニューラルネットワークベース170aは、N個の全結合層173aの集合を含む。
関節変数
Figure 2022521556000016
へのポーズTの回帰を実施するための第2の実施形態において、ニューラルネットワークベース170aは、N個の畳み込み層174aの集合、及び、その後のM個の全結合層173aの集合、又はW個のリカレント層175aの集合、又はW個の長期短期記憶層176aの集合を含む。
関節変数
Figure 2022521556000017
へのポーズTの回帰を実施する第3の実施形態において、ニューラルネットワークベース170aは、N個の畳み込み層174aの集合、及び、その後のM個の全結合層173aの集合、及びW個のリカレント層175aの集合、又はW個の長期短期記憶層176aの集合の組み合わせを含む。
実際には、全結合層173aはK個のニューロンを含み、ここで、N、M、W、Kは任意の正の整数であり、値は実施形態に応じて変わる。例えば、Nは約8であり、Mは約2であり、Wは約2であり、Kは約1000であり得る。更に、畳み込み層174aは、演算(例えば、バッチ正規化、正規化線形ユニット(ReLU)、プーリング、ドロップアウト、及び/又は畳み込み)の合成関数である非線形変換を実施し、畳み込み層174aは、正規化特徴マップを抽出するように構成された(例えば正規化非線形ReLU演算を含む)非線形性関数を更に含んでもよい。
更に実際には、層173a又は174aのうちの1つが、(例えばデカルト空間におけるエンドエフェクタ40の並進移動及び回転といった)デカルト空間におけるエンドエフェクタ40のポーズ171aを入力するための入力層として機能し、層173a、175a及び176aのうちの1つが、関節変数Qのシーケンス172aを出力するための出力層として機能し、この場合において、関節変数Qのシーケンスのサイズは、≧1である。デカルト空間におけるエンドエフェクタ40の入力されたポーズは、硬質ボディ位置及び配向のベクトルパラメータ化及び/又は非ベクトルパラメータ化として表される。更には特に、パラメータ化は、(例えば並進移動に対する方向及び大きさを含む)オイラー角、四元数、行列、指数写像、及び/又は、回転を表す角度軸、及び/又は並進移動の形態である。
更に実際には、出力層は、出力変数の集合を生成するためにニューラルネットワークベース170aの最後の畳み込み層174aの高次元出力を徐々に縮小する非線形全結合層173aである。
訓練において、逆予測モデル70aの訓練重みは、-グランドトゥルースエンドエフェクタポーズTを入力として与えられた-逆予測されたモデル
Figure 2022521556000018
からの出力を、データメモリ(図示されていない)から系統的に、又はランダムに選択される訓練データ集合DのバッチからのグランドトゥルースシーケンスQと比較することにより継続的に更新される。更には特に、フィルタに対する係数は、既定値又は任意値を使用して初期化される。フィルタに対する係数は、前方伝播を介して訓練データ集合Dのバッチに適用され、任意の出力誤差を最小化するために後方伝播を介して調節される。
適用時に、逆予測モデル70aは、エンドエフェクタ40の提供されたポーズ(T∈SE(3))71bに到達するために、j個の連続した関節変数72b(例えば図3Bに示されるパラメータα、β)のシーケンス
Figure 2022521556000019
を推測する。
更に図5Eを参照すると、示されている逆予測モデル70aの例示的な実施形態のニューラルアーキテクチャは、エンドエフェクタ40のポーズ(T∈SE(3))71bに到達するために、j個の連続した関節変数72b(例えば図3Bに示されるパラメータα、β)のシーケンス
Figure 2022521556000020
を予測するために規定された出力層179aにおいて指定されたタスクの複雑さに応じた固有の層数をもつ。平均二乗誤差(MSE)は損失関数として使用される。
図5C及び図5Dを参照すると、TEEプローブ130(図3A)及びナビゲーション制御装置103を使用する例示的な介入処置90bのステージS92bは、ナビゲーション制御装置103がエンドエフェクタ140の目標ポーズを決定すること、及び、逆予測モデル70aに目標ポーズ71aを送信することを有する。実際には、ナビゲーション制御装置130は、本開示の技術分野において知られている任意の知られたガイダンスアルゴリズムを実施する。
工程90bのステージS94Aは、逆予測モデル70a及びロボット制御装置100の関与を伴う。逆予測モデル70aは、エンドエフェクタ40のポーズ(T∈SE(3))71aに到達するために、j個の連続した関節変数72a(例えば図3Bに示されるパラメータα、β)のシーケンス
Figure 2022521556000021
を推測し、連続配置制御装置50bが、介入デバイス40の予測された配置運動に基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30を介したエンドエフェクタ50の配置を制御するようにコマンド制御装置104と通信する。
図6A~図6Eは、エンドエフェクタ40(図1)のナビゲートされたポーズを予測し、以て、介入処置中に、エンドエフェクタ40の予測された線速度及び/又は角速度をレンダリングするために介入デバイス30の関節速度の指示されたn次元ベクトルに対する順予測モデル60bの適用を円滑化する介入デバイス30(図1)の順運動学に基づいて訓練された本開示の順予測モデル60bの訓練及び適用を示し、この場合において、連続配置制御装置50(図1)は、エンドエフェクタ40の予測された線速度及び/又は角速度に基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30による再配置について情報提供する連続配置データ51を生成する。
更には特に、図6Aを参照すると、順予測モデル60bの訓練フェーズは、図16~図18の説明において例示的に教示されているようにグランドトゥルース訓練データ集合Dを解釈するように構成された訓練制御装置(図示されていない)の関与を伴う。データ集合Dは、2要素タプル、すなわち
Figure 2022521556000022
により表されたi個のデータ点を含むn個のシーケンスWからなる。2要素タプルは、j個の連続した関節速度
Figure 2022521556000023
61bと、エンドエフェクタの線速度及び/又は角速度62b
Figure 2022521556000024
との指示されたシーケンスからなる。要素
Figure 2022521556000025
は、ロボット制御装置(図示されていない)により制御されるすべての関節速度を表す。シーケンスは、ただ1つの要素を含んでいてもよい。
実際には、訓練データ集合Dは介入デバイス30の異なるナビゲーションの合理的なカバレッジを伴うエキスパートデータの集合体である。この目的を達成するために、学習のための多様なデータ集合訓練データ集合Dは、様々な種類のロボット間の機械的相違、ハードウェアコンポーネントの摩耗及び断裂、及び他のシステムに依存した因子を組み込んだものでなければならない。
図6Bを参照すると、順予測モデル60bの適用段階は、連続配置制御装置50が、エンドエフェクト運動回帰のためにフィードフォワード予測モデル60bを使用した深層学習型アルゴリズムを実行することを伴う。順予測モデル60bは、介入デバイス30の関節速度61bのn次元ベクトルを与えられたとき、エンドエフェクタ40の線速度及び/又は角速度62bを推測するように構成されている。
図6Eに示される1つの実施形態において、順予測モデル60bは、1つ又は複数の全結合層(FCL)163b、1つ又は複数の畳み込み層(CNL)164b、1つ又は複数のリカレント層(RCL)165b、及び1つ又は複数の長期短期記憶(LSTM)層166bの組み合わせから導出された入力層、隠れ層、及び出力層を含むニューラルネットワークベース160bを使用する。
実際には、層の組み合わせは、エンドエフェクタ40の線速度及び/又は角速度への介入デバイス30の関節速度の回帰を実施するように構成される。
エンドエフェクタ40の線速度及び/又は角速度への介入デバイス30の関節速度の回帰を実施するための1つの実施形態において、ニューラルネットワークベース160bはN個の全結合層163bの集合を含む。
エンドエフェクタ40の線速度及び/又は角速度への介入デバイス30の関節速度の回帰を実施するための第2の実施形態において、ニューラルネットワークベース160bは、N個の畳み込み層164bの集合、及び、その後のM個の全結合層163bの集合、又はW個のリカレント層165bの集合、又はW個の長期短期記憶層166bの集合を含む。
エンドエフェクタ40の線速度及び/又は角速度への介入デバイス30の関節速度の回帰を実施するための第3の実施形態において、ニューラルネットワークベース160bは、N個の畳み込み層164bの集合、及び、その後のM個の全結合層163bの集合、及びW個のリカレント層165bの集合、又はW個の長期短期記憶層166bの集合の組み合わせを含む。
実際には、全結合層163bはK個のニューロンを含み、ここで、N、M、W、Kは任意の正の整数であり、値は実施形態に応じて変わる。例えば、Nは約8であり、Mは約2であり、Wは約2であり、Kは約1000であり得る。更に、畳み込み層164bは、演算(例えば、バッチ正規化、正規化線形ユニット(ReLU)、プーリング、ドロップアウト、及び/又は畳み込み)の合成関数である非線形変換を実施し、畳み込み層164bは、正規化特徴マップを抽出するように構成された(例えば正規化非線形ReLU演算を含む)非線形性関数を更に含んでもよい。
更に実際には、層163b又は164bのうちの1つは、j個の連続した関節速度のシーケンス
Figure 2022521556000026
を入力するための入力層として機能し、この場合において、j個の連続した関節速度のシーケンス
Figure 2022521556000027
のサイズは、≧1であり、層163b、165b、及び166bのうちの1つは、線形又は非線形活性化関数を使用して最後の全結合層(例えば、線速度に対して3ユニット、及び角速度に対して3ユニットの6ユニット)から回帰されたエンドエフェクタの線速度及び角速度
Figure 2022521556000028
を出力するための出力層として機能する。
訓練において、順予測モデル60bの訓練重みは、-関節速度のシーケンスを与えられた-順速度予測モデルを介して予測された線速度及び角速度
Figure 2022521556000029
を、データメモリ(図示されていない)から系統的に、又はランダムに選択される訓練データ集合Dのバッチからの線速度及び/又は角速度62bと比較することにより継続的に更新される。更には特に、フィルタに対する係数は、既定値又は任意値を使用して初期化される。フィルタに対する係数は、前方伝播を介して訓練データ集合Dのバッチに適用され、任意の出力誤差を最小化するために後方伝播を介して調節される。
適用時に、順予測モデル60bは、介入デバイス30の関節速度61bのシーケンスが与えられたとき、エンドエフェクタ40の線速度及び/又は角速度62bを推測する。
更に図6Eを参照すると、ニューラルアーキテクチャは、入力、前述のニューラルネットワークベース、及び出力からなる。入力は、関節速度のシーケンスであり、出力は、6ユニットを含む全結合層から回帰され得る線速度及び角速度である。損失関数は、
Figure 2022521556000030
として列記されたMSEである。
図6C及び図6Dを参照すると、ロボット230(図3A)、TTEプローブ240(図3A)、及びロボット制御装置101(図3G)を使用する例示的な介入処置90cのステージS92cは、ロボット制御装置101が、介入デバイス30の関節速度61bのn次元ベクトルとしてTTEプローブ240の位置を受信すること、及びロボット230に介入デバイス30の関節速度61bのn次元ベクトルを送信することを有する。実際には、介入デバイス30の関節速度61bのn次元ベクトルとしてのTTEプローブ240の位置は、ユーザー又は外部追跡デバイス又はガイダンスシステムにより示される。
工程90cのステージS94cはロボット制御装置101、順予測モデル50a、及び表示制御装置104の関与を伴う。ロボット制御装置101は、介入デバイス30の関節速度61bのn次元ベクトルを記憶し、TTEプローブ240の線速度及び/又は角速度62bを予測する順予測モデル60bに通信する。連続配置制御装置50cは、本開示の技術分野において知られているように確率的に可能にされたドロップアウトを伴って実施される順予測モデル60bの不確かな複数のフィードフォワード反復から導出された予測の信頼率を生成する。順予測モデル60bは、TTEプローブ240の予測された線速度及び/又は角速度62bから導出されたTTEプローブ240の予測されたナビゲートされたポーズ
Figure 2022521556000031
を含み、及び、信頼率を更に含む連続配置データ51bを表示制御装置104に通信し、次に、表示制御装置104が、目標ポーズへのエンドエフェクタ240に対するガイダンス目的のために、TTEプローブ240のナビゲートされたポーズの画像105a、TTEプローブ240のナビゲートされたポーズの画像106a、及び信頼率の表示を制御する。
図7A~図7Eは、介入デバイス30の配置運動を予測し、以て、介入処置中に、介入デバイス30の予測された配置運動をレンダリングするためのエンドエフェクタ40の目標ポーズへの逆予測モデル70bの適用を円滑化する、介入デバイス30(図1)の逆運動学に基づいて訓練された本開示の逆予測モデル70bの訓練及び適用を示し、この場合において、連続配置制御装置50(図1)は、介入デバイス40の予測された配置運動に基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30による再配置を制御する連続配置指示を生成する。
更には特に、図7Aを参照すると、逆予測モデル70bの訓練フェーズは、図17~図18の説明において例示的に教示されているようにグランドトゥルース訓練データ集合Dを解釈するように構成された訓練制御装置(図示されていない)の関与を伴う。データ集合Dは、2要素タプル、すなわち
Figure 2022521556000032
により表されたi個のデータ点を含むn個のシーケンスWからなる。2要素タプルは、エンドエフェクタの線速度及び/又は角速度と、tから始まりt+jまでの連続した時点において獲得された連続した関節速度のシーケンス
Figure 2022521556000033
とからなる。要素
Figure 2022521556000034
は、ロボット制御装置(図示されていない)により制御されるすべての関節速度を表す。
実際には、訓練データ集合Dは、介入デバイス30の異なるナビゲーションの合理的なカバレッジを伴うエキスパートデータの集合体である。この目的を達成するために、学習のための多様なデータ集合訓練データ集合Dは、様々な種類のロボット間の機械的相違、ハードウェアコンポーネントの摩耗及び断裂、及び他のシステムに依存した因子を組み込んだものでなければならない。
図7Bを参照すると、逆予測モデル70bの適用段階は、連続配置制御装置50が関節速度回帰のために逆予測モデル70bを使用して深層学習型アルゴリズムを実行することを伴う。逆予測モデル70bは、エンドエフェクタ40の線速度及び/又は角速度62bを与えられたとき、介入デバイス30の関節速度61bのn次元ベクトルを推測するように構成されている。
図7Eに示される1つの実施形態において、逆予測モデル70bは、1つ又は複数の全結合層(FCL)173b、1つ又は複数の畳み込み層(CNL)174b、1つ又は複数のリカレント層(RCL)175b、及び1つ又は複数の長期短期記憶(LSTM)層176bの組み合わせから導出された入力層、隠れ層、及び出力層を含むニューラルネットワークベース170bを使用する。
実際には、層の組み合わせは、介入デバイス30の関節速度へのエンドエフェクタ40の線速度及び/又は角速度の回帰を実施するように構成される。
介入デバイス30の関節速度へのエンドエフェクタ40の線速度及び/又は角速度の回帰を実施するための1つの実施形態において、ニューラルネットワークベース170bはN個の全結合層173bの集合を含む。
介入デバイス30の関節速度へのエンドエフェクタ40の線速度及び/又は角速度の回帰を実施するための第2の実施形態において、ニューラルネットワークベース170bはN個の畳み込み層174bの集合、及び、その後のM個の全結合層173bの集合、又はW個のリカレント層175bの集合、又はW個の長期短期記憶層176bの集合を含む。
介入デバイス30の関節速度へのエンドエフェクタ40の線速度及び/又は角速度の回帰を実施するための第3の実施形態において、ニューラルネットワークベース170bは、N個の畳み込み層174bの集合、及び、その後のM個の全結合層173bの集合及びW個のリカレント層175bの集合又はW個の長期短期記憶層176bの集合の組み合わせを含む。
実際には、全結合層173bはK個のニューロンを含み、ここで、N、M、W、Kは任意の正の整数であり、値は実施形態に応じて変わる。例えば、Nは約8であり、Mは約2であり、Wは約2であり、Kは約1000であり得る。更に、畳み込み層174bは、演算(例えば、バッチ正規化、正規化線形ユニット(ReLU)、プーリング、ドロップアウト、及び/又は畳み込み)の合成関数である非線形変換を実施し、畳み込み層174bは、正規化特徴マップを抽出するように構成された(例えば正規化非線形ReLU演算を含む)非線形性関数を更に含む。
更に実際には、層173b又は174bのうちの1つは、角度及び線速度
Figure 2022521556000035
を入力するための入力層として機能し、層173b、175b、及び176bのうちの1つは、LSTM層176bからの出力として提供されるj個の連続した関節速度のシーケンス
Figure 2022521556000036
を出力するための出力層として機能する。代替的に、1つの関節速度は、mユニットからなる全結合層173bから回帰され、各ユニットはロボット制御装置により制御されるロボットにおける各連結に対するものである。全結合層173bは、線形又は非線形活性化関数を含む。
訓練において、逆予測モデル70bの訓練重みは、関節速度の予測されたシーケンス
Figure 2022521556000037
を-入力において線速度及び角速度
Figure 2022521556000038
が与えられたとき-データメモリ(図示されていない)から系統的に、又はランダムに選択される訓練データ集合Dのバッチからの関節速度のグランドトゥルースシーケンス
Figure 2022521556000039
と比較することにより継続的に更新される。更には特に、フィルタに対する係数は既定値又は任意値を使用して初期化される。フィルタに対する係数が前方伝播を介して訓練データ集合Dのバッチに適用され、任意の出力誤差を最小化するために後方伝播を介して調節される。
適用時に、逆予測モデル70bがエンドエフェクタ40の線速度及び/又は角速度62bが与えられたとき、介入デバイス30の関節速度61bのn次元ベクトルを推測する。
更に図7Eを参照すると、逆速度モデルの例示的な実施形態のニューラルアーキテクチャは、入力、ニューラルネットワークベース、及び出力からなる。入力は角度及び線速度
Figure 2022521556000040
であり、出力はLSTM層から出力として提供される関節速度のシーケンス
Figure 2022521556000041
である。代替的に、1つの関節速度は、mユニットからなる全結合層から回帰され、各ユニットは、ロボット制御装置により制御されるロボットにおける各連結に対するものである。全結合層は、線形又は非線形活性化関数を含む。
図7C及び図7Dを参照すると、TTEプローブ240(図3G)及びナビゲーション制御装置103を使用する例示的な介入処置90dのステージS92dは、ナビゲーション制御装置103が、目標ポーズへのTTEプローブ240の線速度及び/又は角速度62bを決定すること、及び逆予測モデル70bに線速度及び/又は角速度62bを送信することを有する。実際には、ナビゲーション制御装置130は、本開示の技術分野において知られている任意の知られたガイダンスアルゴリズムを実施する。
工程90dのステージS94dは、逆予測モデル70b及びロボット制御装置101の関与を伴う。逆予測モデル70bは、線速度及び/又は角速度62bを与えられたとき、介入デバイス30の関節速度61bのn次元ベクトルを推測し、連続配置制御装置50cがロボット制御装置101に連続配置指示52bを通信し、以て、介入デバイス40の予測された配置運動に基づいて、目標ポーズへのロボット230(図3G)を介したTTEプローブ240の配置を制御する。
実際には、順予測モデル60a(図4A)、逆予測モデル70a(図5A)、順予測モデル60b(図64A)、及び逆予測モデル70b(図7A)は、例えば例として、解剖学的構造物の画像(例えば、超音波、内視鏡、又はX線画像)、エンドエフェクタにおいて測定された力、及び、ロボットの形状といった更なる補助情報を使用する。用途に応じて、スペクトル組織検出デバイスからの情報、ECG又はEEG信号、組織伝導率、又は他の生理学的信号を包含する他の入力が更に含まれ得る。例えば、連続体様ロボットがヒトの心臓の内部において動作する場合、超音波画像及び電気生理学的信号において利用可能な特徴が、解剖学的構造物に対するエンドエフェクタの位置特定を改善し得、したがって、ガイダンスの正確さを改善する。
図8A及び図8Bを参照すると、順予測モデル60cは、関節変数61aのシーケンスQ及びエンドエフェクタポーズT62aに加えて介入デバイスの順運動学に加えて介入デバイスの形状35a、画像35b、及び力35cに基づいて訓練されるものとして示される。したがって、適用時に、順予測モデル60cは、関節変数61aのシーケンスQ、及び介入デバイスの形状35a、画像35b、及び力35cからエンドエフェクタのナビゲートされたポーズを予測することが可能である。
当業者は、介入デバイスの形状35a、画像35b、及び力35c、及び任意の他の更なる補助情報を逆予測モデル70a、順予測モデル60b、及び逆予測モデル70bにどのように適用するかを理解する。
図9A~図9Eは、エンドエフェクタ40(図1)のナビゲートされたポーズ及びロボットの形状を予測し、以て、介入処置中に、エンドエフェクタ40の予測されたナビゲートされたポーズ及び形状をレンダリングするための、組み込まれたOSS技術を伴う介入デバイス30の連続した形状のシーケンスへの順予測モデル60dの適用を円滑化する、介入デバイス30(図1)の順運動学に基づいて訓練された本開示の順予測モデル60dの訓練及び適用を示し、この場合において、連続配置制御装置50(図1)は、エンドエフェクタ40の予測されたナビゲートされたポーズに基づいて、目標ポーズへのエンドエフェクタ40の介入デバイス30による再配置について情報提供する連続配置データ51cを生成する。
更には特に、図9Aを参照すると、訓練フェーズは、図16~図18の説明において例示的に教示されているように、グランドトゥルース訓練データ集合Dを解釈するように構成された訓練制御装置(図示されていない)の関与を伴う。このデータ集合は、2要素タプル、すなわちd=(H,Hi+1)により表されたi個のデータ点を含むn個のシーケンスWからなる。この2要素タプルは、k個の連続した形状61dのシーケンス(H∈(h、ht+1…ht+k))からなり、ここで、h∈(p…p)は、3Dユークリッド空間における介入デバイス30(例えば形状検出されるガイドワイヤ)に組み込まれたOSSセンサーの位置と、例えば、ひずみ、湾曲、及びねじれといった補助形状パラメータとの両方を説明するm個のベクトルpの集合である。この2要素タプルは、更に、Hi+1∈(ht+1、ht+2…ht+k+1)などの将来の時点ht+k+1を含むk個の連続した形状62bのシーケンスからなり、ここで、h∈(p…p)は、3Dユークリッド空間におけるOSS介入デバイス30の位置と、例えば、ひずみ、湾曲、及びねじれといった補助形状パラメータとの両方を説明するm個のベクトルpの集合である。
実際には、訓練データ集合Dは、OSS介入デバイス30の異なるナビゲーションの合理的なカバレッジを伴うエキスパートデータの集合体である。この目的を達成するために、学習のための多様なデータ集合訓練データ集合Dは、異なる湾曲をもつ解剖学的構造物、運動の大きさ、様々な種類のロボット間の機械的相違、ハードウェアコンポーネントの摩耗及び断裂、及び他のシステムに依存しない因子、例えば、環境の温度及び湿度を組み込んだものでなければならない。
図9Bを参照すると、順予測モデル60dの適用段階は、連続配置制御装置50dが異なる例の合理的なカバレッジを伴うエキスパートデータに基づいて訓練されたリカレント層を含むフォワードを使用して深層学習型アルゴリズムを実行することを伴う。学習のための多様なデータ集合は、様々な作業条件(温度、ファイバー屈曲など)、デバイスの異なる動作運動、及びハードウェア(ファイバー、インテロゲータなど)の相違を組み込んだものである。
図9Eに示される1つの実施形態において、順予測モデル60dは、入力層163a、シーケンス間モデル263a、出力層262a、及び抽出層264を連続して含むニューラルアーキテクチャを使用する。ニューラルアーキテクチャは、k個の形状からなる将来のシーケンス
Figure 2022521556000042
を推測し、したがって、将来の時点におけるOSS介入デバイス30の位置を推定するために、予測されたシーケンスにおける最後の形状
Figure 2022521556000043
を使用するように構成されたリカレント層を含む深層畳み込みニューラルネットワークである。
訓練において、順予測モデル60dの訓練重みは、-入力シーケンスHを与えられたモデルにより予測された-将来の形状のシーケンス
Figure 2022521556000044
を、データメモリ(図示されていない)から系統的に、又はランダムに選択される訓練データ集合Dからのグランドトゥルースな将来のシーケンスHi+1と比較することにより継続的に更新される。更には特に、フィルタに対する係数は、既定値又は任意値を使用して初期化される。フィルタに対する係数は、前方伝播を介して訓練データ集合Dのバッチに適用され、任意の出力誤差を最小化するために後方伝播を介して調節される。
適用時に、順予測モデル60dは、k個の形状からなる将来のシーケンス
Figure 2022521556000045
を推測し、したがって、将来の時点におけるOSS介入デバイス30の位置を推定するために、予測されたシーケンスにおける最後の形状
Figure 2022521556000046
を使用する。
図9Fに示される代替的な実施形態において、順予測モデル60dは、シーケンス間モデル263aの代わりに多対1モデル263bを使用し、この場合において、最終層が最後の形状
Figure 2022521556000047
となる。
図9C及び図9Dを参照すると、OSSガイドワイヤ332(図3F)及び形状検出制御装置103(図3F)を使用する例示的な介入処置90eのステージS92eは、形状検出制御装置103が目標ポーズへのエンドエフェクタ340のナビゲーション中にOSSガイドワイヤ332の形状を測定すること、及び記憶することを有する。
工程90eのステージS94eは、形状検出制御装置103、順予測モデル50d、及び表示制御装置104の関与を伴う。形状検出制御装置103は、k個の連続した形状のシーケンス61dを順予測モデル60eに通信し、以て、形状の後続のシーケンス
Figure 2022521556000048
を推測し、ここで、最後の形状
Figure 2022521556000049
は、OSSガイドワイヤ332の予測された位置である。表示制御装置104は、目標ポーズへのエンドエフェクタ340に対するガイダンス目的のために、OSSガイドワイヤ332の検出位置画像105aの表示を制御する。
図11A及び図11Bを参照すると、本開示のイメージング予測モデル80aは、異なる例の合理的なカバレッジを伴うエキスパートデータに基づいて訓練されている。このニューラルネットワーク80aは、超音波画像81aを与えられたとき、基準の解剖学的構造物に対するこの画像81aの相対位置82aを推測する。結果として、解剖学的構造物(例えば心臓)におけるエンドエフェクタの以前のポーズとエンドエフェクタの現在のポーズとの間の運動は、本明細書において更に詳しく説明されるように計算される。
図11Aは、イメージング予測モデル80aのバッチワイズの訓練を示す。訓練中、ネットワーク継続的イメージング予測モデル80aは、超音波画像及び基準の解剖学的構造物に対するこの画像の相対位置からなるグランドトゥルースデータ集合からの2要素タプルを使用してその重みを更新する。
図11Bは、画像81aを与えられたときに、基準の解剖学的構造物(例えば基準超音波画像)に対するエンドエフェクタの相対ポーズ82aを予測するイメージング予測モデル80aを使用したリアルタイム推論を示す。
訓練フェーズにおいて、データ獲得制御装置(図示されていない)は、ロボット及びエンドエフェクタ(例えば超音波デバイス)と、次の仕様、すなわち、訓練データ集合Dが2要素タプル、すなわちd=(U,T)により表されたi個のデータ点からなるということにより規定された形式によるデータ獲得制御装置(図示されていない)によるデータ記憶媒体(図示されていない)における保存データとの両方からの情報を受信するように、及び解釈するように構成されている。この2要素タプルは、基準位置に対する特定の位置T∈SE(3)82aにおいて獲得された超音波画像U81aからなる。
訓練制御装置は、データ記憶媒体に保存された訓練データ集合Dを解釈するように構成されている。このデータ集合Dは、2要素タプル、すなわちd=(U,T)により表されたi個のデータ点からなる。この2要素タプルは、解剖学的構造物の超音波画像U81a、及び、超音波画像Uが獲得されたエンドエフェクタの現在のポーズと何らかの任意に選択された基準位置との間の相対運動T82aからなる。
図11Eに示される1つの実施形態において、画像予測モデル80aは、1つ又は複数の全結合層(FCL)183a、1つ又は複数の畳み込み層(CNL)184a、1つ又は複数のリカレント層(RCL)185a、及び1つ又は複数の長期短期記憶(LSTM)層186aの組み合わせから導出された入力層、隠れ層、及び出力層を含むニューラルネットワークベース180aを使用する。
実際には、層の組み合わせは、基準画像に対する画像Uの相対的配置、従ってポーズ
Figure 2022521556000050
を実現するように構成されている。
基準画像に対する画像Uの相対的配置、従って以てポーズ
Figure 2022521556000051
を実現するための1つの実施形態において、ニューラルネットワークベース180aはN個の全結合層183aの集合を含む。
基準画像に対する画像Uの相対的配置、従ってポーズ
Figure 2022521556000052
を実現するための第2の実施形態において、ニューラルネットワークベース180aは、N個の畳み込み層184aの集合、及び、その後のM個の全結合層183aの集合、又はW個のリカレント層185aの集合、又はW個の長期短期記憶層186aの集合を含む。
基準画像に対する画像Uの相対的配置、従ってポーズ
Figure 2022521556000053
を実現するための第3の実施形態において、ニューラルネットワークベース180aは、N個の畳み込み層184aの集合、及び、その後のM個の全結合層183aの集合、及びW個のリカレント層185aの集合、又はW個の長期短期記憶層186aの集合の組み合わせを含む。
実際には、全結合層183aはK個のニューロンを含み、ここで、N、M、W、Kは任意の正の整数であり、値は実施形態に応じて変わる。例えば、Nは約8であり、Mは約2であり、Wは約2であり、Kは約1000であり得る。更に、畳み込み層184aは、演算(例えば、バッチ正規化、正規化線形ユニット(ReLU)、プーリング、ドロップアウト、及び/又は畳み込み)の合成関数である非線形変換を実施し、畳み込み層184aは、正規化特徴マップを抽出するように構成された(例えば正規化非線形ReLU演算を含む)非線形性関数を更に含む。
更に実際には、層183a又は184aのうちの1つが、画像Ucを入力するための入力層として機能し、層183a、185a、及び186aのうちの1つが、(例えばデカルト空間におけるエンドエフェクタ40の並進移動及び回転といった)デカルト空間におけるエンドエフェクタ40のポーズ182aを出力するための出力層として機能する。デカルト空間におけるエンドエフェクタ40の出力されたポーズは、硬質ボディ位置及び配向のベクトルパラメータ化及び/又は非ベクトルパラメータ化として表される。更には特に、パラメータ化は、オイラー角、四元数、行列、指数写像、及び/又は回転を表す角度軸、及び/又は(例えば並進移動に対する方向及び大きさを含む)並進移動の形態である。
更に実際には、出力層は、出力変数の集合を生成するために、ニューラルネットワークベース180aの最後の畳み込み層184aの高次元出力を徐々に縮小する非線形全結合層183aである。
訓練において、画像予測モデル80aの訓練重みは、-入力として超音波画像161cを与えられた-画像予測モデルを使用した何らかの基準の解剖学的構造物に対するエンドエフェクタの予測された相対運動
Figure 2022521556000054
を、データメモリ(図示されていない)から系統的に、又はランダムに選択される訓練データ集合Dのバッチからのグランドトゥルース相対運動Tと比較することにより継続的に更新される。更には特に、フィルタに対する係数は、既定値又は任意値を使用して初期化される。フィルタに対する係数は、前方伝播を介して訓練データ集合Dのバッチに適用され、任意の出力誤差を最小化するために後方伝播を介して調節される。
図12A及び図12Bを参照すると、本開示のイメージング予測モデル80baは、異なる例の合理的なカバレッジを伴うエキスパートデータに基づいて訓練される。このニューラルネットワーク80ba、超音波画像81aを与えられたとき、基準の解剖学的構造物に対するこの画像81aの相対位置82aを推測する。結果として、解剖学的構造物(例えば心臓)におけるエンドエフェクタの以前のポーズとエンドエフェクタの現在のポーズとの間の運動は、本明細書において更に詳しく説明されるように計算される。
図12Aは、イメージング予測モデル80baのバッチワイズの訓練を示す。訓練中、ネットワーク継続的イメージング予測モデル80baは、超音波画像及び基準の解剖学的構造物に対するこの画像の相対位置からなるグランドトゥルースデータ集合からの2要素タプルを使用してその重みを更新する。
図12Bは、画像81aを与えられたときに基準の解剖学的構造物(例えば基準超音波画像)に対するエンドエフェクタの線速度及び角速度を予測83aするイメージング予測モデル80baを使用したリアルタイム推論を示す。
訓練フェーズにおいて、データ獲得制御装置(図示されていない)は、ロボット及びエンドエフェクタ(例えば超音波デバイス)と、次の仕様、すなわち、訓練データ集合Dが2要素タプル、すなわちd=(U,V)により表されたi個のデータ点からなることにより規定された形式によるデータ獲得制御装置(図示されていない)によるデータ記憶媒体(図示されていない)における保存データとの両方からの情報を受信するように、及び解釈するように構成されている。この2要素タプルは、エンドエフェクタの線速度及び角速度のベクトル83aを介して基準位置に対する特定の位置T∈SE(3)82aにおいて獲得された超音波画像U81aからなる。
訓練制御装置は、データ記憶媒体に保存された訓練データ集合Dを解釈するように構成されている。このデータ集合Dは、2要素タプル、すなわちd=(U,V)により表されたi個のデータ点からなる。この2要素タプルは、解剖学的構造物の超音波画像U81a、及び、超音波画像Uが獲得されたエンドエフェクタの線速度及び角速度、及び何らかの任意に選択された基準位置の相対n次元ベクトル83aからなる。
図12Eに示される1つの実施形態において、画像予測モデル80bは、1つ又は複数の全結合層(FCL)183b、1つ又は複数の畳み込み層(CNL)184b、1つ又は複数のリカレント層(RCL)185b、及び1つ又は複数の長期短期記憶(LSTM)層186bの組み合わせから導出された入力層、隠れ層、及び出力層を含むニューラルネットワークベース180bを使用する。
実際には、層の組み合わせは、基準画像に対する画像Uの相対的配置を実現し、以てエンドエフェクタ40の線速度及び/又は角速度を導出するように構成されている。
基準画像に対する画像Uの相対的配置を実施し、以てエンドエフェクタ40の線速度及び/又は角速度を導出するための1つの実施形態において、ニューラルネットワークベース180bはN個の全結合層183bの集合を含む。
基準画像に対する画像Uの相対的配置を実施し、以てエンドエフェクタ40の線速度及び/又は角速度を導出するための第2の実施形態において、ニューラルネットワークベース180bはN個の畳み込み層184bの集合、及び、その後のM個の全結合層183bの集合、又はW個のリカレント層185bの集合、又はW個の長期短期記憶層186bの集合を含む。
基準画像に対する画像Uの相対的配置を実施し、以てエンドエフェクタ40の線速度及び/又は角速度を導出するための第3の実施形態において、ニューラルネットワークベース180bはN個の畳み込み層184bの集合、及び、その後のM個の全結合層183bの集合、及びW個のリカレント層185bの集合、又はW個の長期短期記憶層186bの集合の組み合わせを含む。
実際には、全結合層183bはK個のニューロンを含み、N、M、W、Kは任意の正の整数であり、値は実施形態に応じて変わる。例えば、Nは約8であり、Mは約2であり、Wは約2であり、Kは約1000であり得る。更に、畳み込み層184bは、演算(例えば、バッチ正規化、正規化線形ユニット(ReLU)、プーリング、ドロップアウト、及び/又は畳み込み)の合成関数である非線形変換を実施し、畳み込み層184bは、正規化特徴マップを抽出するように構成された(例えば正規化非線形ReLU演算を含む)非線形性関数を更に含む。
更に実際には、層183b又は184bのうちの1つが、画像Uを入力するための入力層として機能し、層183b、185b、及び186bのうちの1つが、線形又は非線形活性化関数を使用した最後の全結合層(例えば、線速度に対して3ユニット、及び角速度に対して3ユニットの6ユニット)から回帰されたエンドエフェクタの線速度及び角速度
Figure 2022521556000055
を出力するための出力層として機能する。
訓練において、画像予測モデル80bの訓練重みは、-入力として超音波画像161cを与えられたときの-何らかの基準の解剖学的構造物に対するエンドエフェクタの予測された線速度及び角速度を、データメモリ(図示されていない)から系統的に、又はランダムに選択される訓練データ集合Dのバッチからの何らかの基準の解剖学的構造物に対する運動を説明するグランドトゥルースエンドエフェクタ線速度及び角速度と比較することにより継続的に更新される。更には特に、フィルタに対する係数は、既定値又は任意値を使用して初期化される。フィルタに対する係数は、前方伝播を介して訓練データ集合Dのバッチに適用され、任意の出力誤差を最小化するために後方伝播を介して調節される。
図13A及び図13Bを参照すると、連続配置制御装置50fは、フローチャート190aにより表された本開示の閉ループ連続位置制御方法を実行するために、逆予測モデル70a、画像予測モデル80a、減算器53、及び制御規則54aを使用する。
1つのTEEプローブの実施形態において、工程190aのステージS192aは、TEEプローブハンドル132(図3A)が、ハンドル132のダイヤル及びTEEプローブ130の回転を制御するために、本開示の技術分野において知られているようにロボット制御装置100(図3B)に挿入されることを有する。TEEトランスデューサー140(図3A)は、食道を通して体内に挿入され、例えば心臓といった関心のある解剖学的構造物の近傍に、例えば図13Cに示される中食道位置に配置される。超音波画像パラメータは、TEEトランスデューサー140のこの目標ポーズにおいて規定される。
工程190aのステージS194aは、画像予測モデル90が、基準の解剖学的構造物に対するこの画像面の相対位置
Figure 2022521556000056
を予測するために、以前の超音波画像Uと呼ぶ現在の超音波画像81aを処理することを有する。音波検査者は、超音波画像を使用して解剖学的構造物を観測し、その現在位置Tからのトランスデューサーの所望の動きについて決定する。代替的に、トランスデューサーの所望の運動は、外部追跡デバイス、ユーザーインターフェース、超音波画像に重ね合わされた他のイメージングモダリティ、例えば、EchoNavigator(Philips)を使用して3D TEE画像に重ね合わされたX線画像から提供され得る。
に基づいて、逆予測モデル70aは、ロボットを所望の位置に動かすために必要とされる関節変数
Figure 2022521556000057
72aを予測する。ロボット制御装置100は、関節変数72aを受信し、相応にTEEプローブ130を動かす。
工程190aのステージS196aは、超音波画像Uが獲得される別の位置に超音波トランスデューサーが到達することを有する。画像予測モデル90gは、基準の解剖学的構造物に対する両方の現在の画像面の相対位置
Figure 2022521556000058
を予測するために、現在の超音波画像Uを処理することを使用する。結果として、例えば心臓といった解剖学的構造物における以前の位置と現在位置との間の運動は、次のように計算され得る。
Figure 2022521556000059
第2のTEEプローブの実施形態では、図13Dに示されるように、超音波画像に重ね合わされた外部イメージングモダリティにより生成された画像201における経路の選択が、所望の位置Tを特定するために使用される(例えば、X線画像、及びコーンビームCT画像が、当技術分野において知られた方法(Philips EchoNavigator)を使用して超音波画像に重ね合わされ得る)。
図14A及び図14Bを参照すると、連続配置制御装置50gは、フローチャート190bにより表された本開示の閉ループ連続位置制御方法を実行するために、逆予測モデル70b、画像予測モデル80b、減算器53、及び制御規則54bを使用する。
1つのTEEプローブの実施形態において、工程190bのステージS192bは、TEEプローブハンドル142(図3A)が、ハンドル142のダイヤル及びTEEプローブ140の回転を制御するために、本開示の技術分野において知られているようにロボット制御装置100(図3B)に挿入されることを有する。TEEトランスデューサー140(図3A)は、食道を通して体内に挿入され、例えば心臓といった関心のある解剖学的構造物の近傍に、例えば図14Cに示されるように中食道位置に配置される。超音波画像パラメータは、TEEトランスデューサー140のこの目標ポーズにおいて規定される。
工程190bのステージS194bは、ユーザーが、例えば超音波画像203における点Aから点Bまでの経路、又は画像面Aと画像面Bとの間の変換を選択することにより、画像空間においてトランスデューサーを動かすことを望むことを有する。この実施形態において、画像における経路により規定された第1の線速度及び角速度202は、本開示の技術分野において知られている方法を使用してエンドエフェクタと画像座標系との間の空間的関係を知ることにより計算されたend-effectorimageヤコビアン204を使用してエンドエフェクタ座標系に変換される。
に基づいて、逆予測モデル70b(図7B)は、ロボットを所望の位置に動かすために必要とされる関節速度
Figure 2022521556000060
72bを予測する。ロボット制御装置100は、関節速度
Figure 2022521556000061
72bを受信し、相応にTEEプローブ130を動かす。
工程190aのステージS196bは、超音波トランスデューサーが、超音波画像Uが獲得される別の位置に到達することを有する。画像予測モデル80bは、点Aと点Bとの間のエンドエフェクタの速度ベクトル83aを予測するために、現在の超音波画像U81aを処理する。画像予測モデル80bは、エンドエフェクタのデカルト速度と関節空間における速度との間の関数を推定し、すなわち、-関節速度のn次元ベクトル72cを予測するためにエンドエフェクタ71cの線速度及び角速度からなる6次元ベクトルを与えられたとき-ニューラルネットワークがマニピュレーターヤコビアンをモデル化する。
本開示の技術分野における当業者により理解されるように、例えば心臓といった解剖学的構造物の画像間における空間的関係をモデル化するニューラルネットワークは、所与の臓器に特有な大きい訓練データ集合を必要とする。
代替的な実施形態において、特徴が、トランスデューサーの位置を検証するために画像から直接抽出される。図14Cに示されるこの実施形態において、ユーザーは、画像205におけるオブジェクト、例えば心尖壁を選択し、そのオブジェクトの周囲において、システムが特徴抽出206を介して特定の際立った特徴を抽出する。オブジェクトの縁部、形状、及びサイズを包含するこれらの特徴は、まず、本開示の技術分野において知られた方法(例えば、キャニーエッジ検出器、形態的演算など)を使用して検出され、次に、本開示の技術分野において知られているスケール不変特徴変換(SIFT)を使用して追跡される。最後に、システムが、画像において必要とされる運動を示す、選択されたオブジェクトと視野の中心との間の経路を規定する。SIFTを使用して際立った特徴を追跡することにより、連続位置制御装置50g(図14A)が、閉ループ制御内においてネットワークからの予測を修正し得る。
より具体的な、連続体様ロボットの速度ベースの制御システム。画像における所望の運動は、ユーザーが画像における特定のオブジェクト、例えば心尖壁を選択するとすぐに識別される(超音波画像における赤色の点を参照されたい)。運動は、ヤコビアン204を使用してエンドエフェクタ空間における線速度及び角速度に変換され得る、視野の中心と選択されたオブジェクトとの間の経路により規定される。次に、このデカルト速度は、関節速度を推測するニューラルネットワークに送信される。到達された位置は、継続的に追跡されるオブジェクト及び視野の中心により規定された経路に対して繰り返し検証される。
実際には、図13及び図14の閉制御ループは、他のモダリティ、例えば、光学的形状検出(OSS)、電磁追跡、又は、例えばPhilips EchoNavigatorを使用して超音波画像に重ね合わされたX線画像を使用して閉じている。
更に実際には、ニューラルネットワークの予測精度は、柔軟な内視鏡の構成により影響を受け得る。したがって、心臓に対するトランスデューサーの位置は、まず、取り得る構成のうちの1つを黙示的に規定する、例えばニューラルネットワークg、又はPhilips HeartModelを使用して規定される。次に、ネットワーク重みの特定の集合が、検出された構成に従ってモデルにロードされ、したがって、予測精度を改善する。
同様のアプローチが、最適な画像及びガイダンスが提供され得る位置にユーザーを案内するために使用され得る。
更に、機械/深層学習における最も難しい問題のうちの1つは、予測モデルの訓練のための正しい形式による大きいデータのアクセスのしやすさである。更には特に、訓練及び検証集合を収集すること、及び構成することは、それが領域特有の知識情報を必要とするという理由から、非常に時間がかかり、高価である。例えば、良性乳房腫瘍と悪性乳房腫瘍とを正確に区別するために予測モデルを訓練するために、このような訓練は、専門の放射線科医により注釈付けされた、及び訓練アルゴリズムが理解し得る数値表現に変換された数千もの超音波画像を必要とする。更に、画像データ集合は、不正確であり、誤りを含み、又はノイズを伴ってラベル付けされ、すべてが、検出の不正確さをもたらし、大きい医療データ集合の獲得は、倫理的な、及びプライバシー上の懸念、及び多くの他の懸念をもたらす。
図15を参照すると、本開示の訓練データ収集システムは、ロボットの内視鏡131と腱駆動マニピュレーター231との両方に搭載された光学的形状検出ファイバー332における各点に対する3D位置ベクトル233を提供する形状検出制御装置103を使用する。光ファイバー332の遠位部は、光ファイバーをエンドエフェクタに固く接続する、及び形状内に特定の湾曲を導入するプラスチックケースに埋め込まれている。
例えば、図16A及び図16Bは、図16C及び図16Dに示されるようにマニピュレーター231の超音波トランスデューサー232に固く装着されたプラスチックケーシング350に埋め込まれた光学的形状検出ファイバー332の遠位端332dを示す。プラスチックケーシング350は、形状における特定の湾曲を補強し、したがって、本開示の技術分野において知られているテンプレートマッチングアルゴリズムを使用したエンドエフェクタポーズの推定を可能にする(例えば、各軸におけるアルファ及びベータを伴う図17に示されるデータ獲得シーケンス370は、図15に示されるTEEハンドル132におけるノブ位置に対応する)。
図16を再度参照すると、概して、このパターンを検出することにより、当技術分野において知られた方法を使用してエンドエフェクタのポーズT∈SE(3)を推定し得る。ロボット制御装置100は、腱を引く、又は緩めることを担う作動させられるノブを制御するロボットに運動指示を送信する。腱の状態を変えることにより、エンドエフェクタの位置は、図3D及び図3Eに示されるように変えられる。データストレージ制御装置190は、形状検出及びロボット制御装置から、それぞれ、光ファイバーの形状h∈(p…p)、エンドエフェクタのポーズT、及び運動指示、すなわち関節位置qを受信する。データは、ストレージデバイスに3要素タプルとして記憶され、本開示の深層畳み込みニューラルネットワークの訓練のために後で使用される。
更には特に、形状検出されるガイドワイヤ332は、当技術分野において知られた光学的形状検出(OSS)技術を使用する連続体ロボットに組み込まれ、又は装着される。OSSは、手術介入中におけるデバイスの位置特定及びナビゲーションのためにマルチコア光ファイバーに沿った光を使用する。関与する原理は、特徴的なレイリー後方散乱又は制御された回折格子パターンを使用した、光ファイバーにおける分布ゆがみ測定を使用する。
形状検出制御装置103は、形状検出されるガイドワイヤ322の形状を獲得し、本明細書において既に説明されているようにガイドワイヤにおける特定の湾曲を強制するプラスチックケーシング350に固く装着されたエンドエフェクタのポーズT∈SE(3)を推定するように構成されている。ポーズTを推定する方法は、適切に規定された湾曲及び本開示の技術分野において知られているテンプレートマッチングアルゴリズムに基づく。
データ獲得制御装置191は、既定の獲得パターン(例えば、螺旋、ラジアル、又は四角形運動など)に従ってモーター指示のシーケンスを生成するように、及び、ロボット制御装置100に移動コマンドを送信するように構成されている。
ロボット制御装置100は、ロボット位置を受信するように、及びロボットに動き信号を送信するように構成されている。モーター駆動式ノブを使用することにより、ロボットが腱を引き/緩め、このことが、エンドエフェクタの運動をもたらす。ロボット制御装置は、データ獲得制御装置191からの情報を受信するように、及び解釈するように、及び、データ獲得制御装置191からの情報に基づいてロボット位置を変えるように更に構成されている。
データストレージ制御装置190は、ロボット制御装置100と形状検出制御装置103との両方からの情報を受信するように、及び解釈するように、及び、次の仕様により規定された形式によるデータ記憶媒体(図示されていない)にデータを保存するように構成されている。
第1の仕様は、データ獲得制御装置191により既定されたすべての構成に対する訓練データ集合Dを獲得するためのものである。データ集合Dは、n個のシーケンスWの集合、すなわち、D={W,W,…,W}からなり、各シーケンスWはi個のデータ点d、すなわち、W={d,d,…,d}からなり、シーケンスからの各データ点dは、3要素タプル、すなわちd=(T,H,Q)により規定される。
3要素タプルは、エンドエフェクタポーズT∈SE(3)、k個の連続した形状のシーケンス、例えばH∈(h、ht+1…ht+k)であって、h∈(p…p)が3Dユークリッド空間における形状検出されるガイドワイヤの位置と、例えばひずみ、湾曲、及びねじれといった補助形状パラメータとの両方を説明するm個のベクトルpの集合、k個の連続した形状のシーケンスと、tから始まりt+jまでの時点において獲得されたj個の連続した関節変数のシーケンスQ∈(q、qt+1…qt+j)とからなる。例えば、要素qは、時点tにおいて獲得された制御ノブにおける角度α、βであり得る。
図19を参照すると、本開示の訓練データ収集方法360は、図15の訓練データ収集システムにより実行される。
図15と図19との両方を参照すると、方法360のステージS362は、ロボットが例えば制限スイッチ又は接近センサーを使用してロボット制御装置100によりホームポジションに動かされることを有する。形状検出されるガイドワイヤ232の遠位部は、プラスチックケーシング350に提供されるへこみ353に挿入される。このへこみ353は形状における特定の湾曲を強制する。
ケーシング350は、連続体様ロボットのエンドエフェクタに固く装着される。
方法360のステージS364中に本開示の技術分野において知られているテンプレートマッチングアルゴリズムを使用することにより、形状検出制御装置103がこの段階でエンドエフェクタのポーズT∈SE(3)を推定し得る。好ましくは、エンドエフェクタの座標系はテンプレートにより規定されるが、更なる校正行列が使用され得る。ロボットシステムがホームポジションにおいて静止しているとき、エンドエフェクタのポーズがOSS座標系において獲得される。実験中に獲得される後続のポーズの各々がこの初期位置に対して推定される。
データ獲得制御装置191は、既定の獲得パターン(例えば図18のパターン370)に従って、運動シーケンス、すなわち関節変数集合を生成する。運動シーケンスは、データ獲得制御装置191により、生成された関節変数に従ってロボットを動かすロボット制御装置100に繰り返し送信される。
方法300のステージS366は、各時点における、データストレージ制御装置190によるデータタプルd=(T,H,Q)の獲得及び記憶を含む。重要なことは、H及びQは連続しているので、すべての以前の時点がデータストレージ制御装置190によりメモリに維持される。
本開示の様々な発明のより深い理解を促進するために、図19の以下の説明は、本開示の連続配置制御装置の例示的な実施形態を教示する。本説明から、当業者は、本開示の連続配置制御装置の更なる実施形態を製造する、及び使用するために本開示の様々な態様をどのように適用するかを理解する。
図19を参照すると、連続配置制御装置400は、1つ又は複数のシステムバス406を介して相互接続された1つ又は複数のプロセッサ401、メモリ402、ユーザーインターフェース403、ネットワークインターフェース404、及びストレージ405を含む。
各プロセッサ401は、メモリ402又はストレージに記憶された命令を実行すること、又はデータを別様に処理することが可能な本開示の技術分野において知られている、又は以下で検討されている任意のハードウェアデバイスであってもよい。非限定的な例において、プロセッサ401は、マイクロプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、又は他の同様のデバイスを包含する。
メモリ402は、L1、L2、又はL3キャッシュ又はシステムメモリが挙げられるがこれらに限定されない本開示の技術分野において知られている、又は以下で検討されている様々なメモリ、例えば非一時的及び/又はスタティックメモリを包含する。非限定的な例において、メモリ402は、スタティックランダムアクセスメモリ(SRAM)、ダイナミックRAM(DRAM)、フラッシュメモリ、読み出し専用メモリ(ROM)、又は他の同様のメモリデバイスを包含する。
ユーザーインターフェース403は、管理者などのユーザーとの通信を可能にするための、本開示の技術分野において知られている、又は、以下で検討されている1つ又は複数のデバイスを包含する。非限定的な例において、ユーザーインターフェースは、ネットワークインターフェース404を介して遠隔端末に提示されるコマンドラインインターフェース又はグラフィカルユーザーインターフェースを包含する。
ネットワークインターフェース404は、他のハードウェアデバイスとの通信を可能にするための本開示の技術分野において知られている、又は、以下で検討されている1つ又は複数のデバイスを含む。非限定的な例において、ネットワークインターフェース404は、Ethernetプロトコルに従って通信するように構成されたネットワークインターフェースカード(NIC)を含む。更に、ネットワークインターフェース404は、TCP/IPプロトコルに従った通信のためのTCP/IPスタックを実現してもよい。ネットワークインターフェース404のための様々な代替的な、又は追加的なハードウェア又は構成が明らかとなる。
ストレージ405は、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、又は同様の記憶媒体を包含するがこれらに限定されない本開示の技術分野において知られている、又は、以下で検討されている1つ又は複数の機械可読記憶媒体を包含する。様々な非限定的な実施形態において、ストレージ405は、プロセッサ401による実行のための命令、又はプロセッサ401が演算対象とするデータを記憶する。例えば、ストレージ405は、ハードウェアの様々な基本動作を制御するための基本オペレーティングシステムを記憶する。ストレージ405は、本開示において既に説明されている順予測モデル60、逆予測モデル70、及びイメージング予測モデル80を包含するがこれらに限定されない、本開示において既に説明されている、制御装置400aの様々な機能を実現するための実行可能ソフトウェア/ファームウェアの形態をとるアプリケーションモジュールを更に記憶する。
実際には、制御装置400は、X線イメージングシステム500、介入システム501(例えば介入ロボットシステム)、又はX線イメージング500システム及び/又は介入システム501と通信する独立型ワークステーション502(例えば、クライアントワークステーション又はモバイルデバイス、例えばタブレット)にインストールされてもよい。代替的に、制御装置400のコンポーネントは、X線イメージングシステム500、介入システム501、及び/又は独立型ワークステーション502の間で分散されてもよい。
更に実際には、形状検出制御装置、データストレージ制御装置、及びデータ獲得制御装置を含む本開示の更なる制御装置は、各々が、図19において構成されている1つ又は複数のシステムバスを介して相互接続された、1つ又は複数のプロセッサ、メモリ、ユーザーインターフェース、ネットワークインターフェース、及びストレージを更に含んでもよく、この場合において、ストレージは、本明細書において既に説明されているように、その制御装置の適用可能なアプリケーションモジュールを含む。代替的に、本開示の2つ以上の制御装置は、1つの制御装置として統合されてもよく、ここで、ストレージは、本明細書において既に説明されている2つ以上の制御装置の適用可能なアプリケーションモジュールを含む。
図1~図19を参照すると、本開示の当業者は本開示の多くの利点を理解する。
更に、当業者は、本明細書において提供される教示を考慮して、本開示/明細書において説明されている、及び/又は図に示されている構造物、要素、コンポーネントなどが、ハードウェアとソフトウェアとの様々な組み合わせにより実現されてもよいこと、及び、1つの要素又は複数の要素に組み合わされる機能を提供してもよいことを理解する。例えば、図に示されている/例示されている/描かれている様々な構造物、要素、コンポーネントなどの機能は、専用ハードウェア、及び、追加された機能のための適切なソフトウェアと連携してソフトウェアを実行することが可能なハードウェアの使用を通して提供され得る。プロセッサにより提供される場合、機能が1つの専用プロセッサにより、1つの共用プロセッサにより、又は、複数の個々のプロセッサにより提供されてもよく、そのうちの幾つかがシェアされてもよく、及び/又は多重化されてもよい。更に、「プロセッサ」又は「制御装置」という用語の明示的な使用は、ソフトウェアを実行することが可能なハードウェアを排他的に表すように解釈されてはならず、デジタル信号プロセッサ(「DSP」)ハードウェア、メモリ(例えば、ソフトウェアを記憶するための読み出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、不揮発性ストレージなど)、及び、処理を実施及び/又は制御することが可能な(及び/又は、するように構成可能な)(ハードウェア、ソフトウェア、ファームウェア、それらの組み合わせなどを包含する)実質的に任意の手段及び/又は機械を暗示的に包含するがこれらに限定されない。
更に、本発明の原理、態様、及び実施形態及びそれらの特定の例について記載した本明細書におけるすべての記述は、それらの構造的に同等なものと機能的に同等なものとの両方を包含することを意図したものである。更に、このような同等なものは、(例えば、構造にかかわらず同じ又は実質的に同様の機能を実施し得る開発される任意の要素といった)現在知られている同等なものと将来的に開発される同等なものとの両方を包含することを意図したものである。したがって、例えば、本明細書において提示される任意のブロック図が本発明の原理を具現化する例示的なシステムコンポーネント及び/又は回路の概念的な図を表し得ることが本明細書において提供される教示を考慮して当業者により理解される。同様に、任意のフローチャート、フロー図などが、コンピュータ可読記憶媒体において実質的に表され得る、及びコンピュータ、プロセッサ、又は処理能力をもつ他のデバイスにより、このようなコンピュータ又はプロセッサが明示的に示されるか否かにかかわらず、相応に実行される様々な工程を表し得ることを、当業者が本明細書において提供される教示を考慮して理解する。
本開示の様々な発明及び多くの発明の好ましい、及び例示的な実施形態(本実施形態は例示的であって限定ではないことを意図したものである)を説明してきたが、図面を含む本明細書において提供される教示に基づいて当業者により変更及び変形がなされ得ることに留意されたい。したがって、本開示の好ましい、及び例示的な実施形態において/対して変更が行われてもよく、本変更が本明細書において開示されている実施形態の範囲内であることが理解される。
更に、デバイス/システムを組み込んだ、及び/又は実現した対応する、及び/又は関連するシステム又は、本開示によるデバイスにおいて/とともに使用/実現されるものも本開示の範囲に入ると想定され、及び考えられることが想定される。更に、本開示によるデバイス及び/又はシステムを製造する、及び/又は使用するための対応する、及び/又は関連する方法も本開示の範囲に入ると想定され、本開示の範囲に入ると考えられる。

Claims (14)

  1. デバイス部分を含む介入デバイスのための配置制御装置であって、前記配置制御装置が、
    前記介入デバイスの指示された配置運動を受信するために、及び、前記デバイス部分のナビゲートされたポーズの予測に関連したデータを出力するために、介入デバイスの組み込まれた運動学を使用した順予測モデルと、
    前記介入デバイスの目標ポーズデータを受信するために、及び前記介入デバイスの配置運動の予測に関連したデータを出力するために、介入デバイスの運動学を使用した制御予測モデルと、
    のうちの少なくとも1つを含む、メモリと、
    前記メモリと通信する少なくとも1つのプロセッサであって、前記少なくとも1つのプロセッサが、
    (i)前記デバイス部分の予測されたナビゲートされたポーズをレンダリングするために、前記介入デバイスの指示された配置運動に前記順予測モデルを適用し、前記デバイス部分の前記予測されたナビゲートされたポーズに基づいて、目標ポーズへの前記デバイス部分の前記介入デバイスによる配置について情報提供する配置データを生成することと、
    (ii)前記介入デバイスの予測された配置運動をレンダリングするために、前記デバイス部分の前記目標ポーズに前記制御予測モデルを適用し、前記介入デバイスの前記予測された配置運動に基づいて、前記目標ポーズへの前記デバイス部分の前記介入デバイスの配置を制御する配置指示を生成することと、
    のうちの少なくとも1つを行う、少なくとも1つのプロセッサと、
    を備える、配置制御装置。
  2. イメージング予測モデルが、前記介入デバイスの順運動学に基づいて訓練されているか、訓練される、及び/又は、前記制御予測モデルが、前記介入デバイスの逆運動学に基づいて訓練されているか、訓練される逆予測モデルである、
    請求項1に記載の配置制御装置。
  3. 前記デバイス部分が、前記介入デバイスのエンドエフェクタである、
    請求項1に記載の配置制御装置。
  4. 前記配置制御装置が更に連続配置制御装置として考えられるように、前記配置データを連続的に、及び/又は前記配置指示を連続的に生成する、
    請求項1に記載の配置制御装置。
  5. 前記順予測モデルが、
    前記介入デバイスの前記指示された配置運動を表す介入ロボットの関節変数を入力する入力層と、前記介入ロボットの前記関節変数の回帰から導出された前記デバイス部分の並進移動、回転、及び旋回のうちの少なくとも1つを出力する出力層とを含むニューラルネットワークベースを含み、
    前記デバイス部分の前記並進移動、前記回転、及び前記旋回のうちの前記少なくとも1つが、前記デバイス部分の前記予測されたナビゲートされたポーズの推測を表す、
    請求項1又は請求項2に記載の配置制御装置。
  6. 前記制御予測モデルが、
    前記デバイス部分の並進移動、回転、及び旋回のうちの少なくとも1つを入力する入力層と、前記デバイス部分の前記並進移動、前記回転、及び前記旋回のうちの少なくとも1つの回帰から導出された介入ロボットの関節変数を出力する出力層とを含むニューラルネットワークベースを含み、
    前記介入ロボットの前記関節変数が、前記介入デバイスの前記予測された配置運動の推測を表す、
    請求項1又は請求項2に記載の配置制御装置。
  7. 前記順予測モデルが、
    前記介入デバイスの前記指示された配置運動を表す前記介入デバイスの関節速度を入力する入力層と、前記介入デバイスの前記関節速度の回帰からの前記デバイス部分の線速度及び角速度のうちの少なくとも1つを出力する出力層とを含むニューラルネットワークベースを含み、
    前記デバイス部分の線速度及び角速度のうちの少なくとも1つが、前記介入デバイスの前記予測されたナビゲートされたポーズの推測を表す、
    請求項1又は請求項2に記載の配置制御装置。
  8. 前記制御予測モデルが、
    前記目標ポーズへの前記デバイス部分の線速度及び角速度のうちの少なくとも1つを入力する入力層と、前記目標ポーズへの前記デバイス部分の線速度及び角速度のうちの少なくとも1つの回帰からの前記介入デバイスの関節速度を出力する出力層とを含むニューラルネットワークベースを含み、
    前記介入デバイスの前記関節速度が、前記介入デバイスの前記予測された配置運動の推測を表す、
    請求項1又は請求項2に記載の配置制御装置。
  9. 前記順予測モデルが、
    前記介入デバイスの前記指示された配置運動を表す前記介入デバイスの形状の以前のシーケンスを入力する入力層と、前記介入デバイスの形状の前記以前のシーケンスの時系列予測から導出された前記介入デバイスの形状の後続のシーケンスを出力する出力層とを含むニューラルネットワークベースを含み、
    前記介入デバイスの形状の前記後続のシーケンスが、前記デバイス部分の前記予測されたナビゲートされたポーズの推測を表す、
    請求項1に記載の配置制御装置。
  10. 前記順予測モデルが、
    前記介入デバイスの前記指示された配置運動を表す前記介入デバイスの形状の以前のシーケンスを入力する入力層と、前記介入デバイスの形状の前記以前のシーケンスの時系列予測から導出された前記介入デバイスの後続の形状を出力する出力層とを含むニューラルネットワークベースを含み、
    前記介入デバイスの前記後続の形状が、前記デバイス部分の前記予測されたナビゲートされたポーズの推測を表す、
    請求項1又は請求項2に記載の配置制御装置。
  11. 前記順予測モデルが、前記デバイス部分のポーズを予測する前記介入デバイスの前記順運動学に対する補助的な前記介入デバイスの少なくとも1つのナビゲーションパラメータに基づいて更に訓練されることと、
    前記制御予測モデルが、前記介入デバイスの前記配置運動を予測する前記介入デバイスの前記逆運動学に対する補助的な前記介入デバイスの前記少なくとも1つのナビゲーションパラメータに基づいて更に訓練されることと、
    のうちの少なくとも1つが成立し、
    前記少なくとも1つのプロセッサが、
    (i’)前記デバイス部分の前記予測されたナビゲートされたポーズをレンダリングするために、前記介入デバイスの前記指示された配置運動と、前記介入デバイスの前記順運動学に対する補助的な前記少なくとも1つのナビゲーションパラメータとの両方に前記順予測モデルを適用することと、
    (ii’)前記介入デバイスの前記予測された配置運動をレンダリングするために、前記デバイス部分の前記目標ポーズと、前記介入デバイスの前記逆運動学に対する補助的な前記少なくとも1つのナビゲーションパラメータとの両方に前記制御予測モデルを適用することと、
    のうちの少なくとも1つを行う、
    請求項2に記載の配置制御装置。
  12. 前記順予測モデルが、前記介入デバイスの少なくとも1つの補助的なナビゲーションパラメータを更に受信し、及び、前記デバイス部分の前記ナビゲートされたポーズの予測を出力するために、前記少なくとも1つの補助的なナビゲーションパラメータを更に処理することと、
    前記制御予測モデルが、前記介入デバイスの少なくとも1つの補助的なナビゲーションパラメータを更に受信し、及び、前記介入デバイスの前記配置運動の予測を出力するために、前記少なくとも1つの補助的なナビゲーションパラメータを更に処理することと、
    のうちの少なくとも1つが成立し、
    前記少なくとも1つのプロセッサが、
    (i’)前記デバイス部分の前記予測されたナビゲートされたポーズをレンダリングするために、前記介入デバイスの前記指示された配置運動と、少なくとも1つの補助的なナビゲーションパラメータとの両方に前記順予測モデルを適用することと、
    (ii’)前記介入デバイスの前記予測された配置運動をレンダリングするために、前記デバイス部分の前記目標ポーズと、少なくとも1つの補助的なナビゲーションパラメータとの両方に前記制御予測モデルを適用することと、
    のうちの少なくとも1つを行う、
    請求項1に記載の配置制御装置。
  13. デバイス部分を含む介入デバイスに命令する少なくとも1つのプロセッサによる実行のための命令を含んで符号化された機械可読記憶媒体であって、前記機械可読記憶媒体が、
    前記介入デバイスの指示された配置運動を受信するために、及び前記デバイス部分のナビゲートされたポーズの予測に関連したデータを出力するために、介入デバイスの運動学を使用した順予測モデルと、
    前記介入デバイスの目標ポーズデータを受信するために、及び前記介入デバイスの配置運動の予測に関連したデータを出力するために、介入デバイスの運動学を使用した制御予測モデルと、
    のうちの少なくとも1つと、
    (i)前記デバイス部分の予測されたナビゲートされたポーズをレンダリングするために、前記介入デバイスの指示された配置運動に前記順予測モデルを適用して、前記デバイス部分の前記予測されたナビゲートされたポーズに基づいて、目標ポーズへの前記デバイス部分の前記介入デバイスによる配置について情報提供する配置データを生成することと、
    (ii)前記介入デバイスの予測された配置運動をレンダリングするために、前記デバイス部分の前記目標ポーズに前記制御予測モデルを適用して、前記介入デバイスの前記予測された配置運動に基づいて、前記目標ポーズへの前記デバイス部分の前記介入デバイスの配置を制御する配置指示を生成することと、
    のうちの少なくとも1つを行うための命令と、
    を記憶した、機械可読記憶媒体。
  14. デバイス部分を含む介入デバイスのための配置制御装置により実行可能な配置方法であって、
    前記配置制御装置が、
    前記介入デバイスの指示された配置運動を受信するために、及び前記デバイス部分のナビゲートされたポーズの予測に関連したデータを出力するために、介入デバイスの組み込まれた運動学を使用した順予測モデルと、
    前記介入デバイスの目標ポーズデータを受信するために、及び前記介入デバイスの配置運動の予測に関連したデータを出力するために、介入デバイスの運動学を使用した制御予測モデルと、
    のうちの少なくとも1つを記憶し、
    前記配置方法は、
    前記配置制御装置が、
    (i)前記デバイス部分の予測されたナビゲートされたポーズをレンダリングするために、前記介入デバイスの指示された配置運動に前記順予測モデルを適用して、前記デバイス部分の前記予測されたナビゲートされたポーズに基づいて、目標ポーズへの前記デバイス部分の前記介入デバイスによる配置について情報提供する配置データを生成するステップと、
    (ii)前記介入デバイスの予測された配置運動をレンダリングするために、前記デバイス部分の前記目標ポーズに前記制御予測モデルを適用して、前記介入デバイスの前記予測された配置運動に基づいて、前記目標ポーズへの前記デバイス部分の前記介入デバイスの配置を制御する配置指示を生成するステップと、
    のうちの少なくとも1つを実行するステップを有する、
    配置方法。
JP2021549791A 2019-02-28 2020-02-21 エンドエフェクタのフィードフォワード連続配置制御 Pending JP2022521556A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962811705P 2019-02-28 2019-02-28
US62/811,705 2019-02-28
US201962825905P 2019-03-29 2019-03-29
US201962825914P 2019-03-29 2019-03-29
US62/825,905 2019-03-29
US62/825,914 2019-03-29
PCT/EP2020/054577 WO2020173816A1 (en) 2019-02-28 2020-02-21 Feedforward continuous positioning control of end-effectors

Publications (2)

Publication Number Publication Date
JP2022521556A true JP2022521556A (ja) 2022-04-08
JPWO2020173816A5 JPWO2020173816A5 (ja) 2023-03-02

Family

ID=69645996

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021549791A Pending JP2022521556A (ja) 2019-02-28 2020-02-21 エンドエフェクタのフィードフォワード連続配置制御
JP2021549792A Pending JP2022551778A (ja) 2019-02-28 2020-02-21 機械学習モデルのための訓練データ収集

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021549792A Pending JP2022551778A (ja) 2019-02-28 2020-02-21 機械学習モデルのための訓練データ収集

Country Status (5)

Country Link
US (3) US20220125524A1 (ja)
EP (3) EP3930614A1 (ja)
JP (2) JP2022521556A (ja)
CN (3) CN113490465A (ja)
WO (3) WO2020173816A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220026879A1 (en) * 2020-07-22 2022-01-27 Micron Technology, Inc. Predictive maintenance of components used in machine automation
JP2023554038A (ja) * 2020-12-16 2023-12-26 コーニンクレッカ フィリップス エヌ ヴェ 可撓性デバイスのための予測動作マッピング
EP4016455A1 (en) * 2020-12-16 2022-06-22 Koninklijke Philips N.V. Predictive motion mapping for flexible devices
DE102021102867A1 (de) * 2021-02-08 2022-08-11 Deutsches Zentrum für Luft- und Raumfahrt e.V. Robotersystem sowie Verfahren zum automatisierten Durchführen von serologischen Tests
JP2024515068A (ja) * 2021-04-12 2024-04-04 コーニンクレッカ フィリップス エヌ ヴェ 介入装置のナビゲート
CN113910218B (zh) * 2021-05-12 2024-02-06 华中科技大学 一种基于运动学与深度神经网络融合的机器人标定方法和装置
WO2023280732A1 (en) * 2021-07-08 2023-01-12 Koninklijke Philips N.V. System and device control using shape clustering
EP4154810A1 (en) * 2021-09-28 2023-03-29 Koninklijke Philips N.V. System and device control using shape clustering
CN113712671B (zh) * 2021-11-02 2022-02-08 极限人工智能(北京)有限公司 末端执行器的自动啮合方法、装置、存储介质及电子设备
WO2023110598A1 (en) * 2021-12-16 2023-06-22 Koninklijke Philips N.V. System and method for estimating and visualizing trajectories of robotically controlled interventional device
EP4197476A1 (en) * 2021-12-16 2023-06-21 Koninklijke Philips N.V. System and method for estimating and visualizing trajectories of robotically controlled interventional device
CN114714349B (zh) * 2022-03-23 2024-04-16 武汉库柏特科技有限公司 一种遥操作超声扫描机器人姿态测试方法、装置及设备
WO2024088836A1 (en) * 2022-10-24 2024-05-02 Koninklijke Philips N.V. Systems and methods for time to target estimation from image characteristics
CN115844545B (zh) * 2023-02-27 2023-05-23 潍坊医学院附属医院 一种血管介入智能手术机器人及控制方法
CN116187399B (zh) * 2023-05-04 2023-06-23 北京麟卓信息科技有限公司 一种基于异构芯片的深度学习模型计算误差定位方法
CN117601122B (zh) * 2023-11-23 2024-04-30 哈尔滨工业大学 一种气动人工肌肉位置跟踪控制系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011123669A1 (en) * 2010-03-31 2011-10-06 St. Jude Medical, Atrial Fibrillation Division, Inc. Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems
US20140046128A1 (en) * 2012-08-07 2014-02-13 Samsung Electronics Co., Ltd. Surgical robot system and control method thereof
JP2014180751A (ja) * 2013-03-15 2014-09-29 Samsung Electronics Co Ltd ロボット及びその制御方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06314103A (ja) * 1993-04-30 1994-11-08 Fujitsu Ltd 制御装置と能動的センシング装置
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
WO2010046802A1 (en) * 2008-10-20 2010-04-29 Koninklijke Philips Electronics, N.V. Image-based localization method and system
JP5306313B2 (ja) * 2010-12-20 2013-10-02 株式会社東芝 ロボット制御装置
US20130211244A1 (en) * 2012-01-25 2013-08-15 Surgix Ltd. Methods, Devices, Systems, Circuits and Associated Computer Executable Code for Detecting and Predicting the Position, Orientation and Trajectory of Surgical Tools
CN104244830B (zh) * 2012-03-29 2017-11-14 皇家飞利浦有限公司 使用形状感测的伪影去除
US9326823B2 (en) * 2012-05-02 2016-05-03 University Of Maryland, College Park Real-time tracking and navigation system and method for minimally invasive surgical procedures
US9827054B2 (en) * 2014-03-14 2017-11-28 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
US20170265946A1 (en) * 2013-12-17 2017-09-21 Koninklijke Philips N.V. Shape sensed robotic ultrasound for minimally invasive interventions
EP2901957A1 (en) * 2014-01-31 2015-08-05 Universität Basel Controlling a surgical intervention to a bone
WO2015128761A2 (en) * 2014-02-28 2015-09-03 Koninklijke Philips N.V. Adaptive instrument kinematic model optimization for optical shape sensed instruments
JP6854237B2 (ja) * 2014-03-28 2021-04-07 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 視野内の器具の定量的三次元視覚化
CN105100682B (zh) * 2014-04-30 2018-12-25 通用电气公司 具有导航功能的管道镜
KR20150128049A (ko) * 2014-05-08 2015-11-18 삼성전자주식회사 수술 로봇 및 그 제어방법
WO2016164311A1 (en) * 2015-04-06 2016-10-13 Intuitive Surgical Operations, Inc. Systems and methods of registration compensation in image guided surgery
KR20160138780A (ko) * 2015-05-26 2016-12-06 현대중공업 주식회사 바늘 가이드형 중재시술 로봇시스템
JP6586243B2 (ja) * 2016-03-03 2019-10-02 グーグル エルエルシー ロボットの把持のための深層機械学習方法および装置
KR101980603B1 (ko) * 2016-05-20 2019-05-22 구글 엘엘씨 오브젝트(들)를 캡처하는 이미지(들)에 기초하는 그리고 환경에서의 미래 로봇 움직임에 대한 파라미터(들)에 기초하여 로봇 환경에서의 오브젝트(들)의 모션(들)을 예측하는 것과 관련된 머신 학습 방법들 및 장치
US10695134B2 (en) * 2016-08-25 2020-06-30 Verily Life Sciences Llc Motion execution of a robotic system
US11810318B2 (en) * 2016-09-09 2023-11-07 Intel Corporation Training and deploying pose regressions in neural networks in autonomous machines
US9931025B1 (en) * 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10251709B2 (en) * 2017-03-05 2019-04-09 Samuel Cho Architecture, system, and method for developing and robotically performing a medical procedure activity

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011123669A1 (en) * 2010-03-31 2011-10-06 St. Jude Medical, Atrial Fibrillation Division, Inc. Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems
US20140046128A1 (en) * 2012-08-07 2014-02-13 Samsung Electronics Co., Ltd. Surgical robot system and control method thereof
JP2014180751A (ja) * 2013-03-15 2014-09-29 Samsung Electronics Co Ltd ロボット及びその制御方法

Also Published As

Publication number Publication date
JP2022523933A (ja) 2022-04-27
JP2022551778A (ja) 2022-12-14
EP3930617A1 (en) 2022-01-05
WO2020173816A1 (en) 2020-09-03
CN113490464A (zh) 2021-10-08
CN113490465A (zh) 2021-10-08
CN113507899A (zh) 2021-10-15
EP3930615A1 (en) 2022-01-05
US20220125530A1 (en) 2022-04-28
EP3930614A1 (en) 2022-01-05
US20220125524A1 (en) 2022-04-28
US20220142712A1 (en) 2022-05-12
WO2020173815A1 (en) 2020-09-03
WO2020173814A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP2022521556A (ja) エンドエフェクタのフィードフォワード連続配置制御
US11696746B2 (en) Ultrasound imaging system having automatic image presentation
JP7293265B2 (ja) 管状網のナビゲーション
JP7304873B2 (ja) ニューラルネットワークの訓練のための超音波撮像データセットの取得及び関連するデバイス、システム、及び方法
JP7277967B2 (ja) 超音波画像データの三次元撮像およびモデリング
US8041413B2 (en) Systems and methods for three-dimensional ultrasound mapping
US20090088634A1 (en) Tool tracking systems and methods for image guided surgery
JP7407725B2 (ja) ニューラルネットワークのための超音波撮像平面整列ガイダンス並びに関連するデバイス、システム、及び方法
JP7401447B2 (ja) ニューラルネットワークを使用した超音波撮像平面整列並びに関連するデバイス、システム、及び方法
US20210290310A1 (en) Hybrid-dimensional, augmented reality, and/or registration of user interface and simulation systems for robotic catheters and other uses
WO2021257897A1 (en) Axial insertion and movement along a partially constrained path for robotic catheters and other uses
JP7493528B2 (ja) エンドエフェクタのフィードバック連続配置制御
WO2023053333A1 (ja) 処理システム及び情報処理方法
US20220409292A1 (en) Systems and methods for guiding an ultrasound probe
Hashemi 3D Shape Estimation Of Tendon-Driven Catheters Using Ultrasound Imaging
WO2023037367A1 (en) Self-steering endoluminal device using a dynamic deformable luminal map

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240408