JP2024518390A - 多分岐チャネル内で管状コンポーネントをナビゲートするための方法、機器及び記憶媒体 - Google Patents
多分岐チャネル内で管状コンポーネントをナビゲートするための方法、機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2024518390A JP2024518390A JP2023568067A JP2023568067A JP2024518390A JP 2024518390 A JP2024518390 A JP 2024518390A JP 2023568067 A JP2023568067 A JP 2023568067A JP 2023568067 A JP2023568067 A JP 2023568067A JP 2024518390 A JP2024518390 A JP 2024518390A
- Authority
- JP
- Japan
- Prior art keywords
- tubular component
- channel
- head
- branch channel
- navigating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000004044 response Effects 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000241 respiratory effect Effects 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 23
- 230000004807 localization Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 230000003902 lesion Effects 0.000 description 6
- 238000013276 bronchoscopy Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000005452 bending Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000003484 anatomy Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 210000000436 anus Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 230000017311 musculoskeletal movement, spinal reflex action Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 210000002345 respiratory system Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
- A61B1/00094—Suction openings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/267—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
- A61B1/2676—Bronchoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Pulmonology (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Otolaryngology (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
Abstract
多分岐チャネル(1)内で管状コンポーネント(2)をナビゲートするための方法、機器及び記憶媒体が提供される。この方法は、多分岐チャネル(1)の3次元モデル(1a)取得するステップと、3次元モデル(1a)に従って多分岐チャネル(1)内の管状コンポーネント(2)のナビゲーション情報を計画するステップと、前進/後退信号の入力に応じて、ナビゲーション情報に従って、管状コンポーネント(2)を移動させるように駆動するステップと、を含む。機器は、多分岐チャネル(1)の3次元モデル(1a)を取得するように構成されたスキャナー(51)と、3次元モデル(1a)に従って、多分岐チャネル(1)内の管状コンポーネント(2)のナビゲーション情報を計画するように構成された計画装置(52)と、前進/後退信号の入力に応じて、ナビゲーション情報に従って、管状コンポーネント(2)を移動させるように駆動するように構成された管状コンポーネント供給装置(53)と、を備える。この機器は、操作の困難さを軽減することができるので、オペレーターは、より重要な処置に集中することができる。操作中により高い安全性と信頼性の向上が期待できる。
Description
本願は、パイプ内のナビゲーションの技術分野に関し、より具体的には、多分岐チャネル内の管状コンポーネントをナビゲートするための方法、機器及び記憶媒体に関する。
パイプ検査では通常、先端にカメラが組み込まれた柔軟な管状コンポーネントを挿入する必要がある。内視鏡検査などの同様の医療用途では、柔軟で細い内視鏡が自然の開口部(口、鼻、肛門など)から患者の体内に挿入され、内部の状況を検査したり治療を行ったりする。内視鏡のナビゲーションは介入を成功させるために非常に重要であるが、特に気管支鏡検査では挑戦的なタスクでもある。
ヒト呼吸樹は20世代を超える複雑な分岐構造を持っている。気管支鏡を目標位置に向けるために、医師はカメラからの画像フィードバックを注意深く観察し、解剖学の知識と術前のCTスキャンの記憶を頼りにスコープのロケーションを頭の中で追跡する必要がある。気管支鏡が末梢領域に近づくにつれて、それはますます困難になる。さらに、医師は少なくとも3つの自由度で気管支鏡を操作する必要がある。これはオペレーターの精神的負担を増大させるだけでなく、オペレーターの操作技術に対する要求も高くなる。経験豊富な医師でもおそらく間違いを犯し、正しい気道分岐に入るために何度も試行しなければならない可能性があり、介入が長引いて歩留まりが低下する。さらに、ナビゲーションの負担により、医師はパスに沿った気管支鏡画像に十分な注意を払わず、疾患のある組織を見落とす可能性がある。
人工知能と手術ロボットの発展に伴い、自動ナビゲーション技術が上記の問題を解決すると期待されている。本特許は、オペレーターがスコープの前後の動きを制御するだけで済み、手術ロボットがスコープの位置を特定し、事前定義又は一時的に決定されたパスに従ってスコープの向きを自動的に調整できる半自動ナビゲーションフレームワークを提案している。提案技術は完全自動ナビゲーションと比較して以下のような利点がある。まず、医師はいつでも停止できるため、ナビゲーションアルゴリズムに問題が発生した場合でもより安全である。第2に、シームレスな手動中断により、パスに沿った関心のある組織をさらに検査したり、新しい目標へのパスを変更したりすることができる。
前述の技術的問題を解決するために、又は少なくとも部分的に解決するために、本出願は、多分岐チャネル内で管状コンポーネントをナビゲートするための方法、機器及び記憶媒体を提案する。
ナビゲーション方法は、多分岐チャネルの3次元モデルを取得するステップと、前記3次元モデルに従って前記多分岐チャネル内の前記管状コンポーネントのナビゲーション情報を計画するステップと、前進/後退信号の入力に応じて、前記ナビゲーション情報に従って、前記管状コンポーネントを移動させるように駆動するステップと、を含む。
ナビゲーション機器は、多分岐チャネルの3次元モデルを取得するように構成されたスキャナーと、前記3次元モデルに従って前記多分岐チャネル内の前記管状コンポーネントのナビゲーション情報を計画するように構成された計画装置と、前進/後退信号の入力に応じて、前記ナビゲーション情報に従って、前記管状コンポーネントを移動させるように駆動するように構成された管状コンポーネント供給装置と、を備える。
コンピュータ可読記憶媒体は、プロセッサによって実行されると、前述の方法のそれぞれのステップを実行することができるコンピュータプログラムを記憶している。
従来技術と比較して、本願の技術的解決策は、操作の困難さを大幅に軽減することができるので、医師はより重要な処置に集中することができ、操作中により高い安全性と信頼性の向上が期待できる。
本出願の実施形態をよりよく説明するために、関連する図面を以下に簡単に説明する。以下に説明する図面は、本出願の特定の実施形態を例示するためにのみ使用され、当業者は、これらの図面に基づいて、本明細書で言及されていない多くの他の技術的特徴及び接続を認識することができることを理解されたい。
多分岐チャネルの概略構造図である。
多分岐チャネル内で管状コンポーネントをナビゲートするための方法のフローチャートである。
管状コンポーネントのヘッドの前方の視野を取得する概略図である。
第1位置における第1視野内の管状コンポーネントのヘッドのショット写真の概略図である。
第2位置における第2視野内の管状コンポーネントのヘッドのショット写真の概略図である。
第3位置における第3視野内の管状コンポーネントのヘッドのショット写真の概略図である。
直接曲げる方法でヘッドの向きを修正したときの管状コンポーネントの概略断面図である。
最初に回転させ、次に曲げる方法でヘッドの向きを修正したときの管状コンポーネントの概略断面図である。
管状コンポーネントの位置の特定及び向きを制御する方法のフローチャートである。
多分岐チャネル内の管状コンポーネント用のナビゲーション機器の構造ブロック図である。
以下、図面を参照しながら本願を詳細に説明する。
図1~10を参照すると、本願は、多分岐チャネル内で管状コンポーネントをナビゲートするための方法を提案する。この方法は、多分岐チャネル1の3次元モデル1a取得するステップと、3次元モデル1aに従って多分岐チャネル1内の管状コンポーネント2のナビゲーション情報を計画するステップと、前進/後退信号の入力に応じて、ナビゲーション情報に従って、管状コンポーネント2を移動させるように駆動するステップと、を含む。
図1~10を参照すると、本願は、多分岐チャネル内で管状コンポーネントをナビゲートするための方法を提案する。この方法は、多分岐チャネル1の3次元モデル1a取得するステップと、3次元モデル1aに従って多分岐チャネル1内の管状コンポーネント2のナビゲーション情報を計画するステップと、前進/後退信号の入力に応じて、ナビゲーション情報に従って、管状コンポーネント2を移動させるように駆動するステップと、を含む。
これに対応して、本願は、多分岐チャネル内で管状コンポーネントをナビゲートするための機器5をさらに提案する。この機器5は、多分岐チャネル1の3次元モデル1aを取得するように構成されたスキャナー51と、3次元モデル1aに従って多分岐チャネル1内の管状コンポーネント2のナビゲーション情報を計画するように構成された計画装置52と、前進/後退信号の入力に応じて、ナビゲーション情報に従って、管状コンポーネント2を移動させるように駆動するように構成された管状コンポーネント供給装置53と、を備える。
管状コンポーネント2は、剛性パイプ又は可撓性ホースであってもよい。管状コンポーネント2が入るチャネルは、医療分野又は非医療分野のチャネルであってもよい。医療分野では、多分岐チャネル1は、人体の消化管、血管、呼吸路などのチャネルであってもよい。しかしながら、本出願は、多分岐チャネル1のそのような特定の応用シナリオに限定されない。ヒト気道は、その構造が複雑であるため、本明細書では、図1に示す例示的な例として、主に説明する。一実施形態では、多分岐チャネル1の3次元モデル1aの構築は、医用画像分割技術と組み合わせたCTやMRIなどのスキャン技術によって実現することができる。
さらに、医療分野における多分岐チャネル1は、例えば、医療訓練、教育、さらには検査にも適用可能なヒト呼吸樹のモデルとすることができる。検査又は治療のためにヒト気道のモデル内で管状コンポーネント2を操作することは、医師が経験を蓄積し、医療訓練から臨床外科に移行するのに役立ち得る。経験豊富な医師の場合、本願はスコアリング評価、作業競争などにも適用できる。
図2に示すように、本願の一実施形態は、ナビゲーション情報を計画するためにスキャン結果によって確立された3次元モデル1aを使用して、管状コンポーネント2のヘッド2aの向きをコンピュータによって自動的に制御し、医師によって管状コンポーネント2の前進及び後退を手動で制御する。
ナビゲーション情報は、パス計画情報、姿勢情報、現在のロケーション情報、及び半自動運動において管状コンポーネントを支援するために適用される他の情報を含み得る。その中で、パス計画情報は、現在位置と目標位置に基づいて事前又はリアルタイムに計画することによって取得できる。姿勢情報はセンサーによる検出によって取得することも、運動学モデルと組み合わせてモーターの回転数から計算することもできる。ロケーション情報は、内視鏡画像などの様々な情報に基づいて位置特定モジュールによって計算することができる。姿勢情報は、管状コンポーネント2のヘッドエンドの動きが特定の位置で調整される際の並進速度、回転速度などをさらに含んでもよい。姿勢情報及びロケーション情報をより良く取得するために、複数の異なるセンサーを管状コンポーネント2の周囲に配置し、様々な位置に分散させて動きのフィードバックを提供することができる。例えば、光学センサーを用いて管状コンポーネント2の並進/回転速度や進行距離を非接触で測定することにより、管状コンポーネント2の動きに影響を与えることなく豊富な姿勢情報を取得することができる。
具体的には、ナビゲーション情報は、多分岐チャネル1に沿って目標位置に到達するためのナビゲーションパス3と、ナビゲーションパス3に沿って進行する間の、様々な位置での管状コンポーネント2のヘッド2aの配向パラメーターと、をさらに含む。
正確な気管支鏡の位置特定及び高度な制御アルゴリズムに基づいて、本願のロボットシステムは、管状コンポーネント2の最適な曲げ角度及び回転角度を決定し、管状コンポーネント2を開始点から目標位置まで最適に駆動することができる。たとえば、直線チャネルでは、管状コンポーネント2の各配向パラメーターは0であり、それぞれの配向パラメーターは二分岐チャネルに設定されるため、管状コンポーネント2の曲げ角度や回転角度を変化させる必要がある。
上記を考慮し、内視鏡の使用を例として図2をさらに参照すると、本願の一実施形態は、管状コンポーネントの半自動ナビゲーション方法の実際的な応用プロセスを提案する。
(1)ロボット気管支鏡は、計画されたパス情報に事前定義された3Dパスに従って患者の体内に挿入される。気管支鏡は、患者の内腔の実際の内視鏡画像を継続的に取得する。ここでは、内視鏡の種類によって2D又は立体画像を得ることができる。
(2)取得された実際の内視鏡画像を利用して、自身の位置の特定を実行することができる。一方、管状コンポーネントの運動学モデリングに姿勢情報及び現在のロケーション情報が提供される。
(3)気管支鏡を前進させる過程で、事前定義された3Dパス、姿勢情報、及び現在のロケーション情報と併せて、目標ルーメンの検出及び追跡を行うことができる。
(4)気管支鏡は、上記実際の内視鏡画像からのフィードバックに基づいて、向き制御のための画像ベースの視覚サーボを実行することができ、パス及び向きの変更が継続的に行われる。
(5)全プロセスにおいて、医師は前進及び後退の動きの指示を手動で入力するだけでよく、その他の操作の必要がない。
(1)ロボット気管支鏡は、計画されたパス情報に事前定義された3Dパスに従って患者の体内に挿入される。気管支鏡は、患者の内腔の実際の内視鏡画像を継続的に取得する。ここでは、内視鏡の種類によって2D又は立体画像を得ることができる。
(2)取得された実際の内視鏡画像を利用して、自身の位置の特定を実行することができる。一方、管状コンポーネントの運動学モデリングに姿勢情報及び現在のロケーション情報が提供される。
(3)気管支鏡を前進させる過程で、事前定義された3Dパス、姿勢情報、及び現在のロケーション情報と併せて、目標ルーメンの検出及び追跡を行うことができる。
(4)気管支鏡は、上記実際の内視鏡画像からのフィードバックに基づいて、向き制御のための画像ベースの視覚サーボを実行することができ、パス及び向きの変更が継続的に行われる。
(5)全プロセスにおいて、医師は前進及び後退の動きの指示を手動で入力するだけでよく、その他の操作の必要がない。
より具体的には、ステップ(1)では、医師は、スキャン結果に従って、3次元モデル1a内の特定の関心領域のロケーション、即ち目標位置を決定することができる。開始点(例えば、気道は通常、気管支鏡検査の開始点である)と目標位置を使用して、3次元モデル1a内でナビゲーション情報を計画することができる。管状コンポーネント2は、ナビゲーション情報に従って複数の自由度で自然に移動することができる。
実際の操作では、医師は簡単なボタン又はペダルを使用して管状コンポーネント2を前進させるか後退させるかを決定するだけでよい。当然のことながら、医師は、いつでも現在のナビゲーションタスクを中断して手動操作に切り替えたり、ナビゲーションパス3を手動で変更したりすることもできる。
一般に、本願は、管状コンポーネントのための半自動ナビゲーション方法を提案する。医師は、1つの自由度(前方/後方)のみを制御する必要があり、他の自由度はナビゲーション情報に従ってロボットシステムによって自律的に制御され、管状コンポーネントのナビゲーションを実現することができる。従来技術と比較して、管状コンポーネント2の移動ルートがナビゲーション情報に予め設定されているため、管状コンポーネント2のヘッド2aの向きは、ナビゲーション情報に従って自動的に調整され得る。ナビゲーションパス3が確認されていれば、医師は、医療目的を達成するために、管状コンポーネント2が確認されたナビゲーションパス3内で前進又は後退するか、又は停止するように操作するだけでよい。操作中、医師は、管状コンポーネント2の向きや角度の調整に余分な精神的負担を費やす必要がなく、病変のチェックや手術の実施などの医療操作により集中することができる。よって、本願は、操作の困難さ及び医師の身体的及び精神的負担を大幅に低減することができる。さらに、医師は操作中いつでも一時停止したり対象物を変更したりできるため、非常に便利である。
特に、患者のCTスキャン結果が複数の病変点を示す場合、3次元モデル1a内に複数の目標点をマークすることができる。この場合、計画されたナビゲーションパス3は、複数の目標点を有してもよい。例えば、複数の目標点が異なる分岐に位置する場合、医師は、術前検査中にナビゲーションパス3に従って管状コンポーネント2を操作し、第1分岐における第1病変点の検査を完了した後に管状コンポーネント2を主パスに戻し、次いで管状コンポーネント2を第二分岐に進入させて第2病変点を検査することができる。医師が経験に従って管状コンポーネント2を第2病変点まで直接ナビゲートする解決策と比較して、本発明は、ナビゲーションパス3を利用して実際の操作の精度を向上させることができ、多分岐チャネル1内で道に迷うことを防ぐことができる。低侵襲手術では、手術効率を向上させるために、最初の分岐での最初の病変点を除去した後に深部に移動し続けるなど、医師はいつでも操作中に新しい目標点を設定することもできる。当然のことながら、医師は特定の解剖学的構造を回避するために特別なロケーションをマークし、ナビゲーションパス3を変更することもできる。
剛性リンクを備えたロボットアームなどの従来のロボットとは異なり、可撓性内視鏡の姿勢とロケーションは作動装置によって完全には制御できない。実際、可撓性内視鏡は十分に作動していない。3つの自由度(DoF)しかないが、3D空間で移動するには6つのDoFが必要である。それ自体の姿勢を調整するために、人体解剖学的構造(例:気道壁)との接触に依存している。しかしながら、解剖学的空腔は気管支鏡検査の範囲よりも大きく、さらに動いたり変形したりする可能性がある。その結果、内視鏡は事前定義されたパスから簡単に逸脱する可能性があり、それに応じてそれ自体を操縦する必要がある。この目的を達成するために、本ナビゲーション方法は、多分岐チャネル1内の管状コンポーネント2の位置を決定するステップと、決定された位置に従って、位置特定情報と組み合わせて、管状コンポーネント2のヘッド2aの現在の向きを修正するステップとをさらに含む。
これに対応して、本願の管状コンポーネント供給装置は、位置特定装置53a及び修正装置53bをさらに含んでもよい。位置特定装置53aは、多分岐チャネル1内の管状コンポーネント2の位置を決定し、また、取得された管状コンポーネント2のヘッドの前方の視野に基づいて、視野内のチャネルを識別するように構成されている。修正装置53bは、決定された位置に従って、ナビゲーション情報と組み合わせて、管状コンポーネント2の現在のヘッドの向きを修正するために使用される。
操作の精度と信頼性は、多分岐チャネル1内の管状コンポーネント2の位置を決定することによって向上させることができる。異なる位置特定アルゴリズムは、術前3Dモデルに加えて、異なる術中情報を適用する場合がある。例えば、幾つかのアルゴリズムは、位置特定のために術前3Dモデルによってレンダリングされた仮想気管支鏡検査と一致する内視鏡のリアルタイム術中2D画像のみに依存する場合がある。しかしながら、そのようなアルゴリズムは堅固ではない可能性があるため、次のような他の種類の情報が導入される可能性がある。(1)光学センサーによって測定するか、モーターの回転状態と独自の運動学モデルに基づいて内視鏡ロボットによって計算することができる内視鏡の深度と回転角度を含む内視鏡の運動学情報;(2)内視鏡ヘッドに組み込まれた3次元的な位置特定用の電磁センサー。簡単に言うと、位置特定アルゴリズムに対する呼吸による気道の動きと変形の影響は、多次元で感知された情報を組み合わせることで除去でき、より堅固な位置特定が可能になる。
前述したように、可撓性管状コンポーネントは十分に作動していない。その動きは、周囲の環境との相互作用に依存する。従って、その運動学は通常のロボットアームのように完全には分析的又は予測可能ではない。この問題は、先のステップでの運動学モデルから予測された動きと現在のステップでの実際の動きとの間の誤差を測定し、それに応じて運動学モデリングを更新することによって、反復的な方法で解決することができる。この部分には様々なアルゴリズムを使用することができる。例えば、誤差を使用してヤコビアン列の重みの更新をガイドすると、誤差が大きいほど対応するヤコビアン列の変更が大きくなる。運動学を更新するこの方法は、制御精度を向上させるのに役立ち、さらに重要なことに、気道壁や他の組織への潜在的な損傷を回避することによって内視鏡の運動の安全性を確保するのに役立つ。
通常の状況下では、医師は、ナビゲーション情報に従って管状コンポーネント2を目標点まで正確に導くことができる。管状コンポーネント2をより良く操作するために、本ナビゲーション方法は、管状コンポーネント2のヘッド2aの前方の視野を取得するステップをさらに含んでもよい。これに対応して、管状コンポーネント供給装置は、管状コンポーネント2のヘッドの前方の視野を取得するように構成された視野取得装置53cをさらに備えてもよい。
具体的には、図3~6を参照すると、管状コンポーネント2は、ナビゲーションパス3に沿って目標チャネル1bに入り、第1位置3a、第2位置3b、及び第3位置3cを順次通過する。そのうち、管状コンポーネント2が第1位置3aを通過するときに第1視野4aを得ることができ(図4を参照)、管状コンポーネント2が第2位置3bを通過するときに第2視野4bを得ることができ(図5を参照)、管状コンポーネント2が第3位置3cを通過するときに第3視野4cを得ることができる(図6を参照)。
人体組織は可動である。呼吸中の肺の収縮及び拡張、ならびに器具の異物感による人体組織/器官の不随意運動に伴って、チャネル内の管状コンポーネント2の位置もわずかに移動する可能性がある。従って、図4及び5を参照すると、第1位置3a及び第2位置3bで管状コンポーネント2のヘッド2a上の視野取得装置53cによって撮影された画像は、目標チャネル1bの左上部分での二分岐チャネルを示す。図6を参照すると、第3位置3cで管状コンポーネント2のヘッド2aによって撮影された画像は、目標チャネル1bの右下部分での二分岐チャネルを示す。
管状コンポーネント2のナビゲーション精度をさらに向上させるために、本ナビゲーション方法は、管状コンポーネント2のヘッド2aの前方の視野を取得した後に、視野内のチャネルを識別するステップと、識別されたチャネルから目標チャネル1bを選択し、現在の管状コンポーネント2のヘッド2aの現在の向きを目標チャネル1bの中心に向けるように修正するステップとをさらに含んでもよい。
これに対応して、本管状コンポーネント供給装置において、修正装置53bは、識別されたチャネルから目標チャネルを選択し、管状コンポーネント2の現在のヘッドの向きを目標チャネルの中心に向けるように修正するように構成されてもよい。
視野取得装置53cが管状コンポーネント2のヘッド2aの前方の視野を取得した後、位置特定装置53aは、気道ナビゲーションにおける分岐を識別してナビゲーション精度を向上させるように、視野画像を分析することによって画像内の構造的特徴を得ることができる。修正装置53bは、画像識別により継続的に中心への向きを修正して運動過程を修正する。これにより、管状コンポーネント2が患者の内腔の内壁に接触することを防止することができ、それによって操作の安全性と信頼性が確保される。
オプションで、視野内のチャネルを識別するステップにおいて、識別されたチャネルが分岐を有する場合、ナビゲーションパス3によって計画された分岐チャネルは、目標チャネル1bとみなされ、自動ナビゲーションを実現し、医師の操作の困難さを軽減し、安全性を向上させる。
また、視野内のチャネルを識別するステップにおいて、識別されたチャネルが分岐を有しない場合、現在のチャネルは目標チャネル1bとみなされる。動作中常にパイプの中心に維持されるように、管状コンポーネント2は、管状コンポーネント2の動作精度が確保され、医師の操作の安全性と信頼性が向上するように、常に自己修正を行って人間の動きによって引き起こされる干渉を軽減又は排除する。カメラの視野の中心と管状コンポーネントのヘッドの中心が同じ位置にない場合があるため、両者の間の距離に応じてオフセット値を予め設定することができる。目標チャネルの中心と視野中心との距離をあらかじめ設定したオフセット値の範囲内にすることで、管状コンポーネントのヘッドと目標チャネルの中心は、管状コンポーネントの動きをより確実にするように、常に互いに一致することができる。
図3~6を参照すると、管状コンポーネント2は、ナビゲーションパス3に従って目標チャネル1bに入り、次に、第1位置3a、第2位置3b、及び第3位置3cを順次通過する。図4に示す例では、管状コンポーネント2は第1位置3aを通過し、第1視野4aが得られる。
図5を参照すると、管状コンポーネント2が移動して第2位置3bを通過すると、第2視野4bが得られる。位置特定装置53aによって識別されたチャネル内の分岐が示される。ナビゲーションパス3によって計画された分岐チャネルは、分岐の右側のものである。ナビゲーションパス3によって計画されたこの分岐チャネルは、ここでは、修正装置53bによって目標チャネル1bとして採用される。修正装置53bによる修正によって、管状コンポーネント2は分岐チャネルに向かって回転し始める。
図6を参照すると、管状コンポーネント2が移動して第3位置3cを通過すると、第3視野4cが得られる。後述するように、管状コンポーネント2がさらに進むにつれて、この分岐チャネルは視野の中心に位置が特定されるため、管状コンポーネント2はスムーズに分岐チャネルに入ることができる。
さらに、図7を参照すると、本願における管状コンポーネント2の現在のヘッドの向きを目標チャネル1bの中心に向けるように修正するステップは、目標チャネル16bの中心と視野の中心との間の距離が予め設定されたオフセット値の範囲内になるまで、管状コンポーネント2のヘッド2aを目標チャネル1bの中心に向かって曲げるように駆動するステップをさらに含んでもよい。一実施形態では、目標チャネル1bの中心と視野の中心は、互いに一致していてもよい。管状コンポーネント2のヘッド2aを目標チャネル1bの中心に向かって曲げるように駆動することにより、管状コンポーネント2は360°全方向に移動することができる。
より具体的には、図7に示すように、点Mは、目標チャネル1bの中心点である。点Oは、カメラパラメーター及びカメラと管状コンポーネントヘッドとの間の相対位置に従って較正された管状コンポーネント2のヘッドの中心を示す。特に、カメラの光軸が管状コンポーネントのヘッドの中心線と平行である場合、点Oは、カメラの画像平面への管状中心線の投影にすぎず、点Oと視野の中心との間にオフセットがあるか、カメラが管状コンポーネントのヘッドの中心に位置する場合は視野の中心と重なる可能性がある。管状コンポーネント2のヘッド2aを駆動することによって、管状コンポーネント2のヘッド2aは、目標チャネル1bの中心に向かって曲がる。点MとOが視野内でほぼ重なったとき、目標チャネル1bの中心は管状コンポーネントのヘッドの中心に位置することになる。
医師が非目標チャネル1bの特定の領域を検査したい場合、管状コンポーネント2のヘッド2aは、より良好な視野を得るために、この領域の中心を向くように制御されてもよい。例えば、コントローラは、見やすくするために内視鏡の先端を組織表面に対して垂直にしようとする可能性がある。この場合、コンピュータを使用して、解剖学的構造に起因する動きを動的に補正して、イメージングを安定に保つことができる。収集された2次元画像がぼやけている場合、動作の安全性を確保するためにロボットシステムが停止して回復を待つことがある。
従来技術の内視鏡は、通常、管状コンポーネントの動きの方向を制御するために駆動ケーブルを使用する。全方向の動きを実現するには、少なくとも3本以上の駆動ケーブル、典型的には4本の駆動ケーブルが必要である。さらに、2本の駆動ケーブルのみを使用して管状コンポーネント2の動きを1自由度で制御することも可能である。この場合、図8を参照すると、管状コンポーネント2の現在のヘッドの向きを目標チャネル1bの中心に向かうように修正することは、目標チャネル1bの中心が視野内の管状コンポーネント2のヘッド2aの自由方向にあるように、管状コンポーネント2のヘッド2aを回転させるステップと、目標チャネル16bの中心と視野の中心との間の距離が予め設定されたオフセット値の範囲内になるように、管状コンポーネント2のヘッド2aを自由方向に移動させるように駆動するステップとをさらに含んでもよい。一実施形態では、目標チャネル1bの中心と視野の中心は、互いに一致してもよい。ここで、「自由方向」とは、管状コンポーネント2のヘッド2aが自由に進退できる方向を意味する。
実際の操作では、図8を参照すると、点Oは、現在の視野上の管状コンポーネントの中心点であり、点Mは、目標チャネル1bの中心点であり、点Oを通る垂直線と線O-Mとの間の角はαである。管状コンポーネント2のヘッド2aを右にα°回転させるか、左に(180-α)°回転させるように駆動することにより、目標チャネル1bの中心は、視野内の管状コンポーネント2のヘッド2aの自由方向にあることになる。つまり、点Mは垂直線に近いことになる。最後に、管状コンポーネント2のヘッド2aは、自由方向に移動するように駆動される。理解されるべきことは、管状コンポーネント2のヘッド2aが右に回転すると、それに応じて、管状コンポーネント2のヘッド2aは上方に移動するように駆動され、管状コンポーネント2のヘッド2aが左に回転すると、それに応じて、管状コンポーネント2のヘッド2aは下方に移動するように駆動されることである。いずれの場合でも、目標チャネル1bの中心は、管状コンポーネントのヘッドの中心に面するように位置を特定することができる。即ち、点Mと点Oは視野内でほぼ重なっている。
夾角αは、回転振幅を小さくして操作の効率を向上させるために、鋭角又は直角であることが好ましい。より好ましくは、角度範囲を設定することができる。夾角αが予め設定された角度範囲内にある場合、目標チャネル1bの中心は視野内の管状コンポーネント2のヘッド2aの自由方向に位置するとみなされ、管状コンポーネント2のヘッド2aは、前記自由方向に移動するように直接駆動することができ、その結果、目標チャネル1bの中心は、視野の中心に位置することになり、操作の効率が向上する。
同様に、点OとMの位置は2次元視覚画像上で完全に一致する必要はなく、困難さを低減し、操作の効率を向上させるために誤差範囲を確保しておいてもよい。
本願では、修正装置53bは、目標チャネル16bの中心と視野の中心との間の距離が予め設定されたオフセット値の範囲内になるまで、管状コンポーネント2のヘッド2aを目標チャネル1bの中心に向かって曲げるように駆動するように構成されている。修正装置53bはまた、目標チャネル1bの中心が視野内の管状コンポーネント2のヘッド2aの自由方向に位置するように、管状コンポーネント2を回転させ、次に目標チャネル16bの中心と視野の中心との間の距離が予め設定されたオフセット値の範囲になるように、管状コンポーネント2のヘッド2aを自由方向に移動させるように駆動するように構成されている。
3次元モデル1a及び位置特定アルゴリズムにより、コンピュータは、目標チャネル1bの位置を決定し、正確なナビゲーションのためのナビゲーション情報を生成することができる。管状コンポーネント2の動きのプロセスは、確立された運動学モデル及び画像識別方法に従って継続的に修正され、修正結果によりナビゲーション情報をさらに最適化することができる。したがって、プロセス全体が動的な閉ループを形成し、操作の安全性と精度が向上する。
ルーメン検出は2D気管支鏡検査画像上で行われる。正しい目標ルーメンをマークするには、検出アルゴリズムは、事前定義された3Dパスと、位置特定モジュールから得られる現在の3Dロケーションとを考慮し、次に、レンダリングされた画像を実際の気管支鏡検査画像と比較する必要がある。得られた2D画像上の目標ルーメンのロケーションは、視覚的サーボ又はその他の目的に使用される。これについては図9で説明する。
実際の応用では、管状コンポーネント2のルーメン検出アルゴリズムと位置特定アルゴリズムを組み合わせて、多方向のナビゲーションパス3のリアルタイム修正を実行することができる。ルーメン検出アルゴリズムは高周波制御ループで実装することができ、一方、位置特定アルゴリズムは低周波制御ループで実装することができる。これは、後者の方がはるかに多くの演算能力を必要とするためである。医師は、2次元画像内の目標チャネル1bをマークしたり、3次元モデル内の目標ロケーションをマークしたりすることができる。視覚的な画像を利用して、コンピュータは管状コンポーネント2の向きを一方向に制御し、操作の精度を向上させることができる。
操作中に動的フィードバックをより良く取得し、操作の安全性と信頼性を向上させるために、本願における多分岐チャネル内で管状コンポーネントをナビゲートするための方法は、供給プロセス中に管状コンポーネント2が負担する抵抗を取得するステップと、触覚フィードバック装置を介して抵抗をオペレーターにフィードバックするステップと、をさらに含んでもよい。
これに対応して、管状コンポーネント2のための本ナビゲーション機器は、図10に示すように、管状コンポーネント2が負担する抵抗を取得し、触覚フィードバック装置55を介して抵抗をオペレーターにフィードバックするように構成された抵抗フィードバック装置54を含んでもよい。触覚フィードバック装置55は、モーターによって駆動可能なプッシュロッドなどのロッカーに設けられた電気抵抗構造であってもよい。プッシュロッドがロッカーに作用すると、ロッカーのそれ以上の移動を防ぐことができる。
具体的には、抵抗フィードバック装置54は、接触力の大きさを測定するための、管状コンポーネント2のヘッドエンドに設けられた抵抗センサーであってもよい。管状コンポーネント2が患者の組織に接触すると、抵抗センサーは、抵抗信号を取得して触覚フィードバック装置55にフィードバックし、次にプッシュロッドを作動させてロッカーを停止させたり、ロッカーを所定の位置に強制的に戻したりする。もちろん、抵抗センサーは情報をコンピュータにフィードバックすることもできるため、医師は操作の安全性を確保するために適時に操作を調整できる。
本願は、コンピュータプログラムを記憶しているコンピュータ可読記憶媒体をさらに提案する。コンピュータプログラムは、プロセッサによって実行されると、上記の方法の各ステップを実行することができる。
本出願について、限定された数の実施形態のみを参照して詳細に説明したが、本出願は、そのような開示した実施形態に限定されないことが理解される。むしろ、本出願は、これまで説明していないが、本出願の精神及び範囲に見合った任意の数の変形、変更、置換、又は同等の配置を組み込むように修正することができる。さらに、本出願の様々な実施形態を説明してきたが、本出願の各態様は、説明した実施形態の幾つかのみを含み得ることが理解される。一般に、本出願は、前述の説明によって限定されるものではなく、添付の特許請求の範囲によってのみ限定される。
1: 多分岐チャネル; 1a: 3次元モデル; 1b: 目標チャネル; 2: 管状コンポーネント; 2a: ヘッド; 3: ナビゲーションパス; 3a: 第1位置; 3b: 第2位置; 3c: 第3位置; 4a: 第1視野; 4b: 第2視野; 4c: 第3視野; 5: 多分岐チャネル内の管状コンポーネント用のナビゲーション機器; 51: スキャナー; 52: 計画装置; 53: 管状コンポーネント供給装置; 53a: 位置特定装置; 53b: 修正装置; 53c: 視野取得装置; 54: 抵抗フィードバック装置; 55: 触覚フィードバック装置。
従来技術の内視鏡は、通常、管状コンポーネントの動きの方向を制御するために駆動ケーブルを使用する。全方向の動きを実現するには、少なくとも3本以上の駆動ケーブル、典型的には4本の駆動ケーブルが必要である。さらに、2本の駆動ケーブルのみを使用して管状コンポーネント2の動きを1自由度で制御することも可能である。この場合、図8を参照すると、管状コンポーネント2の現在のヘッドの向きを目標チャネル1bの中心に向かうように修正することは、目標チャネル1bの中心が視野内の管状コンポーネント2のヘッド2aの自由方向にあるように、管状コンポーネント2のヘッド2aを回転させるステップと、目標チャネル16bの中心と視野の中心との間の距離が予め設定されたオフセット値の範囲内になるように、管状コンポーネント2のヘッド2aを自由方向に移動させるように駆動するステップとをさらに含んでもよい。一実施形態では、目標チャネル1bの中心と視野の中心は、互いに一致してもよい。ここで、「自由方向」とは、管状コンポーネント2のヘッド2aが自由に移動できる方向を意味する。
Claims (15)
- 多分岐チャネル内で管状コンポーネントをナビゲートするための方法であって、
前記多分岐チャネルの3次元モデルを取得するステップと、
前記3次元モデルに従って前記多分岐チャネル内の前記管状コンポーネントのナビゲーション情報を計画するステップと、
前進/後退信号の入力に応じて、前記ナビゲーション情報に従って、前記管状コンポーネントを移動させるように駆動するステップと、を含む、ことを特徴とする多分岐チャネル内で管状コンポーネントをナビゲートするための方法。 - 前記ナビゲーション情報は、
前記多分岐チャネルに沿って目標ロケーションに到達するための指定されたナビゲーションパスと、
前記管状コンポーネントが前記ナビゲーションパスに沿って進行するときの前記管状コンポーネントのヘッドの姿勢情報及び現在のロケーション情報と、を含む、ことを特徴とする請求項1に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。 - 前記多分岐チャネル内の前記管状コンポーネントの位置を特定するステップと、
前記特定された位置に従って、前記ナビゲーション情報と組み合わせて、前記管状コンポーネントの現在のヘッドの向きを修正するステップと、を含む、ことを特徴とする請求項2に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。 - 前記管状コンポーネントの前記ヘッドの前方の視野を取得するステップと、
前記視野内のチャネルを識別するステップと、
識別されたチャネルから目標チャネルを選択し、前記管状コンポーネントの現在のヘッドの向きを前記目標チャネルの中心に向けるように修正するステップと、を含む、ことを特徴とする請求項2に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。 - 前記視野内のチャネルを識別する前記ステップにおいて、識別されたチャネルが分岐を有する場合、ナビゲーションパスによって計画された分岐チャネルを目標チャネルとして選択する、ことを特徴とする請求項4に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。
- 前記視野内のチャネルを識別する前記ステップにおいて、識別されたチャネルが分岐を有していない場合、現在のチャネルを目標チャネルとして選択する、ことを特徴とする請求項4に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。
- 前記管状コンポーネントの現在のヘッドの向きを前記目標チャネルの中心に向けるように修正する前記ステップは、
前記目標チャネルの中心と前記管状コンポーネントの前記ヘッドの中心との間の距離が予め設定されたオフセット値の範囲内になるまで、前記管状コンポーネントの前記ヘッドを前記目標チャネルの中心に向かって曲げるように駆動するステップを含む、ことを特徴とする請求項4~6のいずれか一項に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。 - 前記管状コンポーネントの現在のヘッドの向きを前記目標チャネルの中心に向けるように修正する前記ステップは、
前記目標チャネルの中心が前記視野内の前記管状コンポーネントの前記ヘッドの自由方向に位置するように、前記管状コンポーネントの前記ヘッドを回転させるステップと、
前記目標チャネルの中心と前記管状コンポーネントの前記ヘッドの中心との間の距離が予め設定されたオフセット値の範囲内になるまで、前記管状コンポーネントの前記ヘッドを前記自由方向に移動させるように駆動するステップと、を含む、ことを特徴とする請求項4~6のいずれか一項に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。 - 前記多分岐チャネルは、ヒト呼吸樹、又はヒト気道のモデルである、ことを特徴とする請求項1~6のいずれか一項に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。
- 供給プロセス中に前記管状コンポーネントが負担する抵抗を取得するステップと、
触覚フィードバック装置を介して前記抵抗をオペレーターにフィードバックするステップと、をさらに含む、ことを特徴とする請求項1~6のいずれか一項に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための方法。 - コンピュータプログラムを記憶するコンピュータ可読記憶媒体であって、前記コンピュータプログラムは、プロセッサによって実行されると、請求項1~10のいずれか一項に記載の方法のそれぞれのステップを実行することができる、ことを特徴とするコンピュータプログラムを記憶するコンピュータ可読記憶媒体。
- 多分岐チャネル内で管状コンポーネントをナビゲートするための機器であって、
前記多分岐チャネルの3次元モデルを取得するように構成されたスキャナーと、
前記3次元モデルに従って前記多分岐チャネル内の前記管状コンポーネントのナビゲーション情報を計画するように構成された計画装置と、
前進/後退信号の入力に応じて、前記ナビゲーション情報に従って、前記管状コンポーネントを移動させるように駆動するように構成された管状コンポーネント供給装置と、を備える、ことを特徴とする多分岐チャネル内で管状コンポーネントをナビゲートするための機器。 - 前記ナビゲーション情報は、
前記多分岐チャネルに沿って目標ロケーションに到達するためのナビゲーションパスと、
前記管状コンポーネントが前記ナビゲーションパスに沿って進行するときの前記管状コンポーネントのヘッドの姿勢情報及び現在のロケーション情報と、を含む、ことを特徴とする請求項12に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための機器。 - 前記管状コンポーネント供給装置は、
前記管状コンポーネントのヘッドの前方の視野を取得するように構成された視野取得装置と、
前記多分岐チャネル内の前記管状コンポーネントの位置を決定し、取得された前記管状コンポーネントのヘッドの前方の視野に従って、前記視野内のチャネルを識別するように構成された位置特定装置と、
前記決定された位置に従って、前記ナビゲーション情報と組み合わせて、前記管状コンポーネントの現在のヘッドの向きを修正し、また、識別されたチャネルから目標チャネルを選択し、前記管状コンポーネントの現在のヘッドの向きを前記目標チャネルの中心に向けるように修正するように構成された修正装置と、を備える、ことを特徴とする請求項13に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための機器。 - 前記管状コンポーネントが負担する抵抗を取得し、触覚フィードバック装置を介して前記抵抗をオペレーターにフィードバックする抵抗フィードバック装置をさらに備える、ことを特徴とする請求項12~14のいずれか一項に記載の多分岐チャネル内で管状コンポーネントをナビゲートするための機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
HK22021030451.9 | 2021-05-06 | ||
HK22021030451 | 2021-05-06 | ||
PCT/CN2022/083695 WO2022233201A1 (en) | 2021-05-06 | 2022-03-29 | Method, equipment and storage medium for navigating a tubular component in a multifurcated channel |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024518390A true JP2024518390A (ja) | 2024-05-01 |
Family
ID=83932604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023568067A Pending JP2024518390A (ja) | 2021-05-06 | 2022-03-29 | 多分岐チャネル内で管状コンポーネントをナビゲートするための方法、機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP4333758A1 (ja) |
JP (1) | JP2024518390A (ja) |
CN (1) | CN117651533A (ja) |
GB (1) | GB2620529A (ja) |
WO (1) | WO2022233201A1 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8900131B2 (en) * | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
US9459770B2 (en) * | 2013-03-15 | 2016-10-04 | Covidien Lp | Pathway planning system and method |
CN105231978B (zh) * | 2015-09-14 | 2017-03-22 | 袁非牛 | 一种引导式虚拟内窥镜导航方法 |
EP4374768A2 (en) * | 2016-06-30 | 2024-05-29 | Intuitive Surgical Operations, Inc. | Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure |
JP7371026B2 (ja) * | 2018-05-31 | 2023-10-30 | オーリス ヘルス インコーポレイテッド | 管状網の経路ベースのナビゲーション |
CN112089392A (zh) * | 2020-10-14 | 2020-12-18 | 深圳市资福医疗技术有限公司 | 胶囊内窥镜控制方法、装置、设备、系统及存储介质 |
-
2022
- 2022-03-29 CN CN202280043716.2A patent/CN117651533A/zh active Pending
- 2022-03-29 GB GB2316250.6A patent/GB2620529A/en active Pending
- 2022-03-29 JP JP2023568067A patent/JP2024518390A/ja active Pending
- 2022-03-29 EP EP22798542.1A patent/EP4333758A1/en active Pending
- 2022-03-29 WO PCT/CN2022/083695 patent/WO2022233201A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022233201A1 (en) | 2022-11-10 |
CN117651533A (zh) | 2024-03-05 |
GB2620529A (en) | 2024-01-10 |
GB202316250D0 (en) | 2023-12-06 |
EP4333758A1 (en) | 2024-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11864850B2 (en) | Path-based navigation of tubular networks | |
US11857281B2 (en) | Robot-assisted driving systems and methods | |
US11403759B2 (en) | Navigation of tubular networks | |
US10898277B2 (en) | Systems and methods for registration of location sensors | |
JP7154832B2 (ja) | 形状推定をともなう軌道情報による位置合わせの改良 | |
JP2023171877A (ja) | 生検装置およびシステム | |
EP4021331A1 (en) | Systems and methods for weight-based registration of location sensors | |
CN113712674A (zh) | 导管机器人及系统与控制方法、可读存储介质及电子设备 | |
US20220202500A1 (en) | Intraluminal navigation using ghost instrument information | |
US20220354380A1 (en) | Endoscope navigation system with updating anatomy model | |
US20220202273A1 (en) | Intraluminal navigation using virtual satellite targets | |
JP2024518390A (ja) | 多分岐チャネル内で管状コンポーネントをナビゲートするための方法、機器及び記憶媒体 | |
US20220273189A1 (en) | Six degrees of freedom from a single inductive pickup coil sensor | |
US20230255442A1 (en) | Continuum robot apparatuses, methods, and storage mediums | |
EP4333682A1 (en) | Endoscope navigation system with updating anatomy model | |
WO2023233280A1 (en) | Generating imaging pose recommendations | |
WO2023161848A1 (en) | Three-dimensional reconstruction of an instrument and procedure site | |
WO2023154931A1 (en) | Robotic catheter system and method of replaying targeting trajectory |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231212 |