JP2008544795A - ロボットおよびロボットを登録する方法 - Google Patents
ロボットおよびロボットを登録する方法 Download PDFInfo
- Publication number
- JP2008544795A JP2008544795A JP2008518979A JP2008518979A JP2008544795A JP 2008544795 A JP2008544795 A JP 2008544795A JP 2008518979 A JP2008518979 A JP 2008518979A JP 2008518979 A JP2008518979 A JP 2008518979A JP 2008544795 A JP2008544795 A JP 2008544795A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- indicator
- workpiece
- marker
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003550 marker Substances 0.000 claims abstract description 52
- 230000033001 locomotion Effects 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 23
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000012544 monitoring process Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000001954 sterilising effect Effects 0.000 description 5
- 238000004659 sterilization and disinfection Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 239000012636 effector Substances 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/14—Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
- Image Processing (AREA)
- Surgical Instruments (AREA)
Abstract
ロボット(40)が、器具または道具(46)を運搬する制御可能なアーム(43、44)を有する。ロボット(40)は、加工対象物上に存在するマーカー(2)およびインジケーター(22)の画像を含む加工対象物の画像を取得するためのカメラ(45)を備える。ロボット(40)は、ロボット(40)の空間基準座標系内のマーカー(2)の位置を決定するために画像を処理する工程を有する。ロボット(40)は、加工対象物に対して相対的にアーム(43、44)が運搬する器具または道具(46)の既定の動きを実行するため制御される。マーカー(2)が隠れているときにインジケーター(22)の位置を決定しロボット(40)の空間基準座標系内のインジケーター(22)の動きに反応して、インジケーター(22)の新しい位置およびそれにより加工対象物の新しい位置を決定するため、さらにプロセッサーが配置される。その後ロボット(40)は、加工対象物の新しい位置に対して相対的に制御され、加工対象物に対して相対的に既定の動きを実行する。
【選択図】図6
【選択図】図6
Description
本発明は、ロボットに関し、またロボットを登録する方法に関する。
ロボットが加工対象物に作用するときは、ロボットが加工対象物に対し正確に作動し加工対象物上の正確に既定された点で望ましい機能を遂行することができるよう、加工対象物の正確な方向および位置がロボットの空間基準座標系内で決定されることが必要である。
ロボットが使用される多くの状況において、ロボットは、正確に知られている寸法および形の加工対象物に作動するようプログラムされ、加工対象物は、ロボットに対して相対的な既定の位置でロボットに提示される。そのような状況の一例が、ロボットが自動車の組立てライン上で作動する場合であり、この場合、各加工対象物は、正確に知られている寸法および形を有し、正確に定められた作業台に置かれる。そのような状況において、ロボットは、ロボットが遂行すべき作業に特有の一連の動きを遂行するよう事前にプログラミングすることができる。
しかしながら、ロボットが作業を遂行できるときまでに加工対象物が既定の位置にない場合、ロボットが加工対象物に対して相対的な動きを遂行できるときまでに、加工対象物の正確な方向および位置をロボットの基準座標系内で決定することが必要である。加工対象物の寸法および形ならびにその他の特性が大まかに知られているが正確な詳細が標本ごとに異なっている状況でロボットが加工対象物に対し作業を遂行しなければならない場合もある。実例は、手作りの品目および半剛体材料もしくは変形可能材料から作られた品目を含む場合があるが、特定の実例は、例えば、生体組織が患者の一部を構成する場合および外科医が使用する特定の器具またはその他の道具を保持または誘導するために手術室内でロボットが使用される場合における生体組織である。
ロボットが手術室内で使用される場合、ロボットの作業が、特定の内部のターゲットまたは経路に到達するために「加工対象物」または患者を貫通する段階を伴うことは珍しいことではない。多くの場合、特にロボットが手術室内のヒト患者に作用する状況において、内部のターゲットまたは経路は、加工対象物または患者の表面から全く見ることができない。しかしながら、ロボットが正確に内部のターゲットまたは経路に到達することは不可欠である。
こうした種類の作業のためのロボットに適切な座標および命令を指定するために使用されてきた従来の方法は、画像誘導法の使用を伴う。この技術を利用するにあたり、X線、磁気共鳴画像法、超音波画像診断または他のいくつかの類似技術を使用することにより、「加工対象物」(これは患者の一部のみ、例えば患者の頭部でもよい)の画像が取得される。利用する画像技術は、内部のターゲットまたは経路が明らかとなるかまたはこれを決定できるように選択する。
内部のターゲットまたは経路の絶対位置を決定するために使用することができる空間基準座標系が存在するよう、生成された画像内で見ることができる一連の「マーカー」が患者の関連部分に取り付けられる。マーカーは、例えば、患者の頭部に取り付けられた小型の金属性マーカーでもよい。
それにより患者の関連部分の画像が生成され、画像は、コンピューター処理されて人間オペレーターにとって便利な形式で表示することができる。オペレーターの選択および内部のターゲットまたは経路の性質に応じて、加工対象物を通る一連の「スライス」として、または指定された点を通る3面図として、または代替的に3次元再構成として、画像を表示することができる。この目的のために利用できる多種の画像処理アルゴリズムが存在する。
マウスなどの適切な位置指示装置を使用して、人間オペレーターは次に、ターゲットが位置する患者の関連部分のコンピューター処理された画像上で指定することができる。ターゲットは、例えば腫瘍でもよい。オペレーターは、ロボットがターゲットに到達するための適切な進入路を指示することもできる。ターゲットまたは要求される進入路は、基準座標系に対して相対的に効果的に定められ、これが3次元空間座標の組合せを構成するが、マーカーの位置も、同一の基準座標系または同一の空間座標を基準として定められる。
望ましい進入路の主要点の座標に加えターゲット自体も、オペレーターが位置指示装置を用いて指定したピクセル(平面画素)またはボクセル(立体画素)から容易に決定することができる。
一旦ターゲットおよび経路が定められると、ロボットの制御装置が利用することができる一連の命令を生成することができ、この結果ロボットは、ロボットが運搬する器具またはエンド・エフェクターにターゲットへの望ましい進路を辿らせるよう適切な動きを実行する。
しかしながら、命令は、患者の関連部分の画像の基準座標系を参照し、ロボットは、自らの「内部の」基準座標系を有する。
従って、ロボットを利用してロボット制御装置が与える命令を実行するときまでに、患者の関連部分の画像の基準座標系にロボットの内部の基準座標系を「登録」または相関させるための「登録」処理を行わなければならない。このようにして、ロボットが命令を実行するときに、ロボットが実行する器具またはエンド・エフェクターが実際に正確な進路を辿り適切な動きを実行することを確実とすることができる。
ロボットを提供し、最初に患者の関連部分のコンピューター処理された画像を作成するときに使用されるマーカーの画像を取得することができるロボットの一部の上に取り付けたカメラを使用することにより、患者の一部などの対象に対して相対的にロボットの位置を登録する(WO99/42257を参照)ことが提案されてきた。その結果、ロボット上のカメラは、マーカーの画像を取得することができ、ロボットの内部基準座標系または内部空間座標の中でそれらのマーカーの正確な位置を決定することができる。しかしながら、最初の画像を取得するときに使用される基準座標系または空間座標に対して相対的にマーカーの位置が知られているため、患者の基準座標系はロボットの基準座標系に相関させることができ、これにより患者の画像の基準座標系で定められたターゲットまたは進路の正確な座標は、ロボットの基準座標系中の対応する座標に「翻訳」することができ、これによりロボットが適切な一連の命令に従うことが可能となる。
この種の装置が利用されるときは、手術が行われる患者の部分を定位置にしっかりと固定し、次にロボットの内部基準座標系を患者の関連部分の画像の基準座標系に効果的に相関させることによりロボットを調整することが通常である。ロボットの主要部分と患者の関連部分が両方とも定位置でしっかりと固定されているため、ロボットはその後、作成された命令の組合せに従い、既定の方法で正確に器具またはエンド・エフェクターを動かすことができる。
しかしながら、患者の関連部分が万一移動した場合、患者の関連部分の基準座標系とロボットの基準座標系との間の相関がないため、もはやロボットを使用することができない。典型的には患者の関連部分が滅菌ドレープに覆われておりロボットが運搬するカメラからマーカーを見ることができなくなっているため、この段階で相関を再び生み出すことはできない。
本発明は、改良されたロボットおよび改良された方法を提供することを求める。
本発明の1つの態様に従いロボットが提供され、ロボットは、器具または道具を運搬する制御可能なアームを備えており、ロボットは、加工対象物上に存在するマーカーおよびインジケーターの画像を含む加工対象物の視覚画像を取得するための視覚画像取得装置を備えており、ロボットは、画像を処理するためのプロセッサーを含んでおり、プロセッサーは、ロボットの空間基準座標系における加工対象物の位置を決定するためロボットの空間基準座標系内でマーカーの位置を決定し、加工対象物に対して相対的にアームが運搬する器具または道具の既定の動きを実行するためにロボットを制御するよう設定されており、プロセッサーはさらに、マーカーが隠れているときに前記インジケーターの位置を決定しロボットの空間基準座標系内の前記インジケーターの動きに反応して、インジケーターの新しい位置およびそれにより加工対象物の新しい位置を決定し、その結果加工対象物に対して相対的に既定の動きを実行し続けるようロボットを制御する。
好ましくは、ロボットは、加工対象物およびマーカーの一または複数の画像の形式によるかまたは当該画像に由来するデータならびに既定の動きに関する情報を受け取るよう設定されており、既定の動きは、マーカーに対して相対的な基準座標系内で定められる。
好都合には、ロボットは、外科医による使用のためのものであり、制御可能なアームは、外科医の器具または道具を運搬するため改造される。
有利には、ロボットは、加工対象物に装置を接続するため加工対象物を固定する要素を備えた装置と組み合わせられ、その装置が前記インジケーターを支える。
好都合には、インジケーターは、取り外しできるように前記装置に接続される。
好ましくは、インジケーターは、平坦な面を定めるヘッドを有し、その面には面を横切って通る軸を示すため印が付けられ、ヘッドはステムにより運搬され、ステムは装置上のソケットで受け止められる。
本発明の別の態様に従い、ロボットに対して相対的に加工対象物を登録する方法が提供され、その方法は、視覚的なマーカーを含む加工対象物の一または複数の画像を取得する段階、加工対象物上の少なくとも1個の点を識別する段階、前記の点に道具または器具を運ぶためにロボットが運搬する道具または器具が辿るべき進路をロボットが定めるため制御信号を生成する段階、画像取得装置をロボットに取り付ける段階、マーカーの画像を取得するために画像取得装置を利用する段階、前記画像取得装置を使用して取得された画像を処理し前記進路に沿って道具または器具を動かすためにロボットを制御するためプロセッサーを利用する段階、マーカーに対して相対的な既定の空間的位置を有するインジケーターを提供する段階、インジケーターの位置を決定するため前記画像取得装置からの画像をプロセッサー内で処理する段階、マーカーを隠す段階、インジケーターの位置を監視する段階、ならびに道具または器具が前記進路に沿って動き続けるようロボットを制御することによりロボットの基準座標系に対して相対的にインジケーターの動きに反応する段階を含む。
好都合には、インジケーターは、加工対象物に固定された装置上に取り外しできるよう装着され、方法は、マーカーを隠す前に前記装置からインジケーターを取り外す段階、およびマーカーを隠した後にインジケーターを同一であるが滅菌されたインジケーターと交換する段階を含む。
有利には、マーカーを隠すことは、加工対象物に滅菌ドレープをあてがうことにより実行する。
好ましくは、一または複数の画像を取得する段階は、X線またはNMRまたは超音波の装置を利用して実行される。
好都合には、画像を処理する段階は、画像を分析し加工対象物上の前記の少なくとも1個の点を識別するためにポインターを使用するため人間オペレーターを使用して実行される。
本発明がより容易に理解されるよう、またその追加の特徴が認識されるよう、ここで、以下の添付する図面を参照して実施例により本発明を説明する:
図1は、患者の頭部の形の「加工対象物」の画像を描くための装置の線図であり、
図2は、ブロック線図であり、
図3は、インジケーターを備えた定位フレームの図であり、
図4は、患者の頭部にあてがった定位フレームの図であり、
図5は、定位フレームを付けた患者の図であり、定位フレームは手術台に固定されており、図はロボットも図示しており、
図6は、定位フレーム上に装着されたインジケーターを示す図5のものと同様の図であり、
図7は、インジケーターが突き出した、ドレープされたときの患者を示す図6に対応する図であり、
図8は、ブロック図であり、かつ
図9は、追加のブロック図である。
最初に添付の図の図1を参照すると、コンピューター制御されたロボットを用いて手術される加工対象物は、ヒトの頭部の形で図示されている。頭部に装着されているのは、複数のマーカー2である。マーカーは、見ることができるマーカーであり、容易に見ることができるよう頭部の外側に装着されている。マーカーは、この実施形態においては、放射線不透過性である。
頭部または加工対象物1は、X線源3とX線感受性スクリーン4との間で、画像取得装置において定位置で図示される。こうして頭部のX線画像を描くことができ、画像は当然のことながら放射線不透過性のマーカー2を含む。
X線源およびスクリーンに対して相対的な相異なる位置に加工対象物または頭部を置いて複数の画像が描かれ、これにより、結果として生じた画像の組合せが処理され、マーカーを加えた加工対象物の3次元の再現、または3面画像を描くことができると予想される。もちろん画像作成装置は、連続する側断面図すなわち「スライス」に相当する一連の画像を描くCAT(コンピューター体軸断層撮影)装置でもよく、ここまでX線画像の作成に関連して本発明を説明してきたが、NMRおよび超音波技術を含む他の多くの画像作成技術を利用することができると理解すべきである。
次に図2を参照すると、5で複数の画像が作成された後、ヒトの頭部1内のターゲットを識別するため画像が処理される。ターゲットは、例えば腫瘍でもよい。ターゲットの識別、図2で示す段階6は、複数の画像を検討することにより、また選択的にコンピューターにより画像を処理することにより、行うことができる。ターゲットは、上述したように、ポインターを使用する人間オペレーターが明確に識別することができる。
ターゲットの識別の後、一連の命令がロボットのため7で生成され、命令は、ロボットが運搬する器具または道具(46)の移動の望ましい進路を指示する。命令は、3次元空間においてロボットが運搬する道具または器具の既定の動きを定めるよう生成され、その結果、3次元空間が基準座標系または空間座標の組合せにより識別され、同一の基準座標系および空間座標の組合せがマーカー2のそれぞれの正確な位置を決定するために使用される。これにより命令は、マーカー2に対して相対的な道具または器具の特定の既定の動きを効果的に決定する。
その後、患者の頭部に定位フレームを備え付ける。図3は、典型的な定位フレームを図示するが、定位フレームの多くの型が存在すると理解すべきである。
図3を参照すると、図示された定位フレーム8は、患者の頭部上に装着されるよう配置されたベース・リング9を備えている。ベース・リング9は、後部バー12が相互に連結する実質的に水平のサイド・アーム10、11を含む。後部バー12には、取付けねじ13が付いている。サイド・アーム10および11の前端は、ヨーク14が相互に連結し、ヨーク14は、患者の顎の前面に位置する前に突き出たU字型部分15を有している。ヨークは、U字型部分15の両端で直立アーム16、17を備え、それぞれの直立アームには、その上端に取付けねじ18、19が付いている。
U字型ヨークは、インジケーター22のステム21を受けるためのソケット20を備えている。インジケーター22は、ステム21およびヘッド23から構成され、ヘッド23は、ヘッドの正確な方向を示すため平坦な面を横切って通る軸を示すためヘッドの平坦な面の上に標識24を備えている。理解されるように、インジケーターの正確な設計は、本発明にとって不可欠ではないが、インジケーターの視覚画像を分析することにより3次元空間におけるインジケーターの正確な位置および方向を決定することが可能となるようインジケーターを設計する必要がある。説明する実施形態において、インジケーターは、取り外しできるよう定位フレームに接続される。
図示した定位フレームは、2個のサイド・アーム10および11上で上に延びる弓形の半円状の輪25を備え、半円状の輪25は、スライドできるようにして道具の運搬具26を支える。
インジケーター22が定位フレーム上で定位置に装着されるとき、インジケーターのヘッド23は、定位フレームの台に対して相対的に3次元空間における正確な既定の位置を有すると理解すべきである。定位フレームが頭部1に対して相対的に取り付けられ、それによりマーカー2に対して相対的に固定されるため、インジケーター22のヘッド23は、マーカー2との間で正確に決定された空間的関係を有する。従って、インジケーターのヘッド23の正確な位置および方向が特定の基準座標系において知られているなら、マーカー2が隠れていても、当該基準座標系内のマーカーの位置を容易に決定することができる。
患者の頭部上にベース・リングを配置し、その後患者の頭蓋の骨部分に噛み合うまで取付けねじ13、18および19を締めることにより、上述のように定位フレームが患者の頭部1上に装着されると理解すべきである。これにより定位フレームは、患者の頭部に対して相対的に定位置でしっかりと装着される。
次に患者を手術台30に置くことができ、定位フレームは、適切な締め具31により手術台に固定することができる。これにより定位フレームは、しっかりと定位置で固定される。
この段階では、マーカー2を見ることができる。
ロボット40が提供される。ロボット40は、定位置に固定され、従って手術台30に留められた定位フレーム8と既定の空間的関係にあるハウジング41を含む。ハウジング41は、垂直支柱42を支え、垂直支柱の上端は、中間アーム43を枢動可能な状態で支え、中間アームは次に、その自由端において、枢動可能な状態で装着された道具または器具の運搬アーム44を支える。道具または器具の運搬アーム44には、カメラ45を装着する。道具または器具の運搬アーム44は、道具または器具46を支えると図示される。もちろん、多くの異なる種類のロボットを本発明に使用するため構想することができる。
カメラ45は、テレビ・カメラ、デジタル・カメラ、CCD装置、その他などいかなる形態のカメラでもよい。カメラは、患者の頭部1およびマーカー2の視覚画像を取得するよう改造され、以下で説明するように、インジケーター22の視覚画像も取得するよう改造される。
図6は、定位フレームに装着されたインジケーター22を図示した図5に対応する図である。インジケーター22のヘッド23は、患者の頭部との間で既定の空間的関係を有する。図7は、患者が滅菌ドレープで覆われたときに存在する状況を図示している;これによりマーカー2は隠れるが、滅菌インジケーターは露出したままとなる。
患者が最初に手術台に置かれたとき、ロボットに対して相対的に患者を「登録」することが必要であり、その結果ロボットが運搬する道具または器具が辿るべき進路を識別するよう生成された命令をロボット自体の基準座標系または空間座標に「翻訳」することができると理解すべきである。従って、最初にカメラ45は、カメラが特定の位置にあるとき頭部1の画像を取得し、カメラからの画像は、図8に示すようにプロセッサーに送られる。プロセッサー8は、図1の画像取得装置から得られる画像またはデータも受け取り、プロセッサーは、図1の画像取得装置で利用される基準座標系をロボットの基準座標系に効果的に相関させる。これによりプロセッサーは、ロボットの制御装置に信号を送ることができ、この結果、ロボットの器具運搬アーム44が運搬する道具または器具は、患者に対して相対的に望ましい操作を実行する。
ここで図9を参照すると、プロセッサーは、ロボット・カメラ45から画像を受け取ると同時に、ロボットの基準座標系におけるマーカー2の位置を効果的に決定する。マーカーの位置は、画像取得装置の基準座標系に関して知られているため、プロセッサーは、2つの基準座標系を相関させることができ、またロボットの内部的な基準座標系において適切な命令を作成することができる。
プロセッサーはその後、インジケーターが定位フレーム上に装着されたときに、ロボットの内部的な基準座標系に関してインジケーター22の位置を決定する。インジケーター22が定位フレームに対して、またマーカー2に対しても、既定の空間的関係を有しているため、プロセッサーは、インジケーター22と図1の画像取得装置が利用する患者の基準座標系との間の絶対的な空間的関係を決定することができる。
従って、患者に覆いが掛けられ(図7参照)、マーカー2がロボット・カメラ45の視界から隠れているとき、ロボット・カメラ45は、インジケーター22(これはロボット・カメラから見ることができる)の画像を捉えることができ、これらの画像により、プロセッサーは、ロボットの基準座標系におけるマーカー2の位置を決定することができる。
マーカー2が隠れているときにインジケーター22の位置を決定しロボットの空間基準座標系内のインジケーター22の動きに反応して、インジケーター22の位置およびそれにより患者の新しい位置を決定するようプロセッサーが設定されると理解すべきである。その後プロセッサーは、患者の新しい位置に基づき、患者に対して相対的に既定の動きを実行し続けるためロボットを制御することができる。
インジケーター22の最初の画像が取得されるとき、インジケーター22は、患者が覆いを掛けられる前に定位フレーム上に適切に装着された滅菌インジケーターでもよい。患者がドレープを掛けられるときにインジケーターを定位置に残して、滅菌インジケーターを患者を覆うドレープ上に突き出したままにしてもよい。
しかしながら、代替的に、図6で図示する手順中に利用するインジケーターは非滅菌インジケーターでもよく、これをドレーピングの前に除去し、滅菌ドレープが定位置に置かれた後、滅菌ドレープ中の適切な開口部を通じて挿入される滅菌インジケーターに置き換えることができる。この手段を利用する場合、インジケーター22のステム21を受ける定位フレーム中のソケット20は、ある特定の方向で、かつある特定の挿入の程度においてのみインジケーター22のステム21をソケット20に置くことができるものとすることが不可欠である。そのような方法で、非滅菌インジケーターは、ロボットに備え付けられたカメラ45がインジケーターの画像の取得のため使用することができ、このインジケーターは、ドレーピング手順が完了した後に、絶対的に同一であるが滅菌されたインジケーターに置き換えることができる。滅菌インジケーターのヘッドは次に、非滅菌インジケーターのヘッドと全く同一の定位フレームに対して相対的な位置を占める。
カメラ45は、患者に対し手術が行われている間、インジケーターの画像を取得し続ける。プロセッサーは、定期的な時間間隔でコンピューターの基準座標系内のインジケーターの位置を決定し、インジケーターが動いたかどうかを決定するようプログラムされる。患者の頭部の望ましくない動きの結果(または患者の頭部の望ましくかつ必要な動きの結果であったとしても)インジケーターが動いた場合、プロセッサーは、カメラ45からその新しい位置におけるインジケーターの画像を受け取ると同時に、マーカー2が隠れているときのロボットの基準座標系内のインジケーターの絶対的な位置を決定するようプログラムされ、インジケーターと患者の頭部上にあるマーカーとの間の絶対的な空間的関係が知られているため、プロセッサーは、ロボットを効果的に再調整し、患者の頭部の現在の位置を考慮して、図1に示す最初の画像取得装置の基準座標系に基づき作成された命令を、ロボットの基準座標系内で適切な命令に翻訳することができる。
主として患者の頭部の形の加工対象物に関して本発明を説明してきたが、本発明は、膝や肘といった患者の他の部分に対して行われる手術に関して同様に使用することができ、または患者の部分でない「加工対象物」に対して使用することができると理解すべきである。特定の形の定位フレームに関して本発明を説明してきたが、適切な形の固定フレームまたはクランプを利用することができる。
本発明は、患者の外科手術中に使用することができ、ロボットが運搬する器具46は、手術器具でもよい。
この明細書および請求において使用される場合、「含む」(“comprises”および“comprising”)の用語ならびにその語尾変化は、指定された特徴、段階または整数が含まれることを意味する。用語は、他の特徴、段階または構成物の存在を除外すると解釈してはならない。
必要に応じて、開示された機能または開示された結果を得るための方法もしくは工程を実行するための特定の形態においてまたは当該工程を実行するための手段に関して表現された、前記の説明もしくは以下の請求項または添付の図で開示された特徴は、個別に、または当該特徴の組合せにおいて、本発明の異なる形態において本発明を実現するために利用することができる。
(2) マーカー
(22) インジケーター
(40) ロボット
(43,44) 制御可能なアーム
(45) カメラ
(46) 器具または道具
(22) インジケーター
(40) ロボット
(43,44) 制御可能なアーム
(45) カメラ
(46) 器具または道具
Claims (14)
- ロボットであって、ロボットが、器具または道具を運搬する制御可能なアームを備えており、ロボットが、加工対象物上に存在するマーカーおよびインジケーターの画像を含む加工対象物の視覚画像を取得するための視覚画像取得装置を備えており、ロボットが、画像を処理するためのプロセッサーを含んでおり、プロセッサーが、ロボットの空間基準座標系における加工対象物の位置を決定するためロボットの空間基準座標系内のマーカーの位置を決定し、加工対象物に対して相対的にアームが運搬する器具または道具の既定の動きを実行するためにロボットを制御するよう設定されており、プロセッサーがさらに、マーカーが隠れているときに上記のインジケーターの位置を決定しロボットの空間基準座標系内の前記インジケーターの動きに反応して、インジケーターの新しい位置およびそれにより加工対象物の新しい位置を決定し、その結果加工対象物に対して相対的に既定の動きを実行し続けるようロボットを制御するもの。
- ロボットが、加工対象物およびマーカーの一または複数の画像の形式によるかまたは当該画像に由来するデータならびに既定の動きに関する情報を受け取るよう設定されており、既定の動きが、マーカーに対して相対的な基準座標系内で定められる、請求項1に従ったロボット。
- 外科医による使用のための請求項1または請求項2に従ったロボットであって、制御可能なアームが外科医の器具または道具を運搬するため改造されるもの。
- 加工対象物に装置を接続するため加工対象物を固定する要素を備えた装置と組み合わせられた請求項1に従ったロボットであって、その装置が前記インジケーターを支えるもの。
- インジケーターが取り外しできるように前記装置に接続された、請求項4に従ったロボット。
- インジケーターが平坦な面を定めるヘッドを有し、その面には面を横切って通る軸を示すため印が付けられ、ヘッドはステムにより運搬され、ステムは装置上のソケットで受け止められる、請求項5に従ったロボット。
- ロボットに対して相対的に加工対象物を登録する方法であって、その方法が、視覚的なマーカーを含む加工対象物の一または複数の画像を取得する段階、加工対象物上の少なくとも1個の点を識別する段階、前記の点に道具または器具を運ぶためにロボットが運搬する道具または器具が辿るべき進路をロボットが定めるため制御信号を生成する段階、画像取得装置をロボットに取り付ける段階、マーカーの画像を取得するために画像取得装置を利用する段階、前記画像取得装置を使用して取得された画像を処理し前記進路に沿って道具または器具を動かすためにロボットを制御するためプロセッサーを利用する段階、マーカーに対して相対的な既定の空間的位置を有するインジケーターを提供する段階、インジケーターの位置を決定するため前記画像取得装置からの画像をプロセッサー内で処理する段階、マーカーを隠す段階、インジケーターの位置を監視する段階、ならびに道具または器具が上記の進路に沿って動き続けるようロボットを制御することによりロボットの基準座標系に対して相対的にインジケーターの動きに反応する段階を含むもの。
- インジケーターが加工対象物に固定された装置上に取り外しできるよう装着される請求項7に従った加工対象物を登録する方法であって、その方法が、マーカーを隠す前に前記装置からインジケーターを取り外す段階、およびマーカーを隠した後にインジケーターを同一であるが滅菌されたインジケーターと交換する段階を含むもの。
- マーカーを隠すことが加工対象物に滅菌ドレープをあてがうことにより実行される、請求項7または請求項8に従った方法。
- 一または複数の画像を取得する段階がX線またはNMRまたは超音波の装置を利用することにより実行される、請求項7乃至9のいずれかに従った加工対象物を登録する方法。
- 画像を処理する段階が、画像を分析し加工対象物上の前記の少なくとも1個の点を識別するためにポインターを使用するため人間オペレーターを使用して実行される、請求項7乃至10のいずれかに従った加工対象物を登録する方法。
- 実質的に添付の図面を参照して本書中で説明され添付の図面に示されるロボット。
- 実質的に添付の図面を参照して本書中で説明される加工対象物を登録する方法。
- 本書中で開示される新規の特徴または特徴の組合せ。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0513876A GB2428110A (en) | 2005-07-06 | 2005-07-06 | A robot and method of registering a robot. |
PCT/GB2006/002501 WO2007003949A1 (en) | 2005-07-06 | 2006-07-06 | A robot and a method of registering a robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008544795A true JP2008544795A (ja) | 2008-12-11 |
Family
ID=34856775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008518979A Pending JP2008544795A (ja) | 2005-07-06 | 2006-07-06 | ロボットおよびロボットを登録する方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20080201016A1 (ja) |
EP (1) | EP1910040B1 (ja) |
JP (1) | JP2008544795A (ja) |
AT (1) | ATE417711T1 (ja) |
DE (1) | DE602006004350D1 (ja) |
ES (1) | ES2319572T3 (ja) |
GB (1) | GB2428110A (ja) |
WO (1) | WO2007003949A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011502807A (ja) * | 2007-11-19 | 2011-01-27 | クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | ロボット具有装置、医療ワークステーションおよび、対象物を位置決めする方法 |
JP2019501710A (ja) * | 2015-12-28 | 2019-01-24 | ザクト ロボティクス リミテッド | 調節可能レジストレーションフレーム |
KR20190056637A (ko) * | 2017-11-17 | 2019-05-27 | 주식회사 고영테크놀러지 | 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법 |
JP2019526127A (ja) * | 2016-07-26 | 2019-09-12 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 工作機械の端部要素を制御する方法および工作機械 |
Families Citing this family (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040162637A1 (en) | 2002-07-25 | 2004-08-19 | Yulun Wang | Medical tele-robotic system with a master remote station with an arbitrator |
US7813836B2 (en) | 2003-12-09 | 2010-10-12 | Intouch Technologies, Inc. | Protocol for a remotely controlled videoconferencing robot |
US8077963B2 (en) | 2004-07-13 | 2011-12-13 | Yulun Wang | Mobile robot with a head-based movement mapping scheme |
US9198728B2 (en) | 2005-09-30 | 2015-12-01 | Intouch Technologies, Inc. | Multi-camera mobile teleconferencing platform |
US8849679B2 (en) * | 2006-06-15 | 2014-09-30 | Intouch Technologies, Inc. | Remote controlled robot system that provides medical images |
US8554368B2 (en) * | 2007-04-16 | 2013-10-08 | Tim Fielding | Frame mapping and force feedback methods, devices and systems |
US9160783B2 (en) | 2007-05-09 | 2015-10-13 | Intouch Technologies, Inc. | Robot system that operates through a network firewall |
US10875182B2 (en) | 2008-03-20 | 2020-12-29 | Teladoc Health, Inc. | Remote presence system mounted to operating room hardware |
US8179418B2 (en) | 2008-04-14 | 2012-05-15 | Intouch Technologies, Inc. | Robotic based health care system |
US8170241B2 (en) | 2008-04-17 | 2012-05-01 | Intouch Technologies, Inc. | Mobile tele-presence system with a microphone system |
US9193065B2 (en) | 2008-07-10 | 2015-11-24 | Intouch Technologies, Inc. | Docking system for a tele-presence robot |
US9842192B2 (en) | 2008-07-11 | 2017-12-12 | Intouch Technologies, Inc. | Tele-presence robot system with multi-cast features |
US8340819B2 (en) | 2008-09-18 | 2012-12-25 | Intouch Technologies, Inc. | Mobile videoconferencing robot system with network adaptive driving |
US8996165B2 (en) | 2008-10-21 | 2015-03-31 | Intouch Technologies, Inc. | Telepresence robot with a camera boom |
US8463435B2 (en) | 2008-11-25 | 2013-06-11 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US9138891B2 (en) | 2008-11-25 | 2015-09-22 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US8849680B2 (en) | 2009-01-29 | 2014-09-30 | Intouch Technologies, Inc. | Documentation through a remote presence robot |
US8897920B2 (en) | 2009-04-17 | 2014-11-25 | Intouch Technologies, Inc. | Tele-presence robot system with software modularity, projector and laser pointer |
US11399153B2 (en) | 2009-08-26 | 2022-07-26 | Teladoc Health, Inc. | Portable telepresence apparatus |
US8384755B2 (en) | 2009-08-26 | 2013-02-26 | Intouch Technologies, Inc. | Portable remote presence robot |
US11154981B2 (en) | 2010-02-04 | 2021-10-26 | Teladoc Health, Inc. | Robot user interface for telepresence robot system |
US8670017B2 (en) | 2010-03-04 | 2014-03-11 | Intouch Technologies, Inc. | Remote presence system including a cart that supports a robot face and an overhead camera |
US10343283B2 (en) | 2010-05-24 | 2019-07-09 | Intouch Technologies, Inc. | Telepresence robot system that can be accessed by a cellular phone |
US10808882B2 (en) | 2010-05-26 | 2020-10-20 | Intouch Technologies, Inc. | Tele-robotic system with a robot face placed on a chair |
US8672837B2 (en) | 2010-06-24 | 2014-03-18 | Hansen Medical, Inc. | Methods and devices for controlling a shapeable medical device |
ITTV20100133A1 (it) | 2010-10-08 | 2012-04-09 | Teleios Srl | Apparato e metodo per effettuare la mappatura di uno spazio tridimensionale in applicazioni medicali a scopo interventistico o diagnostico |
EP2643730A4 (en) * | 2010-11-25 | 2014-10-08 | Resolution Art Inc | IMAGING ROBOT |
US9264664B2 (en) | 2010-12-03 | 2016-02-16 | Intouch Technologies, Inc. | Systems and methods for dynamic bandwidth allocation |
US9323250B2 (en) | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
US8718837B2 (en) | 2011-01-28 | 2014-05-06 | Intouch Technologies | Interfacing with a mobile telepresence robot |
US10769739B2 (en) | 2011-04-25 | 2020-09-08 | Intouch Technologies, Inc. | Systems and methods for management of information among medical providers and facilities |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
US9098611B2 (en) | 2012-11-26 | 2015-08-04 | Intouch Technologies, Inc. | Enhanced video interaction for a user interface of a telepresence network |
RU2624107C2 (ru) | 2011-09-13 | 2017-06-30 | Конинклейке Филипс Н.В. | Автоматическое онлайновое совмещение между роботом и изображениями |
US8836751B2 (en) | 2011-11-08 | 2014-09-16 | Intouch Technologies, Inc. | Tele-presence system with a user interface that displays different communication links |
US9251313B2 (en) | 2012-04-11 | 2016-02-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US8902278B2 (en) | 2012-04-11 | 2014-12-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US9361021B2 (en) | 2012-05-22 | 2016-06-07 | Irobot Corporation | Graphical user interfaces including touchpad driving interfaces for telemedicine devices |
EP2852475A4 (en) | 2012-05-22 | 2016-01-20 | Intouch Technologies Inc | SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT |
US9057600B2 (en) | 2013-03-13 | 2015-06-16 | Hansen Medical, Inc. | Reducing incremental measurement sensor error |
US9271663B2 (en) | 2013-03-15 | 2016-03-01 | Hansen Medical, Inc. | Flexible instrument localization from both remote and elongation sensors |
BR112015023547B8 (pt) | 2013-03-15 | 2022-09-27 | Synaptive Medical Inc | Montagem de braço automatizado para uso usado durante um procedimento médico sobre uma parte anatômica |
US10799316B2 (en) | 2013-03-15 | 2020-10-13 | Synaptive Medical (Barbados) Inc. | System and method for dynamic validation, correction of registration for surgical navigation |
US9629595B2 (en) | 2013-03-15 | 2017-04-25 | Hansen Medical, Inc. | Systems and methods for localizing, tracking and/or controlling medical instruments |
US9014851B2 (en) | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US11020016B2 (en) | 2013-05-30 | 2021-06-01 | Auris Health, Inc. | System and method for displaying anatomy and devices on a movable display |
EP3443925B1 (en) | 2014-05-14 | 2021-02-24 | Stryker European Holdings I, LLC | Processor arrangement for tracking the position of a work target |
EP3349649B1 (en) | 2015-09-18 | 2022-03-09 | Auris Health, Inc. | Navigation of tubular networks |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
JP6657933B2 (ja) * | 2015-12-25 | 2020-03-04 | ソニー株式会社 | 医療用撮像装置及び手術ナビゲーションシステム |
EP4186458A1 (en) | 2016-05-23 | 2023-05-31 | MAKO Surgical Corp. | System for tracking a physical object |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
WO2018183727A1 (en) | 2017-03-31 | 2018-10-04 | Auris Health, Inc. | Robotic systems for navigation of luminal networks that compensate for physiological noise |
US11862302B2 (en) | 2017-04-24 | 2024-01-02 | Teladoc Health, Inc. | Automated transcription and documentation of tele-health encounters |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
CN116725667A (zh) | 2017-06-28 | 2023-09-12 | 奥瑞斯健康公司 | 提供定位信息的系统和在解剖结构内定位器械的方法 |
KR102578978B1 (ko) | 2017-06-28 | 2023-09-19 | 아우리스 헬스, 인코포레이티드 | 전자파 왜곡 검출 |
US10483007B2 (en) | 2017-07-25 | 2019-11-19 | Intouch Technologies, Inc. | Modular telehealth cart with thermal imaging and touch screen user interface |
US11636944B2 (en) | 2017-08-25 | 2023-04-25 | Teladoc Health, Inc. | Connectivity infrastructure for a telehealth platform |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
EP3476358B8 (de) * | 2017-10-27 | 2020-10-21 | Siemens Healthcare GmbH | System zum nachverfolgen einer position eines zielobjekts |
KR20200100613A (ko) | 2017-12-14 | 2020-08-26 | 아우리스 헬스, 인코포레이티드 | 기구 위치 추정을 위한 시스템 및 방법 |
US11160615B2 (en) | 2017-12-18 | 2021-11-02 | Auris Health, Inc. | Methods and systems for instrument tracking and navigation within luminal networks |
JP7214747B2 (ja) | 2018-03-28 | 2023-01-30 | オーリス ヘルス インコーポレイテッド | 位置センサの位置合わせのためのシステム及び方法 |
US10827913B2 (en) | 2018-03-28 | 2020-11-10 | Auris Health, Inc. | Systems and methods for displaying estimated location of instrument |
US10617299B2 (en) | 2018-04-27 | 2020-04-14 | Intouch Technologies, Inc. | Telehealth cart that supports a removable tablet with seamless audio/video switching |
KR102499906B1 (ko) | 2018-05-30 | 2023-02-16 | 아우리스 헬스, 인코포레이티드 | 위치 센서-기반 분지부 예측을 위한 시스템 및 방법 |
KR102455671B1 (ko) | 2018-05-31 | 2022-10-20 | 아우리스 헬스, 인코포레이티드 | 이미지-기반 기도 분석 및 매핑 |
KR102567087B1 (ko) | 2018-05-31 | 2023-08-17 | 아우리스 헬스, 인코포레이티드 | 생리학적 잡음을 검출하는 내강 네트워크의 내비게이션을 위한 로봇 시스템 및 방법 |
WO2019231891A1 (en) | 2018-05-31 | 2019-12-05 | Auris Health, Inc. | Path-based navigation of tubular networks |
ES1215739Y (es) * | 2018-06-15 | 2018-10-17 | Fundacion Instituto De Investig Marques De Valdecilla | Equipo de referencia de navegación en cirugía robótica asistida mediante navegación estereotáxica de los órganos y partes blandas de la zona pélvica de un paciente |
CN109036520B (zh) * | 2018-07-14 | 2021-11-16 | 杭州三坛医疗科技有限公司 | 骨折或断骨定位系统及其定位方法 |
US11607810B2 (en) | 2018-09-13 | 2023-03-21 | The Charles Stark Draper Laboratory, Inc. | Adaptor for food-safe, bin-compatible, washable, tool-changer utensils |
US11576561B2 (en) * | 2019-08-08 | 2023-02-14 | Ankon Medical Technologies (Shanghai) Co., Ltd. | Control method, control device, storage medium, and electronic device for magnetic capsule |
US11147633B2 (en) | 2019-08-30 | 2021-10-19 | Auris Health, Inc. | Instrument image reliability systems and methods |
CN114340542B (zh) | 2019-08-30 | 2023-07-21 | 奥瑞斯健康公司 | 用于位置传感器的基于权重的配准的系统和方法 |
WO2021044297A1 (en) | 2019-09-03 | 2021-03-11 | Auris Health, Inc. | Electromagnetic distortion detection and compensation |
CN114901192A (zh) | 2019-12-31 | 2022-08-12 | 奥瑞斯健康公司 | 用于经皮进入的对准技术 |
KR20220123273A (ko) | 2019-12-31 | 2022-09-06 | 아우리스 헬스, 인코포레이티드 | 해부학적 특징부 식별 및 표적설정 |
KR20220123087A (ko) | 2019-12-31 | 2022-09-05 | 아우리스 헬스, 인코포레이티드 | 경피 접근을 위한 정렬 인터페이스 |
CN111227935A (zh) * | 2020-02-20 | 2020-06-05 | 中国科学院长春光学精密机械与物理研究所 | 一种手术机器人导航定位系统 |
WO2023227200A1 (en) * | 2022-05-24 | 2023-11-30 | Brainlab Ag | Robotic calibration |
WO2023248005A1 (en) * | 2022-06-23 | 2023-12-28 | Lem Surgical Ag | Robotic compilation of multiple navigation markers |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350733A (ja) * | 1999-06-10 | 2000-12-19 | Olympus Optical Co Ltd | 位置決めフレーム及び手術ナビゲーション装置 |
JP2001104332A (ja) * | 1999-10-07 | 2001-04-17 | Olympus Optical Co Ltd | 医療用ナビゲーションシステム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2259156B1 (ja) * | 1974-01-28 | 1979-09-28 | Metallgesellschaft Ag | |
JP3242108B2 (ja) * | 1992-01-30 | 2001-12-25 | 富士通株式会社 | ターゲットマークの認識・追跡システム及び方法 |
GB2303942A (en) * | 1995-07-28 | 1997-03-05 | Armstrong Projects Ltd | Aligning cannula or guide with line on X-ray images |
US6226548B1 (en) * | 1997-09-24 | 2001-05-01 | Surgical Navigation Technologies, Inc. | Percutaneous registration apparatus and method for use in computer-assisted surgical navigation |
FR2779339B1 (fr) * | 1998-06-09 | 2000-10-13 | Integrated Surgical Systems Sa | Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application |
US6430434B1 (en) * | 1998-12-14 | 2002-08-06 | Integrated Surgical Systems, Inc. | Method for determining the location and orientation of a bone for computer-assisted orthopedic procedures using intraoperatively attached markers |
US6491699B1 (en) * | 1999-04-20 | 2002-12-10 | Surgical Navigation Technologies, Inc. | Instrument guidance method and system for image guided surgery |
GB0127659D0 (en) * | 2001-11-19 | 2002-01-09 | Acrobot Company The Ltd | Apparatus and method for registering the position of a surgical robot |
JP2003264216A (ja) * | 2002-03-08 | 2003-09-19 | Murata Mach Ltd | 搬送システム |
WO2005032390A1 (fr) * | 2003-10-09 | 2005-04-14 | Ap Technologies Sa | Dispositif pour traitement medical assiste par robot |
SE0401928D0 (sv) * | 2004-07-26 | 2004-07-26 | Stig Lindequist | Method and arrangement for positioning a tool |
-
2005
- 2005-07-06 GB GB0513876A patent/GB2428110A/en not_active Withdrawn
-
2006
- 2006-07-06 ES ES06755719T patent/ES2319572T3/es active Active
- 2006-07-06 EP EP06755719A patent/EP1910040B1/en not_active Not-in-force
- 2006-07-06 WO PCT/GB2006/002501 patent/WO2007003949A1/en not_active Application Discontinuation
- 2006-07-06 AT AT06755719T patent/ATE417711T1/de not_active IP Right Cessation
- 2006-07-06 JP JP2008518979A patent/JP2008544795A/ja active Pending
- 2006-07-06 US US11/994,611 patent/US20080201016A1/en not_active Abandoned
- 2006-07-06 DE DE602006004350T patent/DE602006004350D1/de not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350733A (ja) * | 1999-06-10 | 2000-12-19 | Olympus Optical Co Ltd | 位置決めフレーム及び手術ナビゲーション装置 |
JP2001104332A (ja) * | 1999-10-07 | 2001-04-17 | Olympus Optical Co Ltd | 医療用ナビゲーションシステム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011502807A (ja) * | 2007-11-19 | 2011-01-27 | クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | ロボット具有装置、医療ワークステーションおよび、対象物を位置決めする方法 |
JP2019501710A (ja) * | 2015-12-28 | 2019-01-24 | ザクト ロボティクス リミテッド | 調節可能レジストレーションフレーム |
US11684428B2 (en) | 2015-12-28 | 2023-06-27 | Xact Robotics Ltd. | Adjustable registration frame |
JP2019526127A (ja) * | 2016-07-26 | 2019-09-12 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 工作機械の端部要素を制御する方法および工作機械 |
US11498219B2 (en) | 2016-07-26 | 2022-11-15 | Siemens Aktiengesellschaft | Method for controlling an end element of a machine tool, and a machine tool |
KR20190056637A (ko) * | 2017-11-17 | 2019-05-27 | 주식회사 고영테크놀러지 | 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법 |
WO2019098742A3 (ko) * | 2017-11-17 | 2019-07-18 | 주식회사 고영테크놀러지 | 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법 |
KR102079209B1 (ko) | 2017-11-17 | 2020-02-19 | 주식회사 고영테크놀러지 | 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법 |
Also Published As
Publication number | Publication date |
---|---|
EP1910040A1 (en) | 2008-04-16 |
WO2007003949A1 (en) | 2007-01-11 |
EP1910040B1 (en) | 2008-12-17 |
ES2319572T3 (es) | 2009-05-08 |
US20080201016A1 (en) | 2008-08-21 |
ATE417711T1 (de) | 2009-01-15 |
GB2428110A (en) | 2007-01-17 |
GB0513876D0 (en) | 2005-08-10 |
DE602006004350D1 (de) | 2009-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008544795A (ja) | ロボットおよびロボットを登録する方法 | |
US11376081B2 (en) | Motorized full field adaptive microscope | |
EP2298223A1 (en) | Technique for registering image data of an object | |
US8238631B2 (en) | System and method for automatic registration between an image and a subject | |
JP4220780B2 (ja) | 手術システム | |
US20220022979A1 (en) | System And Method For Registration Between Coordinate Systems And Navigation | |
JP4822634B2 (ja) | 対象物の案内のための座標変換を求める方法 | |
US8682413B2 (en) | Systems and methods for automated tracker-driven image selection | |
JP5249343B2 (ja) | ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法 | |
EP3326564A1 (en) | Registering three-dimensional image data of an imaged object with a set of two-dimensional projection images of the object | |
JP2019504714A (ja) | 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法 | |
KR20170035831A (ko) | 인텔리전트 포지셔닝 시스템과 그것의 방법들 | |
EP3908221B1 (en) | Method for registration between coordinate systems and navigation | |
JP2008126075A (ja) | Ctレジストレーション及びフィードバックの視覚的検証のためのシステム及び方法 | |
US11672607B2 (en) | Systems, devices, and methods for surgical navigation with anatomical tracking | |
JP2024038488A (ja) | 汎用マルチアームロボット外科用システム | |
CN111096795B (zh) | 用于机器人的释放模式 | |
EP3733112A1 (en) | System for robotic trajectory guidance for navigated biopsy needle | |
EP4104786A1 (en) | Technique for determining poses of tracked vertebrae | |
US20220031397A1 (en) | System and method for preliminary registration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110927 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120321 |