JP2008544795A - ロボットおよびロボットを登録する方法 - Google Patents

ロボットおよびロボットを登録する方法 Download PDF

Info

Publication number
JP2008544795A
JP2008544795A JP2008518979A JP2008518979A JP2008544795A JP 2008544795 A JP2008544795 A JP 2008544795A JP 2008518979 A JP2008518979 A JP 2008518979A JP 2008518979 A JP2008518979 A JP 2008518979A JP 2008544795 A JP2008544795 A JP 2008544795A
Authority
JP
Japan
Prior art keywords
robot
indicator
workpiece
marker
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008518979A
Other languages
English (en)
Inventor
パトリック,アームストロング,フィンレイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Prosurgics Ltd
Original Assignee
Prosurgics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Prosurgics Ltd filed Critical Prosurgics Ltd
Publication of JP2008544795A publication Critical patent/JP2008544795A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Image Processing (AREA)
  • Surgical Instruments (AREA)

Abstract

ロボット(40)が、器具または道具(46)を運搬する制御可能なアーム(43、44)を有する。ロボット(40)は、加工対象物上に存在するマーカー(2)およびインジケーター(22)の画像を含む加工対象物の画像を取得するためのカメラ(45)を備える。ロボット(40)は、ロボット(40)の空間基準座標系内のマーカー(2)の位置を決定するために画像を処理する工程を有する。ロボット(40)は、加工対象物に対して相対的にアーム(43、44)が運搬する器具または道具(46)の既定の動きを実行するため制御される。マーカー(2)が隠れているときにインジケーター(22)の位置を決定しロボット(40)の空間基準座標系内のインジケーター(22)の動きに反応して、インジケーター(22)の新しい位置およびそれにより加工対象物の新しい位置を決定するため、さらにプロセッサーが配置される。その後ロボット(40)は、加工対象物の新しい位置に対して相対的に制御され、加工対象物に対して相対的に既定の動きを実行する。
【選択図】図6

Description

本発明は、ロボットに関し、またロボットを登録する方法に関する。
ロボットが加工対象物に作用するときは、ロボットが加工対象物に対し正確に作動し加工対象物上の正確に既定された点で望ましい機能を遂行することができるよう、加工対象物の正確な方向および位置がロボットの空間基準座標系内で決定されることが必要である。
ロボットが使用される多くの状況において、ロボットは、正確に知られている寸法および形の加工対象物に作動するようプログラムされ、加工対象物は、ロボットに対して相対的な既定の位置でロボットに提示される。そのような状況の一例が、ロボットが自動車の組立てライン上で作動する場合であり、この場合、各加工対象物は、正確に知られている寸法および形を有し、正確に定められた作業台に置かれる。そのような状況において、ロボットは、ロボットが遂行すべき作業に特有の一連の動きを遂行するよう事前にプログラミングすることができる。
しかしながら、ロボットが作業を遂行できるときまでに加工対象物が既定の位置にない場合、ロボットが加工対象物に対して相対的な動きを遂行できるときまでに、加工対象物の正確な方向および位置をロボットの基準座標系内で決定することが必要である。加工対象物の寸法および形ならびにその他の特性が大まかに知られているが正確な詳細が標本ごとに異なっている状況でロボットが加工対象物に対し作業を遂行しなければならない場合もある。実例は、手作りの品目および半剛体材料もしくは変形可能材料から作られた品目を含む場合があるが、特定の実例は、例えば、生体組織が患者の一部を構成する場合および外科医が使用する特定の器具またはその他の道具を保持または誘導するために手術室内でロボットが使用される場合における生体組織である。
ロボットが手術室内で使用される場合、ロボットの作業が、特定の内部のターゲットまたは経路に到達するために「加工対象物」または患者を貫通する段階を伴うことは珍しいことではない。多くの場合、特にロボットが手術室内のヒト患者に作用する状況において、内部のターゲットまたは経路は、加工対象物または患者の表面から全く見ることができない。しかしながら、ロボットが正確に内部のターゲットまたは経路に到達することは不可欠である。
こうした種類の作業のためのロボットに適切な座標および命令を指定するために使用されてきた従来の方法は、画像誘導法の使用を伴う。この技術を利用するにあたり、X線、磁気共鳴画像法、超音波画像診断または他のいくつかの類似技術を使用することにより、「加工対象物」(これは患者の一部のみ、例えば患者の頭部でもよい)の画像が取得される。利用する画像技術は、内部のターゲットまたは経路が明らかとなるかまたはこれを決定できるように選択する。
内部のターゲットまたは経路の絶対位置を決定するために使用することができる空間基準座標系が存在するよう、生成された画像内で見ることができる一連の「マーカー」が患者の関連部分に取り付けられる。マーカーは、例えば、患者の頭部に取り付けられた小型の金属性マーカーでもよい。
それにより患者の関連部分の画像が生成され、画像は、コンピューター処理されて人間オペレーターにとって便利な形式で表示することができる。オペレーターの選択および内部のターゲットまたは経路の性質に応じて、加工対象物を通る一連の「スライス」として、または指定された点を通る3面図として、または代替的に3次元再構成として、画像を表示することができる。この目的のために利用できる多種の画像処理アルゴリズムが存在する。
マウスなどの適切な位置指示装置を使用して、人間オペレーターは次に、ターゲットが位置する患者の関連部分のコンピューター処理された画像上で指定することができる。ターゲットは、例えば腫瘍でもよい。オペレーターは、ロボットがターゲットに到達するための適切な進入路を指示することもできる。ターゲットまたは要求される進入路は、基準座標系に対して相対的に効果的に定められ、これが3次元空間座標の組合せを構成するが、マーカーの位置も、同一の基準座標系または同一の空間座標を基準として定められる。
望ましい進入路の主要点の座標に加えターゲット自体も、オペレーターが位置指示装置を用いて指定したピクセル(平面画素)またはボクセル(立体画素)から容易に決定することができる。
一旦ターゲットおよび経路が定められると、ロボットの制御装置が利用することができる一連の命令を生成することができ、この結果ロボットは、ロボットが運搬する器具またはエンド・エフェクターにターゲットへの望ましい進路を辿らせるよう適切な動きを実行する。
しかしながら、命令は、患者の関連部分の画像の基準座標系を参照し、ロボットは、自らの「内部の」基準座標系を有する。
従って、ロボットを利用してロボット制御装置が与える命令を実行するときまでに、患者の関連部分の画像の基準座標系にロボットの内部の基準座標系を「登録」または相関させるための「登録」処理を行わなければならない。このようにして、ロボットが命令を実行するときに、ロボットが実行する器具またはエンド・エフェクターが実際に正確な進路を辿り適切な動きを実行することを確実とすることができる。
ロボットを提供し、最初に患者の関連部分のコンピューター処理された画像を作成するときに使用されるマーカーの画像を取得することができるロボットの一部の上に取り付けたカメラを使用することにより、患者の一部などの対象に対して相対的にロボットの位置を登録する(WO99/42257を参照)ことが提案されてきた。その結果、ロボット上のカメラは、マーカーの画像を取得することができ、ロボットの内部基準座標系または内部空間座標の中でそれらのマーカーの正確な位置を決定することができる。しかしながら、最初の画像を取得するときに使用される基準座標系または空間座標に対して相対的にマーカーの位置が知られているため、患者の基準座標系はロボットの基準座標系に相関させることができ、これにより患者の画像の基準座標系で定められたターゲットまたは進路の正確な座標は、ロボットの基準座標系中の対応する座標に「翻訳」することができ、これによりロボットが適切な一連の命令に従うことが可能となる。
この種の装置が利用されるときは、手術が行われる患者の部分を定位置にしっかりと固定し、次にロボットの内部基準座標系を患者の関連部分の画像の基準座標系に効果的に相関させることによりロボットを調整することが通常である。ロボットの主要部分と患者の関連部分が両方とも定位置でしっかりと固定されているため、ロボットはその後、作成された命令の組合せに従い、既定の方法で正確に器具またはエンド・エフェクターを動かすことができる。
しかしながら、患者の関連部分が万一移動した場合、患者の関連部分の基準座標系とロボットの基準座標系との間の相関がないため、もはやロボットを使用することができない。典型的には患者の関連部分が滅菌ドレープに覆われておりロボットが運搬するカメラからマーカーを見ることができなくなっているため、この段階で相関を再び生み出すことはできない。
本発明は、改良されたロボットおよび改良された方法を提供することを求める。
本発明の1つの態様に従いロボットが提供され、ロボットは、器具または道具を運搬する制御可能なアームを備えており、ロボットは、加工対象物上に存在するマーカーおよびインジケーターの画像を含む加工対象物の視覚画像を取得するための視覚画像取得装置を備えており、ロボットは、画像を処理するためのプロセッサーを含んでおり、プロセッサーは、ロボットの空間基準座標系における加工対象物の位置を決定するためロボットの空間基準座標系内でマーカーの位置を決定し、加工対象物に対して相対的にアームが運搬する器具または道具の既定の動きを実行するためにロボットを制御するよう設定されており、プロセッサーはさらに、マーカーが隠れているときに前記インジケーターの位置を決定しロボットの空間基準座標系内の前記インジケーターの動きに反応して、インジケーターの新しい位置およびそれにより加工対象物の新しい位置を決定し、その結果加工対象物に対して相対的に既定の動きを実行し続けるようロボットを制御する。
好ましくは、ロボットは、加工対象物およびマーカーの一または複数の画像の形式によるかまたは当該画像に由来するデータならびに既定の動きに関する情報を受け取るよう設定されており、既定の動きは、マーカーに対して相対的な基準座標系内で定められる。
好都合には、ロボットは、外科医による使用のためのものであり、制御可能なアームは、外科医の器具または道具を運搬するため改造される。
有利には、ロボットは、加工対象物に装置を接続するため加工対象物を固定する要素を備えた装置と組み合わせられ、その装置が前記インジケーターを支える。
好都合には、インジケーターは、取り外しできるように前記装置に接続される。
好ましくは、インジケーターは、平坦な面を定めるヘッドを有し、その面には面を横切って通る軸を示すため印が付けられ、ヘッドはステムにより運搬され、ステムは装置上のソケットで受け止められる。
本発明の別の態様に従い、ロボットに対して相対的に加工対象物を登録する方法が提供され、その方法は、視覚的なマーカーを含む加工対象物の一または複数の画像を取得する段階、加工対象物上の少なくとも1個の点を識別する段階、前記の点に道具または器具を運ぶためにロボットが運搬する道具または器具が辿るべき進路をロボットが定めるため制御信号を生成する段階、画像取得装置をロボットに取り付ける段階、マーカーの画像を取得するために画像取得装置を利用する段階、前記画像取得装置を使用して取得された画像を処理し前記進路に沿って道具または器具を動かすためにロボットを制御するためプロセッサーを利用する段階、マーカーに対して相対的な既定の空間的位置を有するインジケーターを提供する段階、インジケーターの位置を決定するため前記画像取得装置からの画像をプロセッサー内で処理する段階、マーカーを隠す段階、インジケーターの位置を監視する段階、ならびに道具または器具が前記進路に沿って動き続けるようロボットを制御することによりロボットの基準座標系に対して相対的にインジケーターの動きに反応する段階を含む。
好都合には、インジケーターは、加工対象物に固定された装置上に取り外しできるよう装着され、方法は、マーカーを隠す前に前記装置からインジケーターを取り外す段階、およびマーカーを隠した後にインジケーターを同一であるが滅菌されたインジケーターと交換する段階を含む。
有利には、マーカーを隠すことは、加工対象物に滅菌ドレープをあてがうことにより実行する。
好ましくは、一または複数の画像を取得する段階は、X線またはNMRまたは超音波の装置を利用して実行される。
好都合には、画像を処理する段階は、画像を分析し加工対象物上の前記の少なくとも1個の点を識別するためにポインターを使用するため人間オペレーターを使用して実行される。
本発明がより容易に理解されるよう、またその追加の特徴が認識されるよう、ここで、以下の添付する図面を参照して実施例により本発明を説明する:
図1は、患者の頭部の形の「加工対象物」の画像を描くための装置の線図であり、
図2は、ブロック線図であり、
図3は、インジケーターを備えた定位フレームの図であり、
図4は、患者の頭部にあてがった定位フレームの図であり、
図5は、定位フレームを付けた患者の図であり、定位フレームは手術台に固定されており、図はロボットも図示しており、
図6は、定位フレーム上に装着されたインジケーターを示す図5のものと同様の図であり、
図7は、インジケーターが突き出した、ドレープされたときの患者を示す図6に対応する図であり、
図8は、ブロック図であり、かつ
図9は、追加のブロック図である。
最初に添付の図の図1を参照すると、コンピューター制御されたロボットを用いて手術される加工対象物は、ヒトの頭部の形で図示されている。頭部に装着されているのは、複数のマーカー2である。マーカーは、見ることができるマーカーであり、容易に見ることができるよう頭部の外側に装着されている。マーカーは、この実施形態においては、放射線不透過性である。
頭部または加工対象物1は、X線源3とX線感受性スクリーン4との間で、画像取得装置において定位置で図示される。こうして頭部のX線画像を描くことができ、画像は当然のことながら放射線不透過性のマーカー2を含む。
X線源およびスクリーンに対して相対的な相異なる位置に加工対象物または頭部を置いて複数の画像が描かれ、これにより、結果として生じた画像の組合せが処理され、マーカーを加えた加工対象物の3次元の再現、または3面画像を描くことができると予想される。もちろん画像作成装置は、連続する側断面図すなわち「スライス」に相当する一連の画像を描くCAT(コンピューター体軸断層撮影)装置でもよく、ここまでX線画像の作成に関連して本発明を説明してきたが、NMRおよび超音波技術を含む他の多くの画像作成技術を利用することができると理解すべきである。
次に図2を参照すると、5で複数の画像が作成された後、ヒトの頭部1内のターゲットを識別するため画像が処理される。ターゲットは、例えば腫瘍でもよい。ターゲットの識別、図2で示す段階6は、複数の画像を検討することにより、また選択的にコンピューターにより画像を処理することにより、行うことができる。ターゲットは、上述したように、ポインターを使用する人間オペレーターが明確に識別することができる。
ターゲットの識別の後、一連の命令がロボットのため7で生成され、命令は、ロボットが運搬する器具または道具(46)の移動の望ましい進路を指示する。命令は、3次元空間においてロボットが運搬する道具または器具の既定の動きを定めるよう生成され、その結果、3次元空間が基準座標系または空間座標の組合せにより識別され、同一の基準座標系および空間座標の組合せがマーカー2のそれぞれの正確な位置を決定するために使用される。これにより命令は、マーカー2に対して相対的な道具または器具の特定の既定の動きを効果的に決定する。
その後、患者の頭部に定位フレームを備え付ける。図3は、典型的な定位フレームを図示するが、定位フレームの多くの型が存在すると理解すべきである。
図3を参照すると、図示された定位フレーム8は、患者の頭部上に装着されるよう配置されたベース・リング9を備えている。ベース・リング9は、後部バー12が相互に連結する実質的に水平のサイド・アーム10、11を含む。後部バー12には、取付けねじ13が付いている。サイド・アーム10および11の前端は、ヨーク14が相互に連結し、ヨーク14は、患者の顎の前面に位置する前に突き出たU字型部分15を有している。ヨークは、U字型部分15の両端で直立アーム16、17を備え、それぞれの直立アームには、その上端に取付けねじ18、19が付いている。
U字型ヨークは、インジケーター22のステム21を受けるためのソケット20を備えている。インジケーター22は、ステム21およびヘッド23から構成され、ヘッド23は、ヘッドの正確な方向を示すため平坦な面を横切って通る軸を示すためヘッドの平坦な面の上に標識24を備えている。理解されるように、インジケーターの正確な設計は、本発明にとって不可欠ではないが、インジケーターの視覚画像を分析することにより3次元空間におけるインジケーターの正確な位置および方向を決定することが可能となるようインジケーターを設計する必要がある。説明する実施形態において、インジケーターは、取り外しできるよう定位フレームに接続される。
図示した定位フレームは、2個のサイド・アーム10および11上で上に延びる弓形の半円状の輪25を備え、半円状の輪25は、スライドできるようにして道具の運搬具26を支える。
インジケーター22が定位フレーム上で定位置に装着されるとき、インジケーターのヘッド23は、定位フレームの台に対して相対的に3次元空間における正確な既定の位置を有すると理解すべきである。定位フレームが頭部1に対して相対的に取り付けられ、それによりマーカー2に対して相対的に固定されるため、インジケーター22のヘッド23は、マーカー2との間で正確に決定された空間的関係を有する。従って、インジケーターのヘッド23の正確な位置および方向が特定の基準座標系において知られているなら、マーカー2が隠れていても、当該基準座標系内のマーカーの位置を容易に決定することができる。
患者の頭部上にベース・リングを配置し、その後患者の頭蓋の骨部分に噛み合うまで取付けねじ13、18および19を締めることにより、上述のように定位フレームが患者の頭部1上に装着されると理解すべきである。これにより定位フレームは、患者の頭部に対して相対的に定位置でしっかりと装着される。
次に患者を手術台30に置くことができ、定位フレームは、適切な締め具31により手術台に固定することができる。これにより定位フレームは、しっかりと定位置で固定される。
この段階では、マーカー2を見ることができる。
ロボット40が提供される。ロボット40は、定位置に固定され、従って手術台30に留められた定位フレーム8と既定の空間的関係にあるハウジング41を含む。ハウジング41は、垂直支柱42を支え、垂直支柱の上端は、中間アーム43を枢動可能な状態で支え、中間アームは次に、その自由端において、枢動可能な状態で装着された道具または器具の運搬アーム44を支える。道具または器具の運搬アーム44には、カメラ45を装着する。道具または器具の運搬アーム44は、道具または器具46を支えると図示される。もちろん、多くの異なる種類のロボットを本発明に使用するため構想することができる。
カメラ45は、テレビ・カメラ、デジタル・カメラ、CCD装置、その他などいかなる形態のカメラでもよい。カメラは、患者の頭部1およびマーカー2の視覚画像を取得するよう改造され、以下で説明するように、インジケーター22の視覚画像も取得するよう改造される。
図6は、定位フレームに装着されたインジケーター22を図示した図5に対応する図である。インジケーター22のヘッド23は、患者の頭部との間で既定の空間的関係を有する。図7は、患者が滅菌ドレープで覆われたときに存在する状況を図示している;これによりマーカー2は隠れるが、滅菌インジケーターは露出したままとなる。
患者が最初に手術台に置かれたとき、ロボットに対して相対的に患者を「登録」することが必要であり、その結果ロボットが運搬する道具または器具が辿るべき進路を識別するよう生成された命令をロボット自体の基準座標系または空間座標に「翻訳」することができると理解すべきである。従って、最初にカメラ45は、カメラが特定の位置にあるとき頭部1の画像を取得し、カメラからの画像は、図8に示すようにプロセッサーに送られる。プロセッサー8は、図1の画像取得装置から得られる画像またはデータも受け取り、プロセッサーは、図1の画像取得装置で利用される基準座標系をロボットの基準座標系に効果的に相関させる。これによりプロセッサーは、ロボットの制御装置に信号を送ることができ、この結果、ロボットの器具運搬アーム44が運搬する道具または器具は、患者に対して相対的に望ましい操作を実行する。
ここで図9を参照すると、プロセッサーは、ロボット・カメラ45から画像を受け取ると同時に、ロボットの基準座標系におけるマーカー2の位置を効果的に決定する。マーカーの位置は、画像取得装置の基準座標系に関して知られているため、プロセッサーは、2つの基準座標系を相関させることができ、またロボットの内部的な基準座標系において適切な命令を作成することができる。
プロセッサーはその後、インジケーターが定位フレーム上に装着されたときに、ロボットの内部的な基準座標系に関してインジケーター22の位置を決定する。インジケーター22が定位フレームに対して、またマーカー2に対しても、既定の空間的関係を有しているため、プロセッサーは、インジケーター22と図1の画像取得装置が利用する患者の基準座標系との間の絶対的な空間的関係を決定することができる。
従って、患者に覆いが掛けられ(図7参照)、マーカー2がロボット・カメラ45の視界から隠れているとき、ロボット・カメラ45は、インジケーター22(これはロボット・カメラから見ることができる)の画像を捉えることができ、これらの画像により、プロセッサーは、ロボットの基準座標系におけるマーカー2の位置を決定することができる。
マーカー2が隠れているときにインジケーター22の位置を決定しロボットの空間基準座標系内のインジケーター22の動きに反応して、インジケーター22の位置およびそれにより患者の新しい位置を決定するようプロセッサーが設定されると理解すべきである。その後プロセッサーは、患者の新しい位置に基づき、患者に対して相対的に既定の動きを実行し続けるためロボットを制御することができる。
インジケーター22の最初の画像が取得されるとき、インジケーター22は、患者が覆いを掛けられる前に定位フレーム上に適切に装着された滅菌インジケーターでもよい。患者がドレープを掛けられるときにインジケーターを定位置に残して、滅菌インジケーターを患者を覆うドレープ上に突き出したままにしてもよい。
しかしながら、代替的に、図6で図示する手順中に利用するインジケーターは非滅菌インジケーターでもよく、これをドレーピングの前に除去し、滅菌ドレープが定位置に置かれた後、滅菌ドレープ中の適切な開口部を通じて挿入される滅菌インジケーターに置き換えることができる。この手段を利用する場合、インジケーター22のステム21を受ける定位フレーム中のソケット20は、ある特定の方向で、かつある特定の挿入の程度においてのみインジケーター22のステム21をソケット20に置くことができるものとすることが不可欠である。そのような方法で、非滅菌インジケーターは、ロボットに備え付けられたカメラ45がインジケーターの画像の取得のため使用することができ、このインジケーターは、ドレーピング手順が完了した後に、絶対的に同一であるが滅菌されたインジケーターに置き換えることができる。滅菌インジケーターのヘッドは次に、非滅菌インジケーターのヘッドと全く同一の定位フレームに対して相対的な位置を占める。
カメラ45は、患者に対し手術が行われている間、インジケーターの画像を取得し続ける。プロセッサーは、定期的な時間間隔でコンピューターの基準座標系内のインジケーターの位置を決定し、インジケーターが動いたかどうかを決定するようプログラムされる。患者の頭部の望ましくない動きの結果(または患者の頭部の望ましくかつ必要な動きの結果であったとしても)インジケーターが動いた場合、プロセッサーは、カメラ45からその新しい位置におけるインジケーターの画像を受け取ると同時に、マーカー2が隠れているときのロボットの基準座標系内のインジケーターの絶対的な位置を決定するようプログラムされ、インジケーターと患者の頭部上にあるマーカーとの間の絶対的な空間的関係が知られているため、プロセッサーは、ロボットを効果的に再調整し、患者の頭部の現在の位置を考慮して、図1に示す最初の画像取得装置の基準座標系に基づき作成された命令を、ロボットの基準座標系内で適切な命令に翻訳することができる。
主として患者の頭部の形の加工対象物に関して本発明を説明してきたが、本発明は、膝や肘といった患者の他の部分に対して行われる手術に関して同様に使用することができ、または患者の部分でない「加工対象物」に対して使用することができると理解すべきである。特定の形の定位フレームに関して本発明を説明してきたが、適切な形の固定フレームまたはクランプを利用することができる。
本発明は、患者の外科手術中に使用することができ、ロボットが運搬する器具46は、手術器具でもよい。
この明細書および請求において使用される場合、「含む」(“comprises”および“comprising”)の用語ならびにその語尾変化は、指定された特徴、段階または整数が含まれることを意味する。用語は、他の特徴、段階または構成物の存在を除外すると解釈してはならない。
必要に応じて、開示された機能または開示された結果を得るための方法もしくは工程を実行するための特定の形態においてまたは当該工程を実行するための手段に関して表現された、前記の説明もしくは以下の請求項または添付の図で開示された特徴は、個別に、または当該特徴の組合せにおいて、本発明の異なる形態において本発明を実現するために利用することができる。
患者の頭部の形の「加工対象物」の画像を描くための装置の概略図。 そのブロック線図である。 インジケーターを備えた定位フレームの図。 患者の頭部にあてがった定位フレームの図。 定位フレームを付けた患者の図であり、定位フレームは手術台に固定されており、図はロボットも図示しいう。 定位フレーム上に装着されたインジケーターを示す図5のものと同様の図である。 インジケーターが突き出した、ドレープされたときの患者を示す図6に対応する図である。 そのブロック図である。 追加のブロック図である。
符号の説明
(2) マーカー
(22) インジケーター
(40) ロボット
(43,44) 制御可能なアーム
(45) カメラ
(46) 器具または道具

Claims (14)

  1. ロボットであって、ロボットが、器具または道具を運搬する制御可能なアームを備えており、ロボットが、加工対象物上に存在するマーカーおよびインジケーターの画像を含む加工対象物の視覚画像を取得するための視覚画像取得装置を備えており、ロボットが、画像を処理するためのプロセッサーを含んでおり、プロセッサーが、ロボットの空間基準座標系における加工対象物の位置を決定するためロボットの空間基準座標系内のマーカーの位置を決定し、加工対象物に対して相対的にアームが運搬する器具または道具の既定の動きを実行するためにロボットを制御するよう設定されており、プロセッサーがさらに、マーカーが隠れているときに上記のインジケーターの位置を決定しロボットの空間基準座標系内の前記インジケーターの動きに反応して、インジケーターの新しい位置およびそれにより加工対象物の新しい位置を決定し、その結果加工対象物に対して相対的に既定の動きを実行し続けるようロボットを制御するもの。
  2. ロボットが、加工対象物およびマーカーの一または複数の画像の形式によるかまたは当該画像に由来するデータならびに既定の動きに関する情報を受け取るよう設定されており、既定の動きが、マーカーに対して相対的な基準座標系内で定められる、請求項1に従ったロボット。
  3. 外科医による使用のための請求項1または請求項2に従ったロボットであって、制御可能なアームが外科医の器具または道具を運搬するため改造されるもの。
  4. 加工対象物に装置を接続するため加工対象物を固定する要素を備えた装置と組み合わせられた請求項1に従ったロボットであって、その装置が前記インジケーターを支えるもの。
  5. インジケーターが取り外しできるように前記装置に接続された、請求項4に従ったロボット。
  6. インジケーターが平坦な面を定めるヘッドを有し、その面には面を横切って通る軸を示すため印が付けられ、ヘッドはステムにより運搬され、ステムは装置上のソケットで受け止められる、請求項5に従ったロボット。
  7. ロボットに対して相対的に加工対象物を登録する方法であって、その方法が、視覚的なマーカーを含む加工対象物の一または複数の画像を取得する段階、加工対象物上の少なくとも1個の点を識別する段階、前記の点に道具または器具を運ぶためにロボットが運搬する道具または器具が辿るべき進路をロボットが定めるため制御信号を生成する段階、画像取得装置をロボットに取り付ける段階、マーカーの画像を取得するために画像取得装置を利用する段階、前記画像取得装置を使用して取得された画像を処理し前記進路に沿って道具または器具を動かすためにロボットを制御するためプロセッサーを利用する段階、マーカーに対して相対的な既定の空間的位置を有するインジケーターを提供する段階、インジケーターの位置を決定するため前記画像取得装置からの画像をプロセッサー内で処理する段階、マーカーを隠す段階、インジケーターの位置を監視する段階、ならびに道具または器具が上記の進路に沿って動き続けるようロボットを制御することによりロボットの基準座標系に対して相対的にインジケーターの動きに反応する段階を含むもの。
  8. インジケーターが加工対象物に固定された装置上に取り外しできるよう装着される請求項7に従った加工対象物を登録する方法であって、その方法が、マーカーを隠す前に前記装置からインジケーターを取り外す段階、およびマーカーを隠した後にインジケーターを同一であるが滅菌されたインジケーターと交換する段階を含むもの。
  9. マーカーを隠すことが加工対象物に滅菌ドレープをあてがうことにより実行される、請求項7または請求項8に従った方法。
  10. 一または複数の画像を取得する段階がX線またはNMRまたは超音波の装置を利用することにより実行される、請求項7乃至9のいずれかに従った加工対象物を登録する方法。
  11. 画像を処理する段階が、画像を分析し加工対象物上の前記の少なくとも1個の点を識別するためにポインターを使用するため人間オペレーターを使用して実行される、請求項7乃至10のいずれかに従った加工対象物を登録する方法。
  12. 実質的に添付の図面を参照して本書中で説明され添付の図面に示されるロボット。
  13. 実質的に添付の図面を参照して本書中で説明される加工対象物を登録する方法。
  14. 本書中で開示される新規の特徴または特徴の組合せ。
JP2008518979A 2005-07-06 2006-07-06 ロボットおよびロボットを登録する方法 Pending JP2008544795A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0513876A GB2428110A (en) 2005-07-06 2005-07-06 A robot and method of registering a robot.
PCT/GB2006/002501 WO2007003949A1 (en) 2005-07-06 2006-07-06 A robot and a method of registering a robot

Publications (1)

Publication Number Publication Date
JP2008544795A true JP2008544795A (ja) 2008-12-11

Family

ID=34856775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008518979A Pending JP2008544795A (ja) 2005-07-06 2006-07-06 ロボットおよびロボットを登録する方法

Country Status (8)

Country Link
US (1) US20080201016A1 (ja)
EP (1) EP1910040B1 (ja)
JP (1) JP2008544795A (ja)
AT (1) ATE417711T1 (ja)
DE (1) DE602006004350D1 (ja)
ES (1) ES2319572T3 (ja)
GB (1) GB2428110A (ja)
WO (1) WO2007003949A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502807A (ja) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング ロボット具有装置、医療ワークステーションおよび、対象物を位置決めする方法
JP2019501710A (ja) * 2015-12-28 2019-01-24 ザクト ロボティクス リミテッド 調節可能レジストレーションフレーム
KR20190056637A (ko) * 2017-11-17 2019-05-27 주식회사 고영테크놀러지 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법
JP2019526127A (ja) * 2016-07-26 2019-09-12 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 工作機械の端部要素を制御する方法および工作機械

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US8849679B2 (en) * 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US8554368B2 (en) * 2007-04-16 2013-10-08 Tim Fielding Frame mapping and force feedback methods, devices and systems
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
ITTV20100133A1 (it) 2010-10-08 2012-04-09 Teleios Srl Apparato e metodo per effettuare la mappatura di uno spazio tridimensionale in applicazioni medicali a scopo interventistico o diagnostico
EP2643730A4 (en) * 2010-11-25 2014-10-08 Resolution Art Inc IMAGING ROBOT
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8718837B2 (en) 2011-01-28 2014-05-06 Intouch Technologies Interfacing with a mobile telepresence robot
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
RU2624107C2 (ru) 2011-09-13 2017-06-30 Конинклейке Филипс Н.В. Автоматическое онлайновое совмещение между роботом и изображениями
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
EP2852475A4 (en) 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
BR112015023547B8 (pt) 2013-03-15 2022-09-27 Synaptive Medical Inc Montagem de braço automatizado para uso usado durante um procedimento médico sobre uma parte anatômica
US10799316B2 (en) 2013-03-15 2020-10-13 Synaptive Medical (Barbados) Inc. System and method for dynamic validation, correction of registration for surgical navigation
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
EP3443925B1 (en) 2014-05-14 2021-02-24 Stryker European Holdings I, LLC Processor arrangement for tracking the position of a work target
EP3349649B1 (en) 2015-09-18 2022-03-09 Auris Health, Inc. Navigation of tubular networks
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
JP6657933B2 (ja) * 2015-12-25 2020-03-04 ソニー株式会社 医療用撮像装置及び手術ナビゲーションシステム
EP4186458A1 (en) 2016-05-23 2023-05-31 MAKO Surgical Corp. System for tracking a physical object
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
WO2018183727A1 (en) 2017-03-31 2018-10-04 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
CN116725667A (zh) 2017-06-28 2023-09-12 奥瑞斯健康公司 提供定位信息的系统和在解剖结构内定位器械的方法
KR102578978B1 (ko) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 전자파 왜곡 검출
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
EP3476358B8 (de) * 2017-10-27 2020-10-21 Siemens Healthcare GmbH System zum nachverfolgen einer position eines zielobjekts
KR20200100613A (ko) 2017-12-14 2020-08-26 아우리스 헬스, 인코포레이티드 기구 위치 추정을 위한 시스템 및 방법
US11160615B2 (en) 2017-12-18 2021-11-02 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
JP7214747B2 (ja) 2018-03-28 2023-01-30 オーリス ヘルス インコーポレイテッド 位置センサの位置合わせのためのシステム及び方法
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
KR102499906B1 (ko) 2018-05-30 2023-02-16 아우리스 헬스, 인코포레이티드 위치 센서-기반 분지부 예측을 위한 시스템 및 방법
KR102455671B1 (ko) 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 이미지-기반 기도 분석 및 매핑
KR102567087B1 (ko) 2018-05-31 2023-08-17 아우리스 헬스, 인코포레이티드 생리학적 잡음을 검출하는 내강 네트워크의 내비게이션을 위한 로봇 시스템 및 방법
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
ES1215739Y (es) * 2018-06-15 2018-10-17 Fundacion Instituto De Investig Marques De Valdecilla Equipo de referencia de navegación en cirugía robótica asistida mediante navegación estereotáxica de los órganos y partes blandas de la zona pélvica de un paciente
CN109036520B (zh) * 2018-07-14 2021-11-16 杭州三坛医疗科技有限公司 骨折或断骨定位系统及其定位方法
US11607810B2 (en) 2018-09-13 2023-03-21 The Charles Stark Draper Laboratory, Inc. Adaptor for food-safe, bin-compatible, washable, tool-changer utensils
US11576561B2 (en) * 2019-08-08 2023-02-14 Ankon Medical Technologies (Shanghai) Co., Ltd. Control method, control device, storage medium, and electronic device for magnetic capsule
US11147633B2 (en) 2019-08-30 2021-10-19 Auris Health, Inc. Instrument image reliability systems and methods
CN114340542B (zh) 2019-08-30 2023-07-21 奥瑞斯健康公司 用于位置传感器的基于权重的配准的系统和方法
WO2021044297A1 (en) 2019-09-03 2021-03-11 Auris Health, Inc. Electromagnetic distortion detection and compensation
CN114901192A (zh) 2019-12-31 2022-08-12 奥瑞斯健康公司 用于经皮进入的对准技术
KR20220123273A (ko) 2019-12-31 2022-09-06 아우리스 헬스, 인코포레이티드 해부학적 특징부 식별 및 표적설정
KR20220123087A (ko) 2019-12-31 2022-09-05 아우리스 헬스, 인코포레이티드 경피 접근을 위한 정렬 인터페이스
CN111227935A (zh) * 2020-02-20 2020-06-05 中国科学院长春光学精密机械与物理研究所 一种手术机器人导航定位系统
WO2023227200A1 (en) * 2022-05-24 2023-11-30 Brainlab Ag Robotic calibration
WO2023248005A1 (en) * 2022-06-23 2023-12-28 Lem Surgical Ag Robotic compilation of multiple navigation markers

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350733A (ja) * 1999-06-10 2000-12-19 Olympus Optical Co Ltd 位置決めフレーム及び手術ナビゲーション装置
JP2001104332A (ja) * 1999-10-07 2001-04-17 Olympus Optical Co Ltd 医療用ナビゲーションシステム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2259156B1 (ja) * 1974-01-28 1979-09-28 Metallgesellschaft Ag
JP3242108B2 (ja) * 1992-01-30 2001-12-25 富士通株式会社 ターゲットマークの認識・追跡システム及び方法
GB2303942A (en) * 1995-07-28 1997-03-05 Armstrong Projects Ltd Aligning cannula or guide with line on X-ray images
US6226548B1 (en) * 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
FR2779339B1 (fr) * 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6430434B1 (en) * 1998-12-14 2002-08-06 Integrated Surgical Systems, Inc. Method for determining the location and orientation of a bone for computer-assisted orthopedic procedures using intraoperatively attached markers
US6491699B1 (en) * 1999-04-20 2002-12-10 Surgical Navigation Technologies, Inc. Instrument guidance method and system for image guided surgery
GB0127659D0 (en) * 2001-11-19 2002-01-09 Acrobot Company The Ltd Apparatus and method for registering the position of a surgical robot
JP2003264216A (ja) * 2002-03-08 2003-09-19 Murata Mach Ltd 搬送システム
WO2005032390A1 (fr) * 2003-10-09 2005-04-14 Ap Technologies Sa Dispositif pour traitement medical assiste par robot
SE0401928D0 (sv) * 2004-07-26 2004-07-26 Stig Lindequist Method and arrangement for positioning a tool

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350733A (ja) * 1999-06-10 2000-12-19 Olympus Optical Co Ltd 位置決めフレーム及び手術ナビゲーション装置
JP2001104332A (ja) * 1999-10-07 2001-04-17 Olympus Optical Co Ltd 医療用ナビゲーションシステム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502807A (ja) * 2007-11-19 2011-01-27 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング ロボット具有装置、医療ワークステーションおよび、対象物を位置決めする方法
JP2019501710A (ja) * 2015-12-28 2019-01-24 ザクト ロボティクス リミテッド 調節可能レジストレーションフレーム
US11684428B2 (en) 2015-12-28 2023-06-27 Xact Robotics Ltd. Adjustable registration frame
JP2019526127A (ja) * 2016-07-26 2019-09-12 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 工作機械の端部要素を制御する方法および工作機械
US11498219B2 (en) 2016-07-26 2022-11-15 Siemens Aktiengesellschaft Method for controlling an end element of a machine tool, and a machine tool
KR20190056637A (ko) * 2017-11-17 2019-05-27 주식회사 고영테크놀러지 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법
WO2019098742A3 (ko) * 2017-11-17 2019-07-18 주식회사 고영테크놀러지 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법
KR102079209B1 (ko) 2017-11-17 2020-02-19 주식회사 고영테크놀러지 정위 장치, 정위 시스템, 및 정위 시스템을 이용하는 정합 방법

Also Published As

Publication number Publication date
EP1910040A1 (en) 2008-04-16
WO2007003949A1 (en) 2007-01-11
EP1910040B1 (en) 2008-12-17
ES2319572T3 (es) 2009-05-08
US20080201016A1 (en) 2008-08-21
ATE417711T1 (de) 2009-01-15
GB2428110A (en) 2007-01-17
GB0513876D0 (en) 2005-08-10
DE602006004350D1 (de) 2009-01-29

Similar Documents

Publication Publication Date Title
JP2008544795A (ja) ロボットおよびロボットを登録する方法
US11376081B2 (en) Motorized full field adaptive microscope
EP2298223A1 (en) Technique for registering image data of an object
US8238631B2 (en) System and method for automatic registration between an image and a subject
JP4220780B2 (ja) 手術システム
US20220022979A1 (en) System And Method For Registration Between Coordinate Systems And Navigation
JP4822634B2 (ja) 対象物の案内のための座標変換を求める方法
US8682413B2 (en) Systems and methods for automated tracker-driven image selection
JP5249343B2 (ja) ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法
EP3326564A1 (en) Registering three-dimensional image data of an imaged object with a set of two-dimensional projection images of the object
JP2019504714A (ja) 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法
KR20170035831A (ko) 인텔리전트 포지셔닝 시스템과 그것의 방법들
EP3908221B1 (en) Method for registration between coordinate systems and navigation
JP2008126075A (ja) Ctレジストレーション及びフィードバックの視覚的検証のためのシステム及び方法
US11672607B2 (en) Systems, devices, and methods for surgical navigation with anatomical tracking
JP2024038488A (ja) 汎用マルチアームロボット外科用システム
CN111096795B (zh) 用于机器人的释放模式
EP3733112A1 (en) System for robotic trajectory guidance for navigated biopsy needle
EP4104786A1 (en) Technique for determining poses of tracked vertebrae
US20220031397A1 (en) System and method for preliminary registration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120321