JP5444209B2 - Frame mapping and force feedback method, apparatus and system - Google Patents
Frame mapping and force feedback method, apparatus and system Download PDFInfo
- Publication number
- JP5444209B2 JP5444209B2 JP2010503625A JP2010503625A JP5444209B2 JP 5444209 B2 JP5444209 B2 JP 5444209B2 JP 2010503625 A JP2010503625 A JP 2010503625A JP 2010503625 A JP2010503625 A JP 2010503625A JP 5444209 B2 JP5444209 B2 JP 5444209B2
- Authority
- JP
- Japan
- Prior art keywords
- observer
- coordinate system
- axis
- tool
- robot arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 51
- 238000013507 mapping Methods 0.000 title description 10
- 230000033001 locomotion Effects 0.000 claims description 63
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 10
- 239000012636 effector Substances 0.000 description 13
- 230000005484 gravity Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 241001422033 Thestylus Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000003302 ferromagnetic material Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 239000010936 titanium Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/305—Details of wrist mechanisms at distal ends of robotic arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/064—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40137—Force sensation feedback from simulated tool
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40182—Master has different configuration than slave manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40401—Convert workspace of master to workspace of slave
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45117—Medical, radio surgery manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Description
関係出願の相互参照
本出願は、参照により本明細書に組み入れてある、2007年4月16日出願の米国特許仮出願整理番号60/912144号の優先権を主張するものである。
本発明の方法、装置およびシステムがそれに関係する処理手順において使用することのできる手術ロボットの一例が、参照により本明細書に組み入れてある、米国特許第7155316号に開示されている。
CROSS REFERENCE TO RELATED APPLICATIONS This application claims priority to US Provisional Application Serial No. 60/912144, filed April 16, 2007, which is incorporated herein by reference.
An example of a surgical robot that the method, apparatus and system of the present invention can be used in the procedures associated therewith is disclosed in US Pat. No. 7,155,316, incorporated herein by reference.
本発明の方法、装置およびシステムは、全体的には手術ロボット技術の分野に関係し、より具体的には、スレーブマニピュレータの実際の位置および方位に関係なく、スレーブマニピュレータの表示位置がオペレータに対して直感的にわかるように、スレーブマニピュレータの動きをディスプレイを介してオペレータに提示することのできるやり方で、オペレータがマスターマニピュレータを制御することによって、スレーブマニピュレータの動きを制御するための技法に関係する。本発明の方法、装置およびシステムは、また、フォースフィードバックシステムに関する。
The method, apparatus and system of the present invention relate generally to the field of surgical robotics, and more specifically, the display position of the slave manipulator is relative to the operator regardless of the actual position and orientation of the slave manipulator. As can be seen intuitively, it relates to techniques for controlling slave manipulator movement by the operator controlling the master manipulator in a way that the movement of the slave manipulator can be presented to the operator via the display. . The method, apparatus and system of the present invention also relate to a force feedback system.
広義においては、本発明の技法は、オペレータによってマスターマニピュレータまたは制御装置を介して指令されるときに、スレーブマニピュレータ(例えば、特許文献1(316特許)に開示されているロボットアームなどの多自由度を有するロボットアーム)の動きを、以下のように制御することに関係する。 In a broad sense, the technique of the present invention is a multi-degree of freedom such as a slave manipulator (e.g., a robot arm disclosed in US Pat. Is related to controlling the movement of the robot arm having
オペレータが、ディスプレイを介してスレーブマニピュレータの実際の動きを目視しながら、マスターマニピュレータを操作することによって、スレーブマニピュレータに動くように指令する場合には、マスターマニピュレータの実際の位置および方位に対するスレーブマニピュレータの実際の位置および方位に関係なく、オペレータに対するその動きの表示が直感的にわかるように、スレーブマニピュレータが動き、スレーブマニピュレータの位置および方位は、任意の時間においてマスターマニピュレータの位置および方位と独立であり、ディスプレイは、表示される情報のある実際の場所に対応しない場所にある(例えば、オペレータは、(他の部屋にある)スレーブマニピュレータの隣の別の部屋に設置されたステレオカメラシステムを使用して撮られた、スレーブマニピュレータのステレオ表示を介して、スレーブマニピュレータを目視する)。 If the operator commands the slave manipulator to move by manipulating the master manipulator while viewing the actual movement of the slave manipulator through the display, the slave manipulator's actual position and orientation of the slave manipulator The slave manipulator moves and the slave manipulator position and orientation are independent of the master manipulator position and orientation at any given time, so that the display of its movement to the operator is intuitive, regardless of the actual position and orientation. The display is in a location that does not correspond to the actual location of the displayed information (for example, the operator may have a stereo camera system installed in another room next to the slave manipulator (in another room)). Use was taken via the stereo display of the slave manipulator, viewing the slave manipulator).
スレーブマニピュレータの動きをこのような方法で制御すると、オペレータおよび/またはオペレータが操作しているマスターマニピュレータに対するスレーブマニピュレータの実際の位置および方位に関係なく、スレーブマニピュレータの動きに対する直感的な感覚を、オペレータに与える。例えば、器具(例えば、手術用ツール)を保持するスレーブマニピュレータ(または、複数のマスターマニピュレータがある場合には、複数のスレーブマニピュレータ)が、表示される画像(複数を含む)を撮る実際の顕微鏡の下でオペレータがツールを保持しているかのごとく、同じ相対位置および方位において、オペレータに見える。 Controlling the movement of the slave manipulator in this way gives an intuitive feel for the movement of the slave manipulator, regardless of the actual position and orientation of the slave manipulator relative to the operator and / or the master manipulator that the operator is operating. To give. For example, a slave manipulator holding an instrument (eg, a surgical tool) (or multiple slave manipulators if there are multiple master manipulators) of the actual microscope taking the displayed image (s) The operator sees it at the same relative position and orientation as if the operator was holding the tool below.
すなわち、本発明の技法の一部の態様は、少なくとも1つの医療用ロボットアームに使用するように構成された制御システムに具現化され、この制御システムは、少なくとも次のことを実行するように構成される。すなわち、医療用ロボットアームのツールの計算による動きを決定し、この場合に、計算による動きの決定は、ユーザからの入力を提供する制御装置から受け取る入力値に基づくとともに、計算による動きはツールの方位と、観測者基準構造の方位とに基づく観測者座標系で表わされること;および計算による動きに応じて医療用ロボットアームを動かす操作信号を出力することである。操作信号は、医療用ロボットアームを適切に動かすのに十分な情報を含む、任意好適な形式のデータであればよい。例えば、操作信号は、制御システムによって医療ロボットアームの局所コントローラに出力されるか、または直接、個々の関節アクチュエータに出力される、一組の関節変位および/または関節速度を表わしてもよい。 That is, some aspects of the techniques of the present invention are embodied in a control system configured for use with at least one medical robotic arm, the control system configured to perform at least the following: Is done. That is, the calculated motion of the tool of the medical robot arm is determined. In this case, the determined motion is based on the input value received from the control device that provides the input from the user, and the calculated motion is determined by the tool. It is expressed in an observer coordinate system based on the azimuth and the azimuth of the observer reference structure; and outputs an operation signal for moving the medical robot arm in accordance with the calculated movement. The operation signal may be any suitable type of data including information sufficient to properly move the medical robot arm. For example, the operational signal may represent a set of joint displacements and / or joint velocities that are output by the control system to the local controller of the medical robotic arm or directly to individual joint actuators.
本発明の技法は、直感的にわかる方法で、オペレータにフォースフィードバック(force feedback)を提供することにも関する。フォースフィードバックは、スレーブマニピュレータにおいて測定される実際の力(ツール先端の力など)から、またはオペレータがプログラムすることができるか、またはスレーブマニピュレータの関節における(速度制限および関節角度制限を含む)制限の結果として存在する、仮想の力から、または実際の力と仮想の力の組合せから導出してもよい。実際の力は、手術用ツールを力センサとフレキシブル連結器を介してエンドエフェクタに結合することによってツール先端の力を測定するように構成されたスレーブマニピュレータによって測定してもよい。 The techniques of the present invention also relate to providing force feedback to the operator in an intuitive manner. Force feedback can be programmed from the actual force measured at the slave manipulator (such as the force at the tool tip), or by the operator, or at the slave manipulator joints (including speed limits and joint angle limits). It may be derived from the resulting virtual force or from a combination of real and virtual forces. The actual force may be measured by a slave manipulator configured to measure the tool tip force by coupling the surgical tool to the end effector via a force sensor and a flexible coupler.
フレキシブル連結器は、ツール先端力に、力センサを迂回する荷重経路を与えることなく、手術用ツールの操作を容易にすることができる。例えば、フレキシブル連結器は、その中心軸まわりの回転以外のすべての方向において順応性(compliant)をもたせて、それによって、ツール先端の力のいずれの成分をも(例えば、ロボットアームのエンドエフェクタを介して)ロボットアームに伝達しないように構成してもよい。結果的に、所与のツール先端力の全部が、力センサを介して作用する力によってバランスさせることができ、力センサにより測定される値から、そのツール先端力の計算を達成することができる。 The flexible coupler can facilitate operation of the surgical tool without providing the tool tip force with a load path that bypasses the force sensor. For example, a flexible coupler is compliant in all directions except for rotation about its central axis, thereby allowing any component of the force at the tool tip (eg, the end effector of a robot arm). (Via the robot arm). As a result, all of a given tool tip force can be balanced by the force acting through the force sensor, and calculation of that tool tip force can be achieved from the value measured by the force sensor. .
本発明の方法、装置(例えば、コンピュータ可読媒体)、およびシステム(例えば、制御システムなどのコンピュータシステム)のいずれの態様も、前記の機能、ステップ、および/または特徴を備える(comprise/include/contain/have)のではなく、それらからなる(consist of)か、または本質的にそれらからなる(consist essentially of)としてもよい。すなわち、いずれの請求項においても、「consist of」または「consist essentially of」という語句を、所与の請求項の範囲を、オープンエンド形連結動詞を使用してそうしない場合の範囲から変更するために、上記のオープンエンド形連結動詞のいずれによって代用してもよい。 Any aspect of the method, apparatus (eg, computer readable medium), and system (eg, computer system such as a control system) of the present invention comprises the aforementioned functions, steps, and / or features (comprise / include / contain). may consist of them or consist essentially of them (instead of / have). That is, in any claim, the phrase “consist of” or “consist essentially of” is intended to change the scope of a given claim from the scope that would otherwise not use an open-ended linking verb. Alternatively, any of the above open-ended linking verbs may be substituted.
以下の図面は、限定としてではなく、例として示される。同一の参照数字は、必ずしも同一の構造、システム、または表示を示すものではない。むしろ、同一の参照数字は、類似の特徴または類似の機能を備える特徴を示すのに使用される。図を分かり易くするために、各態様のすべての特徴が、その態様が表われるすべての図に常に示されるわけではない。図に示されるコントーラ装置、マニピュレータ、およびツールは、縮尺通りに描かれており、記述された要素の寸法が、互いに相対的に正確であることを意味している。 The following drawings are presented by way of example and not limitation. The same reference numerals do not necessarily indicate the same structure, system, or indication. Rather, identical reference numerals are used to indicate similar features or features with similar functions. For clarity of illustration, not all features of each aspect are always shown in every figure in which that aspect appears. The controller devices, manipulators and tools shown in the figures are drawn to scale, meaning that the dimensions of the described elements are relatively accurate relative to each other.
用語「comprise」(および、「comprises」や「comprising」などのcompriseのすべての形態)、「have」(および「has」や「having」などのhaveのすべての形態)、「include」(および「includes」や「including」などのincludeのすべての形態)および「contain」(および「contains」や「containing」などのcontainのすべての形態)は、オープンエンド形連結動詞である。すなわち、あるステップを含む方法は、少なくとも記載のステップを含むが、その記載のステップだけを有することに限定はされない。 The term "comprise" (and all forms of riserise such as "comprises" and "comprising"), "have" (and all forms of have such as "has" and "having"), "include" (and " All forms of include such as "includes" and "including") and "contain" (and all forms of contain such as "contains" and "containing") are open-ended connective verbs. That is, a method including a step includes at least the described step, but is not limited to having only the described step.
同様に、あるステップを実行するためのマシン可読命令を含む(comprising)コンピュータ可読媒体は、少なくとも記載のステップを実施するためのマシン可読命令を有するが、追加の不記載のステップを実施するためのマシン可読命令を有する媒体をも範囲に含む、コンピュータ可読媒体である。さらに、少なくともある機能を実行するように構成されたコンピュータシステムは、記載の機能だけを実行することに限定されるものではなく、システムが記載の機能を実行するように構成されている限り、明記されていない方法、または複数の方法で構成されてもよい。 Similarly, a computer readable medium comprising machine readable instructions for performing certain steps has machine readable instructions for performing at least the described steps, but for performing additional undescribed steps. A computer-readable medium that also includes a medium having machine-readable instructions. Further, a computer system configured to perform at least certain functions is not limited to performing only the described functions, as long as the system is configured to perform the described functions. It may be configured in a manner that is not done or in a plurality of ways.
用語「a」および「an」は、本明細書では、そうではないと明白に断らない限りは、1つまたは2つ以上と定義される。用語「another」は、少なくとも第2の、または2つ以上と定義される。
一部の態様においては、特許文献1(316特許)に開示されるもののような手術ロボットは、顕微鏡から見た手術シーンの画像を示す仮想顕微鏡ディスプレイを使用するオペレータによって、制御が可能である。オペレータは、そのシーンにおいて、仮想顕微鏡視界と整合して位置している、2つのハンドコントローラを使用して、マニピュレータ(ロボットのロボットアーム)を制御する。その効果は、仮想顕微鏡視界において手術用ツールを保持するマニピュレータが、外科医が実際の顕微鏡下で手術用ツールを保持しているかのような同じ相対位置と方位において、オペレータに見えることである。
The terms “a” and “an” are defined herein as one or more, unless expressly stated otherwise. The term “another” is defined as at least a second or more.
In some aspects, a surgical robot, such as that disclosed in US Pat. No. 6,057,086, can be controlled by an operator using a virtual microscope display that shows an image of the surgical scene viewed from the microscope. The operator controls the manipulator (robot arm of the robot) using two hand controllers located in alignment with the virtual microscope view in the scene. The effect is that the manipulator holding the surgical tool in the virtual microscope view is visible to the operator at the same relative position and orientation as if the surgeon is holding the surgical tool under the actual microscope.
そのような態様においては、外科医による、所与のマニピュレータの直感的な制御を達成するために、マニピュレータは、オペレータ入力に対して、外科医(オペレータ)がその手で行う動きを模倣する方向に応答しなくてはならない。外科医が、その手を自分の体から遠ざかる方向に押した場合には、その外科医は、顕微鏡視界におけるマニピュレータも、同じ視覚的方向に離れて行くことを期待するであろう。視覚的観点は、マニピュレータ上のいかなる物理基準フレームに対しても直接はマッピングされないので、仮想観測者基準フレームを作成して、オペレータが期待するものを、マニピュレータが実行するものの中にマッピングする。この基準フレームマッピングによって、ツールの動きをオペレータに対して直感的にわかるように維持しながら、ハンドコントローラスタイラスおよび手術用ツールを、独立して配向させることができる。 In such aspects, to achieve intuitive control of a given manipulator by a surgeon, the manipulator responds to an operator input in a direction that mimics the movement that the surgeon (operator) performs with his hand. I have to do it. If the surgeon pushes his hand away from his body, the surgeon would expect the manipulator in the microscope view to move away in the same visual direction. Since the visual perspective does not map directly to any physical reference frame on the manipulator, a virtual observer reference frame is created to map what the operator expects into what the manipulator performs. This reference frame mapping allows the hand controller stylus and surgical tool to be independently oriented while maintaining tool movements intuitive to the operator.
直感的マッピングを作成する目標には次のものがある:(a)ユーザに、まっすぐ近づくか、または遠ざかるスタイラスの動きから、処置を行う間、ロボットアームがそれに結合されている基台(ロボットベースとも呼ばれる)にまっすぐ近づくか、またはそれから遠ざかるツールの動きを発生させること、および(b)スタイラスの軸に沿った方向のスタイラスの動きから、ツールの軸に沿ったツールの動きを発生させることである。本発明のフレームマッピングを達成するのに使用することのできる、変換方式の決定は、参照により組み入れてある同時係属の国際出願PCT/US08/60538に開示されている位置決め方法によることを含め、任意好適な方法によって行うことができる。 The goals for creating an intuitive mapping include: (a) A platform (robot base) to which the robot arm is coupled to the user while performing a procedure, from a stylus movement that approaches or moves away from the user. Generating a tool movement along the tool axis from a stylus movement in a direction along the stylus axis, and (b) is there. The determination of the transformation scheme that can be used to achieve the frame mapping of the present invention is optional, including by the positioning method disclosed in co-pending international application PCT / US08 / 60538, which is incorporated by reference. This can be done by any suitable method.
そのような態様においては、ロボットベースから遠ざかる方向を常に指すとともに、仮想顕微鏡フレームにおいてオペレータに対して、オペレータからまっすぐに遠ざかる方向を指すように見える正方向X軸を、仮想観測者フレームは有する。ハンドコントローラ基準フレームの正方向Z軸は、スタイラスの後端から先端へと、ハンドコントローラスタイラス軸に沿った方向にある。ツールの正方向Z軸は、ツールホルダから先端に向かうツール軸に沿っており、したがって、スタイラスのZ軸にだけ沿う動きは、ツールのZ軸にだけ沿った動きを生成する。 In such an aspect, the virtual observer frame has a positive X-axis that always points in the direction away from the robot base and appears to point in the virtual microscope frame to the direction away from the operator. The positive direction Z-axis of the hand controller reference frame is in a direction along the hand controller stylus axis from the rear end to the front end of the stylus. The positive Z-axis of the tool is along the tool axis from the tool holder toward the tip, so movement only along the Z-axis of the stylus will produce movement along only the Z-axis of the tool.
そのような態様においては、仮想観測者フレーム基準軸「X」は、オペレータから遠ざかる方向を常に指すように定義され、この軸は、オペレータに示される顕微鏡画像の下部から上部へ向かう方向として、位置づけられる。実際上は、観測者フレームは、マニピュレータエンドエフェクタ上のツール軸と整列された仮想フレームであり、次の特徴を有する:「Z」は、ハンドコントローラ上のスタイラス軸にマッピングされて、ツールの長さ方向に沿って定義され;「X」は、上述のようにマッピングされて、ツール先端において、上から見たときのその軸の投影が、顕微鏡視界のX軸と常に整列するように定義され;「Y」軸は、座標フレームの右手の法則から決まる。 In such an aspect, the virtual observer frame reference axis “X” is defined to always point in the direction away from the operator, and this axis is positioned as the direction from the bottom to the top of the microscopic image shown to the operator. It is done. In practice, the observer frame is a virtual frame that is aligned with the tool axis on the manipulator end effector and has the following characteristics: “Z” is mapped to the stylus axis on the hand controller and is the length of the tool Defined along the vertical direction; “X” is mapped as described above so that at the tool tip, the projection of that axis when viewed from above is always aligned with the X axis of the microscope view. The “Y” axis is determined from the right-hand rule of the coordinate frame.
したがって、この仮想観測者フレームは、ツール先端フレームであるが、ツールX軸のロボットベースX−Y平面上への投影が、ロボットベースX軸と整列するように、ツールZ軸の回りに回転されている。マニピュレータの動きに伴って、この仮想観測者フレームは、X軸を顕微鏡カメラX軸と整列させたままに維持するために、常時ではないとしても、頻繁に更新される。このフレームは、ツールおよびマニピュレータの方位、またはツールフレームの方位とは独立である。その結果、カメラ観測者フレームにおけるXおよびYのハンドコントローラ指令は、顕微鏡カメラ画像内で見られるときに、常に意図するXおよびYの動きを生じ、スタイラスのZ移動は、常にツール軸に沿っていることになる。 Therefore, this virtual observer frame is the tool tip frame, but is rotated around the tool Z axis so that the projection of the tool X axis onto the robot base XY plane is aligned with the robot base X axis. ing. As the manipulator moves, this virtual observer frame is updated frequently, if not always, to keep the X axis aligned with the microscope camera X axis. This frame is independent of the orientation of the tool and manipulator or the orientation of the tool frame. As a result, the X and Y hand controller commands in the camera observer frame always result in the intended X and Y movement when viewed in the microscope camera image, and the stylus Z movement is always along the tool axis. Will be.
1.0 観測者フレームマッピング
以下の説明は、特許文献1(316特許)に開示されているタイプの手術ロボットでの使用に好適な、本発明のフレームマッピング技法の態様を実施する方法の一例に関する。
図1は、本発明のフレームマッピング技法での使用に好適なロボットシステムを示す。医療用ロボットアーム100および第2の医療用ロボットアーム101が共通ベースである、システムべース10に装着されている。各ロボットアームは、医療(例えば、外科)処置に好適な(計器としても特徴づけることもできる)ツールを有してもよい。
1.0 Observer Frame Mapping The following description relates to an example of a method for implementing aspects of the frame mapping technique of the present invention suitable for use with surgical robots of the type disclosed in US Pat. .
FIG. 1 illustrates a robotic system suitable for use with the frame mapping technique of the present invention. The medical robot arm 100 and the second medical robot arm 101 are attached to a system base 10 that is a common base. Each robotic arm may have a tool (which may also be characterized as an instrument) suitable for medical (eg, surgical) procedures.
図2は、本発明の態様に関係するいくつかの座標系を示している。観測者基準構造200は、(例えば医療処置の持続期間の間、)リモートオペレータに提示される画像の方位に固定されたままとなる、任意の構造とすることができる。すなわち、オペレータに医療処置の間に使用される画像を提供するオーバヘッドカメラに対して固定されている任意の構造が、観測者基準構造200としての役割を果たすことができる。図1および図2に示された態様においては、システムベース10は、カメラ21の方位に対して固定されたままとなり、したがって観測者基準構造200として好適である。図14は、医療用ロボットアーム100によって実施される処置を受ける患者の上方に設置されたオーバヘッドカメラ21を示しており、これはステレオ視カメラであってもよい。その他の好適な観測者基準構造200としては、オーバヘッドカメラ21およびオーバヘッドカメラ21に取り付けられた構造があげられる。 FIG. 2 illustrates several coordinate systems related to aspects of the present invention. The observer reference structure 200 can be any structure that remains fixed in the orientation of the image presented to the remote operator (eg, for the duration of the medical procedure). That is, any structure that is fixed relative to the overhead camera that provides the operator with images used during the medical procedure can serve as the observer reference structure 200. In the embodiment shown in FIGS. 1 and 2, the system base 10 remains fixed with respect to the orientation of the camera 21 and is therefore suitable as the observer reference structure 200. FIG. 14 shows an overhead camera 21 installed above a patient undergoing a procedure performed by the medical robot arm 100, which may be a stereo camera. Other suitable observer reference structures 200 include an overhead camera 21 and a structure attached to the overhead camera 21.
基準構造座標系210の方位は、観測者基準構造200の方位に固定されるとともに、その座標系が概して水平であって、外科処置が行われる患者の領域を指す方向に向いているX軸を有するように、選択される。この対象領域は、外科処置の間、観測者基準構造200に対して場所が概して固定されたままとなる。そのような方位によって、基準構造座標系210のX軸と、オーバヘッドカメラによってオペレータに提示される画像との間の相関が得られる。この方位の選択は、基準構造座標系210が画像の垂直軸と対応して、+X方向が画像の上部を指すようにされる。Z軸は、上方を指すように選択され、結果として得られるY軸方向は、右手座標系の慣用規則に従う。 The orientation of the reference structure coordinate system 210 is fixed to the orientation of the observer reference structure 200, and the coordinate system is generally horizontal, with the X axis pointing in the direction pointing to the patient's area where the surgical procedure is performed. Selected to have. This area of interest remains generally fixed in place relative to the observer reference structure 200 during the surgical procedure. Such orientation provides a correlation between the X axis of the reference structure coordinate system 210 and the image presented to the operator by the overhead camera. This orientation selection is such that the reference structure coordinate system 210 corresponds to the vertical axis of the image and the + X direction points to the top of the image. The Z axis is chosen to point upwards and the resulting Y axis direction follows the convention of the right hand coordinate system.
観測者座標系250の方位は、ツール400の方位および観測者基準構造200の方位から決定される。一部の態様においては、観測者座標系250のZ軸は、ツール400のツール軸460に整列し、観測者座標系250のX軸は、基準構造座標系210のX−Y平面におけるその投影が、基準構造座標系210のX軸に平行であり、かつ同一方向を指すように整列される。図6は観測者座標系250を示しており、この座標系は、(1)ツール軸460と整列されたZ軸、および(2)基準構造座標系210のX軸に対して平行であるとともに、同一方向を指す基準構造座標系210のX−Y平面における投影269を有するX軸、を有するように方位を決められている。結果として得られる観測者座標系250のY軸方向は、右手座標系の慣用規則に従う。図7〜図11は、観測者座標系250の整列をさらに示す。図11は、医療用ロボットアームのエンドエフェクタ110、ツール400、ツール軸460、およびツール軸460に整列された軸260を有する座標系250の、側面図、上面図および端面図を示す。 The orientation of the observer coordinate system 250 is determined from the orientation of the tool 400 and the orientation of the observer reference structure 200. In some aspects, the Z axis of the observer coordinate system 250 is aligned with the tool axis 460 of the tool 400, and the X axis of the observer coordinate system 250 is its projection in the XY plane of the reference structure coordinate system 210. Are aligned to be parallel to the X axis of the reference structure coordinate system 210 and to point in the same direction. FIG. 6 shows an observer coordinate system 250, which is (1) parallel to the Z axis aligned with the tool axis 460 and (2) the X axis of the reference structure coordinate system 210. The orientation is determined to have an X axis with a projection 269 in the XY plane of the reference structure coordinate system 210 pointing in the same direction. The resulting Y-axis direction of the observer coordinate system 250 follows the convention of the right-handed coordinate system. 7-11 further illustrate the alignment of the observer coordinate system 250. FIG. 11 shows a side view, top view, and end view of a coordinate system 250 having an end effector 110, a tool 400, a tool axis 460, and an axis 260 aligned with the tool axis 460 of the medical robot arm.
顕微鏡外科処置においての使用に好適なロボットアームのような、同時に作動する複数のロボットアームを含むシステムにおいては、各ロボットアームは固有の観測者座標系を有し、各観測者座標系の方位は、観測者基準構造の方位およびそれぞれのロボットアームのツールの方位に依存する。一部の態様においては、複数の観測者座標系は方位が変わることがあるが、そのすべてのものが、基準構造座標系のX−Y平面におけるその投影が、基準構造座標系のX軸と平行であり、かつそれと同一方向を指すように整列された、それぞれの観測者座標系のX軸を有することになる。 In a system that includes multiple robot arms that operate simultaneously, such as a robot arm suitable for use in a microscopic surgical procedure, each robot arm has a unique observer coordinate system, and the orientation of each observer coordinate system is , Depending on the orientation of the observer reference structure and the orientation of the tool of the respective robot arm. In some aspects, the orientations of the plurality of observer coordinate systems may change, all of which are represented by their projections in the XY plane of the reference structure coordinate system and the X axis of the reference structure coordinate system. It will have an X axis of each observer coordinate system that is parallel and aligned to point in the same direction.
図8は2本腕構成(医療用ロボットアーム100および第2の医療用ロボットアーム101)を示しており、この構成は以下を有する:(1)ツール400のツール軸460に整列された観測者座標系250であって、この観測者座標系250のX軸は、基準構造座標系210のX−Y平面におけるそのX軸の投影が、基準構造座標系210のX軸と平行であって、かつそれと同一方向を指すように整列されている、および(2)ツール401のツール軸461に整列された観測者座標系251であって、この観測者座標系そのX軸は、基準構造座標系210のX−Y平面におけるそのX軸の投影が、基準構造座標系210のX軸と平行であって、かつそれと同一方向を指すように整列されている。 FIG. 8 shows a two-arm configuration (medical robot arm 100 and second medical robot arm 101), which has the following: (1) an observer aligned with the tool axis 460 of the tool 400 The coordinate system 250, the X axis of the observer coordinate system 250 is such that the projection of the X axis on the XY plane of the reference structure coordinate system 210 is parallel to the X axis of the reference structure coordinate system 210, And (2) an observer coordinate system 251 aligned with the tool axis 461 of the tool 401, the observer coordinate system whose X axis is the reference structure coordinate system The projection of its X axis in the XY plane of 210 is aligned to be parallel to the X axis of the reference structure coordinate system 210 and pointing in the same direction.
図3は、リモートオペレータが、医療用ロボットアーム100および第2の医療用ロボットアーム101の一部の態様を制御する上で好適な、ワークステーションを示す。ビデオカメラ、磁気共鳴撮像システム、またはその他のデータ提示システムからの情報を目視するために、複数のビデオモニタがオペレータに対して利用可能である。視界装置(viewing instrument)22は、オーバヘッドステレオカメラからの高解像度画像を提供してもよい。一部の態様においては、視界装置22は、双眼顕微鏡である。コントローラ装置300および第2のコントローラ装置301は、医療用ロボットアーム100および第2の医療用ロボットアーム101のそれぞれに対して、所望する挙動のユーザ入力を与える。各コントローラ装置は、コントローラ装置座標系(350、351)と対応している。 FIG. 3 shows a workstation suitable for a remote operator to control some aspects of the medical robot arm 100 and the second medical robot arm 101. Multiple video monitors are available to the operator to view information from video cameras, magnetic resonance imaging systems, or other data presentation systems. A viewing instrument 22 may provide high resolution images from an overhead stereo camera. In some aspects, the viewing device 22 is a binocular microscope. The controller device 300 and the second controller device 301 give user inputs of desired behavior to the medical robot arm 100 and the second medical robot arm 101, respectively. Each controller device corresponds to a controller device coordinate system (350, 351).
図4は、コントローラ装置300および第2のコントローラ装置301の一態様の別の視野を示す。コントローラ装置座標系350のZ軸は、観測者座標系250のZ軸がツール400のツール軸460と整列されていたのと同様に、コントローラ装置300の垂直軸と整列されている。+X軸は、オペレータから遠ざかる方向を指すように整列されており、Y軸の方位は、右手座標系の慣用規則に従う。このコントローラ装置座標系350の整列によって、ワークステーションにおけるオペレータの視点から見た、コントローラ装置座標系350のX軸、Y軸およびZ軸が、観測者基準構造から見た観測者座標系250のX軸、Y軸およびZ軸に対して同一の方位となる(図6を参照)。観測者座標系250は、視界装置22に表示される対象領域の画像を提供するオーバヘッドカメラの方位に固定されているので、コントローラ装置座標系350のX軸、Y軸およびZ軸は、オペレータが対象領域を目視するときにオペレータに見える方向と直感的に関係している。 FIG. 4 shows another view of one aspect of the controller device 300 and the second controller device 301. The Z axis of the controller device coordinate system 350 is aligned with the vertical axis of the controller device 300 in the same manner that the Z axis of the observer coordinate system 250 is aligned with the tool axis 460 of the tool 400. The + X axis is aligned to point away from the operator, and the Y axis orientation follows the convention of the right-handed coordinate system. With the alignment of the controller device coordinate system 350, the X axis, Y axis, and Z axis of the controller device coordinate system 350 viewed from the operator's viewpoint on the workstation correspond to the X of the observer coordinate system 250 viewed from the observer reference structure. It becomes the same azimuth | direction with respect to an axis | shaft, a Y-axis, and a Z-axis (refer FIG. 6). Since the observer coordinate system 250 is fixed to the orientation of the overhead camera that provides the image of the target area displayed on the visual field device 22, the X, Y, and Z axes of the controller device coordinate system 350 are This is intuitively related to the direction seen by the operator when viewing the target area.
したがって、コントローラ装置座標系350において表わされたコントローラ装置300への入力信号は、観測者座標系250において表わされたツールの計算による動きに直接、マッピングすることができ、生成された動きは、オペレータに対して直感的にわかるものとなる。例えば、オペレータがコントローラ装置300をオペレータの体から遠ざかる方向に動かすことによって生成される、コントローラ装置座標系350のX軸における(任意単位の)+2の動きは、観測者座標系250のX方向における(同一単位での)+2の、ツール400の計算による動きに直接、マッピングすることができる。 Thus, the input signal to the controller device 300 represented in the controller device coordinate system 350 can be directly mapped to the motion of the tool represented in the observer coordinate system 250, and the generated motion is This is intuitive to the operator. For example, the +2 movement (in arbitrary units) in the X axis of the controller device coordinate system 350 generated by the operator moving the controller device 300 away from the operator's body is in the X direction of the observer coordinate system 250. It can be mapped directly to the calculated motion of the tool 400 +2 (in the same unit).
逆キネマティクス問題を解いた後に、適当な制御信号を出力して、ロボットアーム100を作動させて、観測者基準構造200からまっすぐに遠ざかる方向のツール400の動きを得ることができる。この動きは、視界装置22上では、オペレータに対して、スクリーンの上部に向かうツール400の動きとして現れ、コントローラ装置のオペレータの動きとよく一致することになる。一部の態様では、同じ方向を維持しながら、計算による動きの絶対値を拡大縮小してもよい(例えば、上記の例において、観測者座標系250のX方向における+2の代わりに+1の、ツール400の計算による動きにマッピングする)。 After solving the inverse kinematics problem, an appropriate control signal can be output and the robot arm 100 can be actuated to obtain movement of the tool 400 in a direction away from the observer reference structure 200. This movement appears as a movement of the tool 400 toward the top of the screen on the visual field device 22 and closely matches the movement of the controller device operator. In some aspects, the absolute value of the calculated motion may be scaled while maintaining the same direction (eg, in the above example, +1 instead of +2 in the X direction of the observer coordinate system 250, Mapping to the motion calculated by the tool 400).
図5は、本発明の技法の態様の観測者座標系およびコントローラ装置座標系の使用により得られる直感的な関係を説明している。一部の態様においては、観測者基準構造は、それが主外科医であるかのように、患者の近くに配置される。補助外科医の配置は、人間の主外科医がいる場合に行われるのと同様にすることができる。リモートワークステーションからロボットシステムを制御するオペレータは、手でツールを操作して、双眼鏡を通して対象領域を目視している、人間の外科医と同じ眺望が提示され、この双眼鏡は、顕微鏡ヘッドによって撮像された画像の左右の視界を外科医に提示する。ロボットシステムオペレータは、コントローラ装置を通して、ロボットのツールを、あたかもそれがオペレータのすぐ前にあるツールであるかのように操作し、(人間の外科医の顕微鏡によって撮像される視界に対応する、)ステレオカメラによって撮像される左右の視界を提示する双眼顕微鏡を通して対象領域を目視する。 FIG. 5 illustrates the intuitive relationship obtained through the use of the observer coordinate system and the controller device coordinate system of aspects of the technique of the present invention. In some aspects, the observer reference structure is placed near the patient as if it were the primary surgeon. The placement of the auxiliary surgeon can be similar to that performed when a human primary surgeon is present. An operator who controls the robotic system from a remote workstation is presented with the same view as a human surgeon who is manipulating the tool by hand and viewing the area of interest through the binoculars, which was imaged by the microscope head Present the left and right views of the image to the surgeon. The robot system operator manipulates the robot's tool through the controller device as if it were a tool in front of the operator, corresponding to the field of view imaged by the human surgeon's microscope. The target area is viewed through a binocular microscope that presents left and right fields of view imaged by the camera.
2.0 フォースフィードバックに使用される観測者フレームマッピング
前述した座標系の決定は、直感的にわかる方法でオペレータに対してフォースフィードバックを提供する上でも有用である。一部の態様においては、典型的にはセンサの装着方位と関連するセンサ座標系において測定される、測定による力を、観測者座標系の数式に変換して、次いでそれをコントローラ装置座標系にマッピングしてもよい。測定による力を、仮想の力と組み合わせてもよく、この仮想の力は、オペレータに追加の情報を提供し、例えば、仮想衝突、関節制限(joint limits)および動きの逸脱源(motion divergence sources)に基づいてもよい。
2.0 Observer Frame Mapping Used for Force Feedback Determination of the coordinate system described above is also useful in providing force feedback to the operator in an intuitive manner. In some aspects, the measured force, typically measured in the sensor coordinate system associated with the sensor's mounting orientation, is converted to an observer coordinate system equation that is then transferred to the controller device coordinate system. Mapping may be performed. Measurement forces may be combined with virtual forces, which provide additional information to the operator, such as virtual collisions, joint limits, and motion divergence sources. May be based on
この制御システムは、ロボットアーム、ツール、およびオペレータフォースフィードバックに関係するその他の構造の3次元モデルを含むように構成してもよい。一部の態様においては、ツール同士の衝突は許容するが、その他の衝突を禁止してもよい。意図する動きが、モデル同士の衝突を引き起こすことになる場合には、マニピュレータの動きが一時停止されて、コントローラ装置に対して、指令による動きの反対の方向にフィードバックの力がフィードバックされる。衝突検出アルゴリズムについては、当該技術においてよく知られており、衝突回避限界を決定するために、これらのアルゴリズムを使用することは、当業者には理解されるであろう。コントローラ装置にかけられるフィードバック力は、衝突回避限界により指令される距離に比例させてもよい。物理的な構造とは関連しない、追加の除外限界をモデル化して、オペレータが入力してもよい。 The control system may be configured to include a three-dimensional model of robot arms, tools, and other structures related to operator force feedback. In some aspects, collisions between tools are allowed, but other collisions may be prohibited. When the intended movement causes a collision between models, the movement of the manipulator is temporarily stopped, and the feedback force is fed back to the controller device in the direction opposite to the movement by the command. Collision detection algorithms are well known in the art and those skilled in the art will understand to use these algorithms to determine collision avoidance limits. The feedback force applied to the controller device may be proportional to the distance commanded by the collision avoidance limit. Additional exclusion limits that are not related to the physical structure may be modeled and input by the operator.
一部の態様においては、関節制限が衝突と同様な方法で取り扱われる。関節が、関節制限に対して指定された近傍の範囲に入ると、マニピュレータの動きが一時停止されて、コントローラ装置に対して指令による動きと反対の方向に力がフィードバックされる。コントローラ装置にかけられるこのフィードバックの力は、指令された関節角度が限界を超えた分の角度に比例させてもよい。 In some aspects, joint limitations are handled in a manner similar to collisions. When the joint enters a range in the vicinity designated for the joint restriction, the movement of the manipulator is temporarily stopped, and the force is fed back to the controller device in the direction opposite to the commanded movement. This feedback force applied to the controller device may be proportional to the angle over which the commanded joint angle exceeds the limit.
実際のマニピュレータ位置が、指令された位置から逸脱するか、または遅れるときに、動きの逸脱(motion divergence)が発生する。このことは、指令による動きがマニピュレータのアクチュエータが処理するのに速すぎる場合、または何かがマニピュレータに押し当てられている場合に発生する可能性がある。一部の態様においては、指令された軌道と実際の軌道との間に逸脱が発生するときに、コントローラ装置に対して指令による動きに対して反対の方向に力がフィードバックされる。コントローラ装置にかけられるフィードバック力は、逸脱誤差に比例させてもよい。
一部の態様においては、コントローラ装置に対してかけられるフォースフィードバックは、仮想衝突、関節制限、および動き逸脱源に基づく。それぞれの仮想フォースフィードバック源は、スケーリングして、次いで合計するか、または合計した力をスケーリングしてもよい。制御システムは、非ゼロ値だけを監視し、合計するように構成してもよい。
Motion divergence occurs when the actual manipulator position deviates or lags from the commanded position. This can occur if the commanded motion is too fast for the manipulator actuator to handle, or if something is pressed against the manipulator. In some aspects, when a deviation occurs between the commanded trajectory and the actual trajectory, a force is fed back to the controller device in a direction opposite to the commanded motion. The feedback force applied to the controller device may be proportional to the deviation error.
In some aspects, force feedback applied to the controller device is based on virtual collisions, joint limits, and motion deviation sources. Each virtual force feedback source may be scaled and then summed or the summed force scaled. The control system may be configured to monitor and sum only non-zero values.
図12は、測定によるツール先端力を提供することのできる医療用ロボットアームの一部を示す図である。ツール先端力901がツール400に作用し、その結果として、第1のセンサ120および第2のセンサ122によって測定可能な力が生じる。ツール400は、第1のツール保持具150および第2のツール保持具152によって保持されおり、これらの保持具は、第1のセンサ120および第2のセンサ122にそれぞれ結合されている。第1のセンサ120および第2のセンサ122は、エンドエフェクタ110に装着されている。また、フレキシブル連結器130がエンドエフェクタ110に結合されて、エンドエフェクタツール作動歯車140を介してツール400の作動が可能になる。しかしながら、フレキシブル連結器130は、その中心軸の回りの回転を除いて、すべての方向に順応するように設計されており、したがって、ツール先端力901のいかなる成分をも、エンドエフェクタ110に伝達しない。したがって、ツール先端力901の全体が、第1のセンサ120および第2のセンサ122を介して作用する力によってバランスされ、ツール先端力901の計算は、第1のセンサ120および第2のセンサ122により測定される値から行うことができる。 FIG. 12 is a diagram showing a part of a medical robot arm capable of providing a tool tip force by measurement. Tool tip force 901 acts on tool 400, resulting in a force that can be measured by first sensor 120 and second sensor 122. The tool 400 is held by a first tool holder 150 and a second tool holder 152, which are coupled to the first sensor 120 and the second sensor 122, respectively. The first sensor 120 and the second sensor 122 are attached to the end effector 110. In addition, the flexible coupler 130 is coupled to the end effector 110, and the tool 400 can be operated via the end effector tool operating gear 140. However, the flexible coupler 130 is designed to accommodate all directions except for rotation about its central axis, and therefore does not transmit any component of the tool tip force 901 to the end effector 110. . Accordingly, the entire tool tip force 901 is balanced by the force acting through the first sensor 120 and the second sensor 122, and the calculation of the tool tip force 901 is calculated by the first sensor 120 and the second sensor 122. This can be done from the value measured by
図13は、分解組立図で示された、図2に示す構成要素を表わす。ある態様においては、第1のセンサ120および第2のセンサ122は、それぞれが円筒状センサ内部に複数のシリコン歪ゲージを使用する、6軸センサである。第1のセンサ120および第2のセンサ122は市販の力センサとしてもよいが、磁気共鳴映像法(MRI)環境との整合性のために、利用可能な候補が制限されたり、修正を必要とすることがある。測定による力のフィードバックを組み込んだ医療用ロボットアームの一部の態様においては、第1のセンサ120および第2のセンサ122は、強磁性体をチタンで置き換えることによってMR対応にした、ATIインダストリアルオートメーション(ATI Industrial Automation)社の、Nano17力/トルクセンサの修正版である。 FIG. 13 represents the components shown in FIG. 2 shown in an exploded view. In one aspect, the first sensor 120 and the second sensor 122 are 6-axis sensors, each using a plurality of silicon strain gauges inside a cylindrical sensor. The first sensor 120 and the second sensor 122 may be commercially available force sensors, but due to consistency with the magnetic resonance imaging (MRI) environment, the available candidates are limited or require modification. There are things to do. In some aspects of a medical robotic arm that incorporates force feedback from measurements, the first sensor 120 and the second sensor 122 are MR-enabled by replacing the ferromagnetic material with titanium, ATI industrial automation. A modified version of the Nano17 force / torque sensor from (ATI Industrial Automation).
一部の態様における測定による力の測定と処理は以下のとおりである。
各力センサは電気信号を出力し、この電気信号は各センサに固有の較正マトリックスを通され、最終出力は、各センサに対する6軸の力およびトルクである。次いで、2つの力センサ出力の座標方位が、X/Y/Z軸の力が各センサに対して同じ方向を表わすように整列される。コントローラ装置がユーザに対してトルクをフィードバックしない場合には、トルクは無視される。次いで、2つのセンサからの力が、合計実際力を計算するために合計され、この合計実際力はバイアス力、ツールおよび保持具の重力、ツール作動力、およびツール先端力の組合せである。これらの力は、以下のように取り扱われる。
The measurement and processing of force by measurement in some embodiments is as follows.
Each force sensor outputs an electrical signal that is passed through a calibration matrix that is unique to each sensor, and the final output is the 6-axis force and torque for each sensor. The coordinate orientations of the two force sensor outputs are then aligned so that the X / Y / Z axis forces represent the same direction for each sensor. If the controller device does not feed back torque to the user, the torque is ignored. The forces from the two sensors are then summed to calculate the total actual force, which is a combination of bias force, tool and holder gravity, tool actuation force, and tool tip force. These forces are handled as follows.
センサにおける(時間経過に対する)ドリフトが原因で、バイアス力が存在することがあり、新規のツールを走査した後に消去してもよい。(ツール交換後に)スタイラスが使用可能にされると、力センサからの力が読み取られて、ゼロに設定される。ツールが方位を変えない場合には、これによって、重力による力も消去されるが、方位の変化にともなって、ツール/保持具にかかる重力による力の成分(X/Y/Z)が変化して、有害なフォースフィードバックを生じさせることになる。これを避けるために、重力補償が用いられる。初期位置においては、重力による力は、(例えば初期化ファイルからの)ツールの質量と、(ロボットキネマティクスからの)ツールの方位とから既知である。方位が変化するにつれて、計算された重力ベクトルにおける変化を、検知された力に単純に加えて、重力による力が消去される。 Due to drift (over time) in the sensor, a bias force may be present and may be erased after scanning a new tool. When the stylus is enabled (after tool change), the force from the force sensor is read and set to zero. If the tool does not change the orientation, this will also remove the force due to gravity, but with the change in orientation, the force component (X / Y / Z) due to gravity applied to the tool / holder will change. Will cause harmful force feedback. To avoid this, gravity compensation is used. In the initial position, the force due to gravity is known from the mass of the tool (eg from the initialization file) and the orientation of the tool (from robot kinematics). As the orientation changes, the force due to gravity is eliminated by simply adding a change in the calculated gravity vector to the detected force.
(初期化ファイルからの)質量と、(ロボットキネマティクスから)ツールおよび保持具の方位を知ることによって、それらの重力の力が数学的に計算されて消去され、ユーザがツール/保持具の重量を感じないようになり、それによって疲労が最小化されるとともにツール先端力の知覚が最大化される。 Knowing the mass (from the initialization file) and the orientation of the tool and fixture (from the robot kinematics), their gravity force is mathematically calculated and erased so that the user can weight the tool / holder , Thereby minimizing fatigue and maximizing the perception of the tool tip force.
本発明の方法の態様は、任意好適なコンピュータ可読媒体(例えば、実体的なコンピュータ可読媒体(tangible computer readable media))に記憶されるソフトウエアとしてコーディングしてもよく、それらの媒体としては、それに限定はされないが、ハードドライブ媒体、光学媒体、RAM、SRAM、DRAM、SDRAM、ROM、EPROM、EEPROM、テープ媒体、カートリッジ媒体、フラッシュメモリ、メモリスティック、および/またはその他を含む、任意好適な形態のメモリまたはデータ記憶装置がある。実体的なコンピュータ可読媒体としては、情報を記憶または転送することのできる、任意の物理的媒体があげられる。そのような態様は、あるステップ(複数を含む)を実行するためのコンピュータ実行可能な(例えばマシン可読の)命令を有する(または命令がコーディングされている)、実体的なコンピュータ可読媒体として特徴づけられる。 The method aspects of the present invention may be coded as software stored on any suitable computer-readable medium (eg, tangible computer readable media), including: Any suitable form including, but not limited to, hard drive media, optical media, RAM, SRAM, DRAM, SDRAM, ROM, EPROM, EEPROM, tape media, cartridge media, flash memory, memory stick, and / or others There is a memory or data storage device. A tangible computer readable medium includes any physical medium that can store or transfer information. Such an aspect is characterized as a tangible computer-readable medium having (or having instructions coded on) computer-executable (eg, machine-readable) instructions for performing certain step (s). It is done.
「実体的なコンピュータ可読媒体」という用語は、搬送波などの無線伝送媒体を含まない。しかしながら、「コンピュータ可読媒体」の用語は、無線伝送媒体をその範囲に含み、本発明の方法の一部の態様には、上述のコンピュータ可読命令を搬送する無線伝送媒体を含めてもよい。ソフトウエアは、当該技術において知られている任意の技法によって書き込むことができる。例えば、ソフトウエアは、いずれか1つまたは2つ以上のコンピュータ言語(例えば、アッセンブリ(ASSEMBLY)、パスカル(PASCAL)、フォートラン(FORTRAN)、ベーシック(BASIC)、C、C++、C#、JAVA(登録商標)、Perl、Python)によるか、またはそれに限定はされないが、Matlab(登録商標)、R、S−plus(登録商標)、およびSAS(登録商標)などの科学パッケージを使用して書き込むことができる。コードは、それを共通プラットフォーム(例えば、Microsoft(登録商標)、Linux(登録商標)、Apple Macintosh(登録商標)OS X、Unix(登録商標))にコンパイルさせるためのものであってもよい。 The term “substantial computer-readable medium” does not include wireless transmission media such as carrier waves. However, the term “computer-readable medium” includes wireless transmission media in its scope, and some aspects of the methods of the invention may include wireless transmission media that carry the above-described computer-readable instructions. The software can be written by any technique known in the art. For example, the software may be any one or more computer languages (eg, ASSEMBLY, Pascal, FORTRAN, BASIC, C, C ++, C #, JAVA (registration). (Trademark), Perl, Python) or using scientific packages such as, but not limited to, Matlab (R), R, S-plus (R), and SAS (R) it can. The code may be for compiling it on a common platform (e.g., Microsoft (R), Linux (R), Apple Macintosh (R) OS X, Unix (R)).
OpenGL(登録商標)などのよく確立されたプラットフォーム間ライブラリを利用して、本発明の方法、装置およびシステムを実行してもよい。現代のシングルプロセッサおよびマルチプロセッサベースのハードウエアプラットフォーム上で、計算時間を低減するために、適用可能な場合にはいつでも、マルチスレッディングを使用してもよい。上記で考察し、図に示したように、ソフトウエアには、ソフトウエアを実行するときにユーザにより直感的な感覚を提供することのできる、GUIを含めてもよい。スクリーンタッチ、マウスおよび/またはキーボードによって異なるフィールドにアクセスしてもよい。ポップアップウィンドウ、音響アラート、または当該技術において知れられている任意その他の技法を介して、アラーム、キュー、その他を行ってもよい。 Well-established cross-platform libraries such as OpenGL® may be utilized to implement the method, apparatus and system of the present invention. Multithreading may be used whenever applicable to reduce computation time on modern single processor and multiprocessor based hardware platforms. As discussed above and shown in the figure, the software may include a GUI that can provide a more intuitive sense to the user when executing the software. Different fields may be accessed by screen touch, mouse and / or keyboard. Alarms, cues, etc. may occur via pop-up windows, audible alerts, or any other technique known in the art.
上記の章で説明したステップの一部(全部までを含む)を、ファームウエアおよび/または実行ソフトウエアでプログラミングされた、プロセッサ(例えば、1つまたは2つ以上の集積回路)を有するコンピュータを使用して実施してもよい。上記の章で説明したステップの一部(全部までを含む)を、コンピュータシステムの一例(例えば制御システム)である、分散コンピューティング環境を使用して実施してもよい。分散コンピューティング環境においては、任意好適な数の接続媒体(例えば、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、またはそれには限定されないが、Ethernet(登録商標)、企業内コンピュータネットワーク、イントラネットおよびインターネットを含むその他コンピュータネットワーク)によって接続されたものなど、複数のコンピュータを使用してもよく、コンピュータ間の接続は有線または無線とすることができる。 Using a computer with a processor (eg, one or more integrated circuits) programmed with firmware and / or execution software for some (including all) of the steps described in the above section May be implemented. Some (including all) of the steps described in the sections above may be performed using a distributed computing environment, which is an example of a computer system (eg, a control system). In a distributed computing environment, any suitable number of connection media (eg, a local area network (LAN), a wide area network (WAN), or, but not limited to, Ethernet, an in-house computer network, an intranet) A plurality of computers, such as those connected by the Internet and other computer networks including the Internet), and the connection between the computers can be wired or wireless.
サーバーおよびユーザ端末は、任意のコンピュータシステムの一部とすることができる。さらに、好適なコンピュータシステムの態様は、特定用途向け集積回路(ASIC)または大規模集積(VLSI)回路上に実装してもよく、またさらに(あるいは代替的に)、リソースの仮想化、仮想コンピューティング、および/またはクラウドコンピューティング(cloud computing)を使用して指定された機能を達成するように構成してもよい。実際に、当業者であれば、本開示と整合性のあるコンピュータシステムにおいて上述した機能を達成するために、論理演算を実行することのできる任意の数の好適な構造を利用することができる。 Servers and user terminals can be part of any computer system. Furthermore, suitable computer system aspects may be implemented on an application specific integrated circuit (ASIC) or large scale integrated (VLSI) circuit, and additionally (or alternatively), resource virtualization, virtual computing And / or cloud computing may be used to achieve a specified function. Indeed, those skilled in the art may utilize any number of suitable structures capable of performing logical operations to accomplish the functions described above in a computer system consistent with this disclosure.
よく知られた処理技法、構成要素および機器の説明は、不必要な詳細さにおいて、本発明の方法、装置およびシステムを不必要に曖昧にしないように、省略されている。本発明の方法、装置およびシステムの説明は、例示的であり、限定的ではない。請求の範囲に含まれるが、本明細書に明白に記載されていない、ある種の置換、修正、追加および/または再配設が、この開示に基づいて、当業者には明白になる。さらに、実動する態様の開発においては、開発者の特定の目的を達成するために、実装毎に変わる、システム関連またはビジネス関連の制約への準拠などの、多数の実装固有の決定を行わなければならないことが、理解されるであろう。そのような開発努力は複雑で時間がかかるが、それでも、本開示の利益を有する当業者には、定型的な業務であろう。 Descriptions of well-known processing techniques, components and equipment have been omitted in unnecessary detail so as not to unnecessarily obscure the methods, apparatus and systems of the present invention. The descriptions of the methods, apparatuses and systems of the present invention are illustrative and not limiting. Certain substitutions, modifications, additions and / or rearrangements that are within the scope of the claims but not explicitly described herein will be apparent to those skilled in the art based on this disclosure. In addition, in the development of production aspects, a number of implementation-specific decisions must be made, such as compliance with system-related or business-related constraints that vary from implementation to implementation, to achieve a developer's specific objectives. It will be understood that this must be done. Such development efforts are complex and time consuming, but will still be routine for those skilled in the art having the benefit of this disclosure.
添付の特許請求の範囲は、所与の請求項に「means for」および/または「step for」の語句(複数を含む)を用いて、ミーンズ・プラス・ファンクション(means-plus- function)の限定が明示的に記載されない限り、そのような限定を含むものとは解釈すべきではない。 The appended claims use the terms “means for” and / or “step for” in a given claim to limit means-plus-function. Should not be construed as including such limitation unless expressly stated otherwise.
Claims (19)
少なくとも1つのロボットアームを有するオペレータ制御下の医療用ロボット、An operator-controlled medical robot having at least one robot arm;
前記ツールの画像を提供するように構成されるカメラ(21)、および、A camera (21) configured to provide an image of the tool; and
前記カメラに対して固定された方位を有する基準構造(200)を含み、A reference structure (200) having a fixed orientation relative to the camera;
前記方法は:The method is:
a.ツールの所望の動きを表わす、コントローラ装置(300)からの入力値を受け取ること、但し、前記入力値はコントローラ装置座標系(350)で表わされる;a. Receiving an input value from the controller device (300) representing the desired movement of the tool, wherein the input value is represented in the controller device coordinate system (350);
b.前記入力値に基づいて、前記ツールの計算による動きを決定すること、但し、前記計算による動きは、ツール(400)の軸(460)と固定関係に配向された第1軸(260)、および、前記第1軸に直角に配向された第2軸を含む、観測者座標系で表わされ、前記基準構造に関連して決定される直角座標系(210)のXおよびY軸で決定される平面への前記第2軸の投影が、X軸と平行であり、かつそれと同一方向を指すように整列され;b. Determining a calculated motion of the tool based on the input value, wherein the calculated motion is a first axis (260) oriented in a fixed relationship with the axis (460) of the tool (400), and Represented in the observer coordinate system, including a second axis oriented perpendicular to the first axis, and determined in the X and Y axes of a rectangular coordinate system (210) determined in relation to the reference structure The projection of the second axis onto a plane parallel to the X axis and aligned to point in the same direction;
c.前記計算による動きおよびロボットアームの位置に基づいて、ロボットアームの指令による動きを決定すること;およびc. Determining a robot arm commanded motion based on the calculated motion and the position of the robot arm; and
d.前記指令による動きに応じて、前記ロボットアームを動かす操作信号を出力すること、d. Outputting an operation signal for moving the robot arm according to the movement by the command;
を含む。including.
計算による動きを、計算による動きの絶対値と計算による動きの方向とを有する、計算による動きのベクトルとして観測者座標系で表わすことが可能であり;かつThe computed motion can be represented in the observer coordinate system as a computed motion vector having an absolute value of the computed motion and a direction of the computed motion; and
前記計算による動きの方向は前記入力方向に等しい、請求項1に記載の方法。The method of claim 1, wherein the calculated direction of motion is equal to the input direction.
前記計算による観測者力値に応じて、コントローラ装置にフィードバック信号を出力することOutput a feedback signal to the controller device according to the observer power value by the calculation.
をさらに含む、Further including
請求項1または2に記載の方法。The method according to claim 1 or 2.
前記計算による観測者力値に応じて、コントローラ装置にフィードバック信号を出力することOutput a feedback signal to the controller device according to the observer power value by the calculation.
をさらに含む、請求項1または2に記載の方法。The method according to claim 1, further comprising:
第2のツールの第2の所望の動きを表わす第2のコントローラ装置(301)からの第2の入力値を受け取ること、但し、前記第2の入力値は第2のコントローラ装置座標系(351)で表わされる;Receiving a second input value from a second controller device (301) representing a second desired movement of the second tool, wherein the second input value is a second controller device coordinate system (351); );
前記第2の入力値に基づいて、第2のツール(401)の第2の計算による動きを決定すること、但し、前記第2の計算による動きは、第2の観測者座標系(251)で表され、前記第2の観測者座標系は、前記第2のツール(401)の軸(460)と固定関係に配向された第1軸(260)、および、前記第1軸に直角に配向された第2軸を含む、観測者座標系で表わされ、前記基準構造に関連して決定される直角座標系(210)のXおよびY軸で決定される平面への前記第2軸の投影が、X軸と平行であり、かつそれと同一方向を指すように整列され;Determining movement of the second tool (401) by the second calculation based on the second input value, provided that the movement by the second calculation is determined by the second observer coordinate system (251); The second observer coordinate system is represented by a first axis (260) oriented in a fixed relationship with the axis (460) of the second tool (401), and perpendicular to the first axis. Said second axis to a plane represented by the X and Y axes of a Cartesian coordinate system (210) represented in an observer coordinate system and determined in relation to said reference structure, comprising an oriented second axis Aligned so that their projections are parallel to the X axis and point in the same direction; 前記第2の計算による動きおよび前記第2のロボットアームの位置に基づいて、前記第2のロボットアームの第2の指令による動きを決定すること;およびDetermining a second commanded motion of the second robot arm based on the second calculated motion and the position of the second robot arm; and
前記第2の指令による動きに応じて、前記第2のロボットアームを動かす第2の操作信号を出力すること、Outputting a second operation signal for moving the second robot arm according to the movement of the second command;
をさらに含む、請求項1〜7のいずれか一項に記載の方法。The method according to any one of claims 1 to 7, further comprising:
前記第2の計算による観測者力値に応じて、コントローラ装置に第2のフィードバック信号を出力することOutputting a second feedback signal to the controller device in accordance with the observer power value obtained by the second calculation.
をさらに含む、請求項8に記載の方法。The method of claim 8, further comprising:
前記第2の計算による観測者力値に応じて、コントローラ装置に第2のフィードバック信号を出力することOutputting a second feedback signal to the controller device in accordance with the observer power value obtained by the second calculation.
をさらに含む、請求項8に記載の方法。The method of claim 8, further comprising:
少なくとも1つのロボットアームを有するオペレータ制御下の医療用ロボット、An operator-controlled medical robot having at least one robot arm;
前記ツールの画像を提供するように構成されるカメラ(21)、および、A camera (21) configured to provide an image of the tool; and
前記カメラに対して固定された方位を有する基準構造(200)を含み、A reference structure (200) having a fixed orientation relative to the camera;
前記制御システムは:The control system is:
前記医療用ロボットに動作可能に関連するコンピュータ機器であって、前記コンピュータ機器は、請求項1〜16のいずれか一項に記載の方法を実装するように構成され、および、Computer equipment operatively associated with the medical robot, the computer equipment being configured to implement the method of any one of claims 1-16, and
前記コンピュータ機器に動作可能に関連し、ロボットアームの所望の動きの入力を受け取るように構成された、少なくとも1つのコントローラ装置(300、301)、At least one controller device (300, 301) operatively associated with the computer equipment and configured to receive an input of a desired movement of a robot arm;
を含む。including.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US91214407P | 2007-04-16 | 2007-04-16 | |
US60/912,144 | 2007-04-16 | ||
PCT/IB2008/003363 WO2009034477A2 (en) | 2007-04-16 | 2008-04-16 | Frame mapping and force feedback methods, devices and systems |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010524548A JP2010524548A (en) | 2010-07-22 |
JP2010524548A5 JP2010524548A5 (en) | 2011-06-16 |
JP5444209B2 true JP5444209B2 (en) | 2014-03-19 |
Family
ID=40452631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010503625A Expired - Fee Related JP5444209B2 (en) | 2007-04-16 | 2008-04-16 | Frame mapping and force feedback method, apparatus and system |
Country Status (6)
Country | Link |
---|---|
US (2) | US8554368B2 (en) |
EP (1) | EP2148629B1 (en) |
JP (1) | JP5444209B2 (en) |
CA (1) | CA2684475C (en) |
IL (1) | IL201558A0 (en) |
WO (1) | WO2009034477A2 (en) |
Families Citing this family (114)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
CN104688349B (en) | 2006-06-13 | 2017-05-10 | 直观外科手术操作公司 | Minimally invasive surgical system |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US8903546B2 (en) | 2009-08-15 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Smooth control of an articulated instrument across areas with different work space conditions |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US9469034B2 (en) * | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
DE102008047575B4 (en) * | 2008-09-17 | 2012-09-27 | Leica Biosystems Nussloch Gmbh | Device for handling at least one slide |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US8918211B2 (en) * | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US8888789B2 (en) | 2009-09-23 | 2014-11-18 | Intuitive Surgical Operations, Inc. | Curved cannula surgical system control |
US20110071541A1 (en) | 2009-09-23 | 2011-03-24 | Intuitive Surgical, Inc. | Curved cannula |
US8623028B2 (en) | 2009-09-23 | 2014-01-07 | Intuitive Surgical Operations, Inc. | Surgical port feature |
US8465476B2 (en) | 2009-09-23 | 2013-06-18 | Intuitive Surgical Operations, Inc. | Cannula mounting fixture |
CN104799890B (en) * | 2009-11-13 | 2017-03-22 | 直观外科手术操作公司 | Curved cannula and robotic manipulator |
JP5032716B2 (en) * | 2010-08-31 | 2012-09-26 | パナソニック株式会社 | Master-slave robot control device, control method, and control program |
US9921712B2 (en) | 2010-12-29 | 2018-03-20 | Mako Surgical Corp. | System and method for providing substantially stable control of a surgical tool |
US9119655B2 (en) | 2012-08-03 | 2015-09-01 | Stryker Corporation | Surgical manipulator capable of controlling a surgical instrument in multiple modes |
US8918214B2 (en) * | 2011-01-19 | 2014-12-23 | Harris Corporation | Telematic interface with directional translation |
JP2012171088A (en) * | 2011-02-24 | 2012-09-10 | Olympus Corp | Master operation input device, and master-slave manipulator |
JP6009840B2 (en) | 2011-08-04 | 2016-10-19 | オリンパス株式会社 | Medical equipment |
JP6021484B2 (en) | 2011-08-04 | 2016-11-09 | オリンパス株式会社 | Medical manipulator |
US9519341B2 (en) | 2011-08-04 | 2016-12-13 | Olympus Corporation | Medical manipulator and surgical support apparatus |
JP6081061B2 (en) | 2011-08-04 | 2017-02-15 | オリンパス株式会社 | Surgery support device |
JP6000641B2 (en) | 2011-08-04 | 2016-10-05 | オリンパス株式会社 | Manipulator system |
EP2740433B1 (en) | 2011-08-04 | 2016-04-27 | Olympus Corporation | Surgical implement and medical treatment manipulator |
JP5953058B2 (en) | 2011-08-04 | 2016-07-13 | オリンパス株式会社 | Surgery support device and method for attaching and detaching the same |
JP5841451B2 (en) | 2011-08-04 | 2016-01-13 | オリンパス株式会社 | Surgical instrument and control method thereof |
JP5931497B2 (en) | 2011-08-04 | 2016-06-08 | オリンパス株式会社 | Surgery support apparatus and assembly method thereof |
JP6021353B2 (en) | 2011-08-04 | 2016-11-09 | オリンパス株式会社 | Surgery support device |
JP6005950B2 (en) * | 2011-08-04 | 2016-10-12 | オリンパス株式会社 | Surgery support apparatus and control method thereof |
CN103717169B (en) | 2011-08-04 | 2016-11-16 | 奥林巴斯株式会社 | Medical manipulator and control method thereof |
JP5936914B2 (en) | 2011-08-04 | 2016-06-22 | オリンパス株式会社 | Operation input device and manipulator system including the same |
US9452276B2 (en) | 2011-10-14 | 2016-09-27 | Intuitive Surgical Operations, Inc. | Catheter with removable vision probe |
US20130303944A1 (en) | 2012-05-14 | 2013-11-14 | Intuitive Surgical Operations, Inc. | Off-axis electromagnetic sensor |
US9387048B2 (en) | 2011-10-14 | 2016-07-12 | Intuitive Surgical Operations, Inc. | Catheter sensor systems |
JP5893330B2 (en) * | 2011-10-18 | 2016-03-23 | オリンパス株式会社 | Operation input device and method for initializing operation input device |
AU2013215493A1 (en) * | 2012-01-30 | 2014-08-21 | Google Inc. | Apparatus and method for acquiring underwater images |
JP5928923B2 (en) * | 2012-04-02 | 2016-06-01 | 株式会社安川電機 | Robot system and work equipment |
US9226796B2 (en) | 2012-08-03 | 2016-01-05 | Stryker Corporation | Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path |
KR102304096B1 (en) | 2012-08-03 | 2021-09-24 | 스트리커 코포레이션 | Systems and methods for robotic surgery |
US20140148673A1 (en) | 2012-11-28 | 2014-05-29 | Hansen Medical, Inc. | Method of anchoring pullwire directly articulatable region in catheter |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
US9884426B2 (en) * | 2013-06-27 | 2018-02-06 | De-Sta-Co Europe Gmbh | Boom utilized in a geometric end effector system |
US9289265B2 (en) * | 2013-07-10 | 2016-03-22 | The Johns Hopkins University | MRI-compatible, integrated force and torque sensors and systems that incorporate the sensors |
EP3120979A4 (en) * | 2014-03-14 | 2017-11-08 | Sony Corporation | Robot arm device, robot arm control method and program |
EP3243476B1 (en) | 2014-03-24 | 2019-11-06 | Auris Health, Inc. | Systems and devices for catheter driving instinctiveness |
WO2016054256A1 (en) | 2014-09-30 | 2016-04-07 | Auris Surgical Robotics, Inc | Configurable robotic surgical system with virtual rail and flexible endoscope |
US10314463B2 (en) | 2014-10-24 | 2019-06-11 | Auris Health, Inc. | Automated endoscope calibration |
CN104546144B (en) * | 2015-01-22 | 2016-09-14 | 中国科学院重庆绿色智能技术研究院 | A kind of seven freedom force feedback remote operating hands of switchable type |
US9962833B2 (en) * | 2015-04-07 | 2018-05-08 | Mtm Robotics, Llc | System and method for adjusting end-effector actuation based on relative position with respect to gravitational force |
CN113456238A (en) * | 2015-05-01 | 2021-10-01 | 提坦医疗公司 | Instrument collision detection and feedback |
DE102015109371A1 (en) * | 2015-06-12 | 2016-12-15 | avateramedical GmBH | Apparatus and method for robotic surgery |
US9833907B1 (en) * | 2015-06-22 | 2017-12-05 | X Development Llc | Proximity-based binding |
US10022872B2 (en) | 2015-10-06 | 2018-07-17 | Mtm Robotics, Llc | Self-contained modular manufacturing tool responsive to locally stored historical data |
US10025299B2 (en) | 2015-10-06 | 2018-07-17 | Mtm Robotics, Llc | System and method for self-contained modular manufacturing device having nested controllers |
US10252421B2 (en) | 2015-10-06 | 2019-04-09 | Mtm Robotics Llc | Self-contained modular manufacturing tool |
US10220516B2 (en) | 2015-10-06 | 2019-03-05 | Mtm Robotics, Llc | System and method for self-contained independently controlled modular manufacturing tools |
US11096751B2 (en) * | 2015-10-13 | 2021-08-24 | National University Corporation, Okayama University | Puncture robot |
US9949749B2 (en) | 2015-10-30 | 2018-04-24 | Auris Surgical Robotics, Inc. | Object capture with a basket |
US10639108B2 (en) | 2015-10-30 | 2020-05-05 | Auris Health, Inc. | Process for percutaneous operations |
US9955986B2 (en) | 2015-10-30 | 2018-05-01 | Auris Surgical Robotics, Inc. | Basket apparatus |
JP6817607B2 (en) * | 2015-11-05 | 2021-01-20 | 国立大学法人九州大学 | Fine work support system and manipulator for fine work |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
CN105476713B (en) * | 2015-12-28 | 2017-12-26 | 苏州点合医疗科技有限公司 | A kind of robot for orthopaedic surgery that the antiwind micro-wound pressure-reduced manipulator of bushing type is avoided based on collet |
AU2016380277B2 (en) | 2015-12-31 | 2021-12-16 | Stryker Corporation | System and methods for performing surgery on a patient at a target site defined by a virtual object |
EP3834765B1 (en) * | 2016-01-12 | 2024-07-17 | Intuitive Surgical Operations, Inc. | Staged force feedback transitioning between control states |
CN108472086B (en) | 2016-02-26 | 2021-07-09 | 直观外科手术操作公司 | System and method for avoiding collisions using virtual boundaries |
JP6733239B2 (en) * | 2016-03-18 | 2020-07-29 | セイコーエプソン株式会社 | Controller and robot system |
EP3432821A4 (en) | 2016-03-25 | 2019-11-20 | Intuitive Surgical Operations Inc. | Surgical platform supported by multiple arms |
CN109069215B (en) | 2016-07-14 | 2022-07-15 | 直观外科手术操作公司 | System and method for controlling a surgical instrument |
EP3484402A4 (en) * | 2016-07-14 | 2020-03-25 | Intuitive Surgical Operations Inc. | Secondary instrument control in a computer-assisted teleoperated system |
US10390895B2 (en) | 2016-08-16 | 2019-08-27 | Ethicon Llc | Control of advancement rate and application force based on measured forces |
US10531929B2 (en) * | 2016-08-16 | 2020-01-14 | Ethicon Llc | Control of robotic arm motion based on sensed load on cutting tool |
US9931025B1 (en) * | 2016-09-30 | 2018-04-03 | Auris Surgical Robotics, Inc. | Automated calibration of endoscopes with pull wires |
EP3554414A1 (en) | 2016-12-16 | 2019-10-23 | MAKO Surgical Corp. | Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
US11529129B2 (en) | 2017-05-12 | 2022-12-20 | Auris Health, Inc. | Biopsy apparatus and system |
AU2018290831A1 (en) | 2017-06-28 | 2019-12-19 | Auris Health, Inc. | Instrument insertion compensation |
US10426559B2 (en) | 2017-06-30 | 2019-10-01 | Auris Health, Inc. | Systems and methods for medical instrument compression compensation |
US10145747B1 (en) | 2017-10-10 | 2018-12-04 | Auris Health, Inc. | Detection of undesirable forces on a surgical robotic arm |
JP7362610B2 (en) | 2017-12-06 | 2023-10-17 | オーリス ヘルス インコーポレイテッド | System and method for correcting uncommanded instrument rotation |
AU2018384820B2 (en) | 2017-12-14 | 2024-07-04 | Auris Health, Inc. | System and method for estimating instrument location |
WO2019136039A1 (en) * | 2018-01-04 | 2019-07-11 | Covidien Lp | Robotic surgical systems including torque sensors |
KR102690164B1 (en) | 2018-02-13 | 2024-08-02 | 아우리스 헬스, 인코포레이티드 | Systems and methods for operating medical devices |
JP2022502171A (en) | 2018-09-28 | 2022-01-11 | オーリス ヘルス インコーポレイテッド | Systems and methods for docking medical devices |
US12076100B2 (en) | 2018-09-28 | 2024-09-03 | Auris Health, Inc. | Robotic systems and methods for concomitant endoscopic and percutaneous medical procedures |
CN109955284B (en) * | 2019-03-11 | 2020-11-27 | 燕山大学 | Force feedback device with two rotations and one movement and three degrees of freedom |
KR102283670B1 (en) | 2019-06-21 | 2021-07-30 | 한국과학기술원 | Master device for surgery to control slave device |
KR102284387B1 (en) * | 2019-06-21 | 2021-08-02 | 한국과학기술원 | Surgical system |
KR102285586B1 (en) | 2019-06-21 | 2021-08-04 | 한국과학기술원 | Gripper used in master device for surgery |
WO2020256502A2 (en) * | 2019-06-21 | 2020-12-24 | 한국과학기술원 | Gripper and surgical master device comprising same |
US11369386B2 (en) | 2019-06-27 | 2022-06-28 | Auris Health, Inc. | Systems and methods for a medical clip applier |
WO2020263949A1 (en) | 2019-06-28 | 2020-12-30 | Auris Health, Inc. | Medical instruments including wrists with hybrid redirect surfaces |
US11896330B2 (en) | 2019-08-15 | 2024-02-13 | Auris Health, Inc. | Robotic medical system having multiple medical instruments |
EP4034349A1 (en) | 2019-09-26 | 2022-08-03 | Auris Health, Inc. | Systems and methods for collision detection and avoidance |
US11737845B2 (en) | 2019-09-30 | 2023-08-29 | Auris Inc. | Medical instrument with a capstan |
US11737835B2 (en) | 2019-10-29 | 2023-08-29 | Auris Health, Inc. | Braid-reinforced insulation sheath |
CN118383870A (en) | 2019-12-31 | 2024-07-26 | 奥瑞斯健康公司 | Alignment interface for percutaneous access |
WO2021137104A1 (en) | 2019-12-31 | 2021-07-08 | Auris Health, Inc. | Dynamic pulley system |
WO2021137109A1 (en) | 2019-12-31 | 2021-07-08 | Auris Health, Inc. | Alignment techniques for percutaneous access |
JP2023508718A (en) | 2019-12-31 | 2023-03-03 | オーリス ヘルス インコーポレイテッド | Advanced basket drive mode |
CN114901194B (en) | 2019-12-31 | 2024-08-30 | 奥瑞斯健康公司 | Anatomical feature identification and targeting |
CN115802975A (en) | 2020-06-29 | 2023-03-14 | 奥瑞斯健康公司 | System and method for detecting contact between a connecting rod and an external object |
US11357586B2 (en) | 2020-06-30 | 2022-06-14 | Auris Health, Inc. | Systems and methods for saturated robotic movement |
US20230311337A1 (en) * | 2020-09-07 | 2023-10-05 | The Board Of Trustees Of The Leland Stanford Junior University | Compact Paired Parallel Architecture for High-Fidelity Haptic Applications |
CN114211493B (en) * | 2021-12-23 | 2023-10-27 | 武汉联影智融医疗科技有限公司 | Remote control system and method for mechanical arm |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4725965A (en) * | 1986-07-23 | 1988-02-16 | American Telephone And Telegraph Company | Method for calibrating a SCARA robot |
US4831549A (en) * | 1987-07-28 | 1989-05-16 | Brigham Young University | Device and method for correction of robot inaccuracy |
US4833381A (en) * | 1987-12-31 | 1989-05-23 | Westinghouse Electric Corp. | Optical automatic seam tracker and real time control system for an industrial robot |
US4843287A (en) * | 1987-12-31 | 1989-06-27 | Westinghouse Electric Corp. | Path contriving system for look-ahead sensor in a robotic control system |
JP2770982B2 (en) | 1989-05-25 | 1998-07-02 | 株式会社豊田中央研究所 | Manipulator position and force coordination controller |
US5297238A (en) * | 1991-08-30 | 1994-03-22 | Cimetrix Incorporated | Robot end-effector terminal control frame (TCF) calibration method and device |
JPH05282029A (en) | 1992-04-02 | 1993-10-29 | Fanuc Ltd | Tool coordinate definition system |
US5524180A (en) * | 1992-08-10 | 1996-06-04 | Computer Motion, Inc. | Automated endoscope system for optimal positioning |
FR2709656B1 (en) * | 1993-09-07 | 1995-12-01 | Deemed Int Sa | Installation for computer-assisted microsurgery operation and methods implemented by said installation. |
US5876325A (en) * | 1993-11-02 | 1999-03-02 | Olympus Optical Co., Ltd. | Surgical manipulation system |
JP3540362B2 (en) * | 1994-06-14 | 2004-07-07 | オリンパス株式会社 | Surgical manipulator control system and control method |
US5542180A (en) * | 1994-02-03 | 1996-08-06 | Npk Construction Equipment, Inc. | Heavy duty shear with anti-jam feature |
US6364888B1 (en) | 1996-09-09 | 2002-04-02 | Intuitive Surgical, Inc. | Alignment of master and slave in a minimally invasive surgical apparatus |
US6810281B2 (en) * | 2000-12-21 | 2004-10-26 | Endovia Medical, Inc. | Medical mapping system |
US6522906B1 (en) * | 1998-12-08 | 2003-02-18 | Intuitive Surgical, Inc. | Devices and methods for presenting and regulating auxiliary information on an image display of a telesurgical system to assist an operator in performing a surgical procedure |
US6424885B1 (en) | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
US6053808A (en) | 1999-07-26 | 2000-04-25 | 3Com Corporation | Exhaust vent for an electronic chassis |
US20010025183A1 (en) * | 2000-02-25 | 2001-09-27 | Ramin Shahidi | Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body |
US20040243147A1 (en) * | 2001-07-03 | 2004-12-02 | Lipow Kenneth I. | Surgical robot and robotic controller |
US6898484B2 (en) * | 2002-05-01 | 2005-05-24 | Dorothy Lemelson | Robotic manufacturing and assembly with relative radio positioning using radio based location determination |
EP2070487B1 (en) * | 2002-08-13 | 2014-03-05 | NeuroArm Surgical, Ltd. | Microsurgical robot system |
EP1633534B1 (en) * | 2003-04-28 | 2018-09-12 | Nikon Metrology NV | Cmm arm with exoskeleton |
US6822412B1 (en) * | 2003-06-11 | 2004-11-23 | Zhongxue Gan | Method for calibrating and programming of a robot application |
US8108072B2 (en) * | 2007-09-30 | 2012-01-31 | Intuitive Surgical Operations, Inc. | Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information |
US10555775B2 (en) * | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
US8073528B2 (en) * | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
ATE540634T1 (en) * | 2005-06-06 | 2012-01-15 | Intuitive Surgical Operations | LAPAROSCOPIC ULTRASONIC ROBOT SYSTEM FOR SURGICAL PURPOSES |
GB2428110A (en) * | 2005-07-06 | 2007-01-17 | Armstrong Healthcare Ltd | A robot and method of registering a robot. |
US20070106307A1 (en) * | 2005-09-30 | 2007-05-10 | Restoration Robotics, Inc. | Methods for implanting follicular units using an automated system |
US7962192B2 (en) * | 2005-09-30 | 2011-06-14 | Restoration Robotics, Inc. | Systems and methods for aligning a tool with a desired location or object |
JP5322648B2 (en) * | 2005-10-20 | 2013-10-23 | インテュイティブ サージカル, インコーポレイテッド | Display and operation of auxiliary images on computer display in medical robot system |
US20070129626A1 (en) | 2005-11-23 | 2007-06-07 | Prakash Mahesh | Methods and systems for facilitating surgical procedures |
US20080027580A1 (en) * | 2006-07-28 | 2008-01-31 | Hui Zhang | Robot programming method and apparatus with both vision and force |
US8473031B2 (en) * | 2007-12-26 | 2013-06-25 | Intuitive Surgical Operations, Inc. | Medical robotic system with functionality to determine and display a distance indicated by movement of a tool robotically manipulated by an operator |
US20100331856A1 (en) * | 2008-12-12 | 2010-12-30 | Hansen Medical Inc. | Multiple flexible and steerable elongate instruments for minimally invasive operations |
-
2008
- 2008-04-16 CA CA2684475A patent/CA2684475C/en not_active Expired - Fee Related
- 2008-04-16 WO PCT/IB2008/003363 patent/WO2009034477A2/en active Application Filing
- 2008-04-16 EP EP08830065A patent/EP2148629B1/en not_active Not-in-force
- 2008-04-16 JP JP2010503625A patent/JP5444209B2/en not_active Expired - Fee Related
- 2008-04-16 US US12/596,417 patent/US8554368B2/en active Active - Reinstated
-
2009
- 2009-10-15 IL IL201558A patent/IL201558A0/en unknown
-
2013
- 2013-10-08 US US14/049,043 patent/US9044257B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2148629A2 (en) | 2010-02-03 |
EP2148629A4 (en) | 2011-03-09 |
US9044257B2 (en) | 2015-06-02 |
CA2684475A1 (en) | 2009-03-19 |
WO2009034477A3 (en) | 2010-02-04 |
US8554368B2 (en) | 2013-10-08 |
CA2684475C (en) | 2016-01-12 |
JP2010524548A (en) | 2010-07-22 |
WO2009034477A2 (en) | 2009-03-19 |
US20140142593A1 (en) | 2014-05-22 |
US20110160745A1 (en) | 2011-06-30 |
IL201558A0 (en) | 2010-05-31 |
EP2148629B1 (en) | 2012-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5444209B2 (en) | Frame mapping and force feedback method, apparatus and system | |
US10765485B2 (en) | Medical support arm device and method of controlling medical support arm device | |
JP6555248B2 (en) | Medical arm device, calibration method and program | |
JP6787623B2 (en) | Very dexterous system user interface | |
JP7251669B2 (en) | Control system, control method, and arm system | |
Xu et al. | Visual-haptic aid teleoperation based on 3-D environment modeling and updating | |
Zhang et al. | Hamlyn CRM: A compact master manipulator for surgical robot remote control | |
WO2016152046A1 (en) | Medical support arm device and method of controlling medical support arm device | |
Bihlmaier et al. | Ros-based cognitive surgical robotics | |
CN116723916A (en) | Arm and body coordination | |
US20230028689A1 (en) | System and method for inter-arm registration | |
JP7249221B2 (en) | SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD | |
US20230110248A1 (en) | Stereoscopic visualization camera and integrated robotics platform with force/torque sensor non-linearity correction | |
Zhang et al. | Direct manipulation of tool‐like masters for controlling a master–slave surgical robotic system | |
Mihelj et al. | yControl-open architecture controller for Yaskawa Motoman MH5 robot | |
Thompson | Integration of visual and haptic feedback for teleoperation | |
Bihlmaier et al. | Intraoperative robot-based camera assistance | |
Grespan et al. | Surgical Robot Simulation and Control | |
Cortes et al. | Robotic research platform for image-guided surgery assistance | |
Zamora-Esquivel et al. | Hand-Eye Calibration Using Camera’s IMU Sensor in Quadric Geometric Algebra (QGA) | |
Kumar et al. | Investigating Teleoperation of UR5 Robot Using Haptic Device for Different Network Configuration | |
Hu et al. | A study of visual servo system based on binocular camera | |
Nandikolla et al. | Research Article Teleoperation Robot Control of a Hybrid EEG-Based BCI Arm Manipulator Using ROS | |
Phlippen et al. | Development and evaluation of a straightforward method to identify the elastic structure of a lightweight robot | |
Bilgincan et al. | Development of an R-Cube-Based General Purpose Haptic Device System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110418 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130311 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5444209 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |