JP2005334650A - エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品 - Google Patents

エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品 Download PDF

Info

Publication number
JP2005334650A
JP2005334650A JP2005153249A JP2005153249A JP2005334650A JP 2005334650 A JP2005334650 A JP 2005334650A JP 2005153249 A JP2005153249 A JP 2005153249A JP 2005153249 A JP2005153249 A JP 2005153249A JP 2005334650 A JP2005334650 A JP 2005334650A
Authority
JP
Japan
Prior art keywords
end effector
subject
digital images
target position
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005153249A
Other languages
English (en)
Other versions
JP5021908B2 (ja
Inventor
Mohammed M Hussaini
モハメッド・モイン・フサイニ
Thomas Foo
トーマス・フー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2005334650A publication Critical patent/JP2005334650A/ja
Application granted granted Critical
Publication of JP5021908B2 publication Critical patent/JP5021908B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/16Details of sensor housings or probes; Details of structural supports for sensors
    • A61B2562/17Comprising radiolucent components
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pulmonology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Surgical Instruments (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】被検者の呼吸運動を加味して被検者の体内で生検針及び切除針を正確に案内するロボット・システムを提供する。
【解決手段】被検者が所定の呼吸状態を有するときの被検者の体内の解剖学的構造の複数のディジタル画像(210、214)を形成し、これらディジタル画像の少なくとも1枚で皮膚挿入位置(212)を指示する。方法はさらに、ディジタル画像の少なくとも1枚で目標位置(216)を指示し、皮膚挿入位置(212)及び目標位置(216)に基づいて軌跡経路を決定する。最後に、被検者が所定の呼吸状態を実質的に有するときにエンド・エフェクタ(26)を軌跡経路に沿って目標位置(216)に向かって移動させる。
【選択図】 図1

Description

本発明は、エンド・エフェクタ(末端効果器)を被検者の体内の目標位置まで案内するシステム及び方法に関する。
被検者の体内で生検針及び切除針を案内するロボット・システムが開発されている。しかしながら、かかる穿刺針の被検者の腹部内での配置が、被検者の呼吸運動のため極めて困難な場合がある。具体的には、被検者の呼吸運動時には被検者の腹部内の目標位置が移動する。このため、針を所定のエンド・エフェクタ軌跡に沿って初期移動させても、被検者の腹部内の目標位置の移動のため針が目標位置に到達しない場合がある。
米国特許第6400979号
このため、本発明者等は、エンド・エフェクタを被検者の体内の目標位置まで案内する際の上述の欠点を克服する改善されたシステムに対する必要性が存在していることを認めた。
一実施形態例では、エンド・エフェクタを被検者の体内の目標位置まで案内する方法を提供する。この方法は、被検者が所定の呼吸状態を有するときの被検者の体内の解剖学的構造の複数のディジタル画像を形成するステップを含んでいる。この方法はさらに、これらディジタル画像の少なくとも1枚で皮膚挿入位置を指示するステップを含んでいる。この方法はさらに、ディジタル画像の少なくとも1枚で目標位置を指示するステップを含んでいる。この方法はさらに、皮膚挿入位置及び目標位置に基づいて軌跡経路を決定するステップを含んでいる。最後に、この方法は、被検者が所定の呼吸状態を実質的に有するときにエンド・エフェクタを軌跡経路に沿って目標位置に向かって移動させるステップを含んでいる。
もう一つの実施形態例では、エンド・エフェクタを被検者の体内の目標位置まで案内するシステムを提供する。このシステムは、被検者の呼吸状態を監視する呼吸監視装置を含んでいる。このシステムはさらに、被検者が所定の呼吸状態を有するときの被検者の体内の解剖学的構造を走査して走査データを生成するように構成されている走査装置を含んでいる。このシステムはさらに、走査データに基づいて複数のディジタル画像を形成する第一のコンピュータを含んでいる。このシステムはさらに、これら複数のディジタル画像を表示するように構成されている第二のコンピュータを含んでおり、第二のコンピュータはさらに、操作者がディジタル画像の少なくとも1枚で皮膚挿入位置を指示することを可能にするように構成されている。第二のコンピュータはさらに、操作者がディジタル画像の少なくとも1枚で目標位置を指示することを可能にするように構成されている。第二のコンピュータはさらに、皮膚挿入位置及び目標位置に基づいて軌跡経路を決定するように構成されている。最後に、このシステムは、被検者に挿入されるように構成されているエンド・エフェクタを有するエンド・エフェクタ挿入装置を含んでおり、第二のコンピュータは、被検者が所定の呼吸状態を実質的に有するときにエンド・エフェクタを軌跡経路に沿って目標位置に向かって移動させることをエンド・エフェクタ挿入装置に行なわせる。
もう一つの実施形態例では、エンド・エフェクタを被検者の体内の目標位置まで案内するシステムを提供する。このシステムは、被検者の呼吸状態を監視する呼吸監視装置を含んでいる。このシステムはさらに、被検者が所定の呼吸状態を有するときの被検者の体内の解剖学的構造を走査して走査データを生成するように構成されている走査装置を含んでいる。このシステムはさらに、走査データに基づいて複数のディジタル画像を形成する第一のコンピュータを含んでいる。第一のコンピュータはさらに、これら複数のディジタル画像を表示するように構成されている。第一のコンピュータはさらに、操作者がこれらディジタル画像の少なくとも1枚で皮膚挿入位置を指示することを可能にするように構成されている。第一のコンピュータはさらに、操作者がディジタル画像の少なくとも1枚で目標位置を指示することを可能にするように構成されている。第一のコンピュータはさらに、皮膚挿入位置及び目標位置に基づいて軌跡経路を決定するように構成されている。最後に、このシステムは、被検者に挿入されるように構成されているエンド・エフェクタを有するエンド・エフェクタ挿入装置を含んでいる。第一のコンピュータは、被検者が所定の呼吸状態を実質的に有するときにエンド・エフェクタを軌跡経路に沿って目標位置に向かって移動させることをエンド・エフェクタ挿入装置に行なわせる。
もう一つの実施形態例では、製造物品を提供する。この製造物品は、エンド・エフェクタを被検者の体内の目標位置まで案内するコンピュータ・プログラムを符号化して内部に有するコンピュータ記憶媒体を含んでいる。このコンピュータ記憶媒体は、被検者が所定の呼吸状態を有するときの被検者の体内の解剖学的構造の複数のディジタル画像を形成するコードを含んでいる。このコンピュータ記憶媒体はさらに、これらディジタル画像の少なくとも1枚で皮膚挿入位置を指示するためのコードを含んでいる。このコンピュータ記憶媒体はさらに、ディジタル画像の少なくとも1枚で目標位置を指示するためのコードを含んでいる。このコンピュータ記憶媒体はさらに、皮膚挿入位置及び目標位置に基づいて軌跡経路を決定するコードを含んでいる。最後に、このコンピュータ記憶媒体は、被検者が所定の呼吸状態を実質的に有するときにエンド・エフェクタを軌跡経路に沿って目標位置に向かって移動させるコードを含んでいる。
もう一つの実施形態例では、エンド・エフェクタを被検者の体内の目標位置まで案内する方法を提供する。この方法は、少なくとも1回の呼吸サイクルにわたって被検者の呼吸状態を監視するステップを含んでいる。最後に、この方法は、被検者が所定の呼吸状態を実質的に有するときにエンド・エフェクタを軌跡経路に沿って被検者における目標位置に向かって移動させるステップを含んでいる。
図1及び図2にはエンド・エフェクタ配置システム12及び施術用テーブル14を有する施術室10が図示されている。エンド・エフェクタ配置システム12は、エンド・エフェクタをテーブル14に横臥する被検者の体内の所定位置まで案内するために設けられており、このことについては後に詳述する。図示の実施形態ではエンド・エフェクタは切除針を含んでいる。但し、エンド・エフェクタは、例えば皮下注射針、生検針、操縦可能型(steerable)穿刺針、及び正像鏡(orthoscopic)器具を含めて被検者の体内に挿入可能な任意の器具又は装置であってよいことを理解されたい。
エンド・エフェクタ配置システム12は、ロボット式エンド・エフェクタ配置装置24、エンド・エフェクタ駆動器70、直線配置装置25、受動式アーム28、頭上支持部30、レール支持部32、結合ブラケット34、赤外線式呼吸測定装置36、位置反射体38、呼吸監視用コンピュータ40、CT走査装置制御用コンピュータ42、計算機式断層写真法(CT)走査装置44、ロボット制御用コンピュータ46、ジョイスティック47、及び表示モニタ48を含んでいる。
図4を参照して述べると、直線配置装置25は頭上支持部30及び受動式アーム28に結合されて動作する。直線配置装置25は、ロボット式エンド・エフェクタを配置装置24に対する3本の軸に関して所望の直線位置まで直線移動させるために設けられている。図示の実施形態では、直線配置装置25は、米国ニューハンプシャー州SalemのDanaher Precision Systems社製のXYZ Stageを含んでいる。
ロボット式エンド・エフェクタ配置装置24は、エンド・エフェクタ26が所望の軌跡に一致して配置され得るようにエンド・エフェクタ駆動器70を配向させるために設けられている。ロボット式エンド・エフェクタ配置装置24は、ロボット制御用コンピュータ46に電気的に結合されており、コンピュータ46から受け取った信号に応答して移動する。図示のように、ロボット式エンド・エフェクタ配置装置24はハウジング部62及びハウジング部64を含んでいる。図示のように、ロボット式エンド・エフェクタ配置装置24はエンド・エフェクタ駆動器70に結合されて動作する。
ハウジング部64は、受動式アーム28の継手116に結合されて動作するシャフトを有するモータ(図示されていない)を内部に収容するために設けられている。モータは、エンド・エフェクタ26を所望の位置に配置するためにロボット式エンド・エフェクタ配置装置24を矢印69によって示すように回転させるように構成されている。ハウジング部64はハウジング部62に結合されて動作し、エンド・エフェクタ26を直線移動させるようにエンド・エフェクタ駆動器70の構成部材を駆動するモータを収容するために設けられている。
図4〜図7を参照して述べると、エンド・エフェクタ駆動器70は、被検者の体内にエンド・エフェクタ26を直線移動させるために設けられている。エンド・エフェクタ駆動器70は、エンド・エフェクタ26に結合されて動作するハウジング部72を含んでいる。入力シャフト76が、ハウジング部64に配置されているDCモータ(図示されていない)によって駆動される。ハウジング部72は、アクリル材料又は他の放射線透過性材料で構築することができる。ハウジング部72は、該ハウジング部72を貫通して延在する第一のリム付き内孔74を画定しており、入力シャフト76及び軸方向荷重套管78を内部に摺動自在に収容するように構成されている。套管78は入力シャフト76の外側で摺動し、Oリング80を介してナット82によって荷重を加えられる。ハウジング部72はさらに、ハウジング部72の内部の第一のリム付き内孔74を横断して接線に沿って延在する第二のリム付き内孔84を内部に画定している。入力シャフト76、套管78及びナット82は、アクリル材料又は他の放射線透過性材料で構築することができる。入力シャフト76はさらに、駆動側端部69によってDCモータに、また他端ではナット82に結合されている。入力シャフト76を入力シャフト76と同じ回転速度でナット82に結合することにより、ナット82によってOリング80に荷重が加わって套管78が駆動される。
図6及び図7を参照して述べると、エンド・エフェクタ26はハウジング部72の第二のリム付き内孔84に沿って摺動し、結果として、入力シャフト76の接触面86と套管78の接触面88との間に押圧される。接触面88は套管の両端の一方に対応する。接触面86及び88は、各接触面とエンド・エフェクタ26との間の摩擦駆動力に対応してエンド・エフェクタ26に軸方向の力を加える。さらに、入力シャフト76の接触面86の底面にフィレット90を設けてもよい。
図4〜図10を参照して述べると、エンド・エフェクタ駆動器70から延びた基準部材68が設けられてロボット座標系をディジタル画像座標系に相関付けており、このことについては後に詳述する。基準部材68は一般的には、部材68の第一の脚及び第二の脚が穿刺針駆動器70のハウジングの両側から延びた状態でV字形になっている。
受動式アーム28は、ロボット式エンド・エフェクタ配置装置24を保持するために設けられている。図示のように、受動式アーム28は、アーム部110、アーム部112、締付け部114、並びに玉継手116、118及び120を含んでいる。ロボット式エンド・エフェクタ配置装置24は、間に介設されている玉継手116を介してアーム部110に取り付けられている。アーム部110は、玉継手118を介してアーム部112に結合されて動作する。締付け部114を緩めると、アーム部112及びアーム部110が玉継手118を介して互いに対して相対移動することができ、玉継手116及び120もまた緩む。締付け部114を締めると、アーム部110がアーム部112に対して固定されて、玉継手116及び120が所定位置にロックされる。そして、受動式アーム28が継手120を介して頭上支持部30に結合されて動作する。
図1を参照すると、被検者の上方に懸吊されている受動式アーム28及びロボット式エンド・エフェクタ配置装置24を保持する頭上支持部30が設けられている。頭上支持部30は、支持部122及び支持部124を含んでいる。支持部124は、支持部122の内部に入れ子式で収容される。このように、支持部124を支持部122に対して上下させてエンド・エフェクタ26を被検者の所望の皮膚挿入点に初期配置することができる。図示のように、頭上支持部30はレール支持部32に取り付けられて動作し、レール支持部32ははさらに、施術室10の天井に取り付けられる。
レール支持部32は、被検者に対するロボット式エンド・エフェクタ配置装置24の直線移動を可能にするために設けられる。図2を参照すると、頭上支持部30は結合ブラケット34を介してテーブル14の可動部に結合することができる。従って、テーブル14及びテーブルに横臥している被検者がCT走査装置44に関して直線移動すると、頭上支持部30はレール支持部32を介して直線移動して、ロボット式エンド・エフェクタ配置装置24がかかる移動の間に被検者に対して固定した位置に留まることを可能にする。
図1及び図8を参照して述べると、テーブル14に横臥している被検者の呼吸状態を測定する赤外線式呼吸測定装置36が設けられている。赤外線式呼吸測定装置36は、赤外線送信器130及び赤外線検出器132を含んでいる。図示のように、赤外線式呼吸測定装置36は、テーブル14に結合されて動作するスタンド133に装着されることができる。赤外線送信器130は赤外線ビームを被検者の胸部に配置されている反射体38に向かって照射する。すると、赤外線ビームは赤外線反射体38から反射して赤外線検出器132に向かう。赤外線検出器132は反射した赤外線ビームを受光して、反射した赤外線ビームに応じて被検者の胸部の位置を指示する信号135を発生する。被検者の胸部の位置はさらに、被検者の呼吸状態も示す。
被検者の呼吸状態を指示する信号135を受信する呼吸監視用コンピュータ40が設けられている。コンピュータ40はさらに、信号135の振幅が上限閾値(T)及び下限閾値(T)を有する所定範囲ΔR内にある時刻を判定するように構成されている。信号135が所定の呼吸状態を示す所定範囲ΔR内にあるときに、コンピュータ40はゲート信号137を発生し、ゲート信号137はロボット制御用コンピュータ46へ送信される。後に詳述するように、ロボット制御用コンピュータ46は、ゲート信号137が高論理レベルにあるときに被検者の体内にエンド・エフェクタ26を直線移動する。さらに、ゲート信号137が高論理レベルにないときには、ロボット制御用コンピュータはエンド・エフェクタ26の直線移動を停止させる。
図1及び図2を参照して述べると、所定の走査範囲内の被検者の体内の解剖学的構造の複数のCTディジタル画像を撮影する計算機式断層写真法(CT)走査装置44が設けられている。図示のように、CT走査装置44は開口140を含んでおり、開口140を通してテーブル14の一部及び被検者が延在することができる。CTスキャナ44の所定の走査範囲は開口140内に位置する。複数のCTディジタル画像はエンド・エフェクタ配置システム12の操作者によって用いられて、(i)エンド・エフェクタ26の皮膚挿入点、及び(ii)エンド・エフェクタ26の先端を配置すべき被検者の体内の目標位置を決定する。CT走査装置44はCT走査装置制御用コンピュータ42に結合されて動作する。尚、エンド・エフェクタ配置システム12は、CT走査装置44以外の例えば磁気共鳴撮像(MRI)装置、超音波撮像装置又はX線装置のような他の形式の医療撮像装置と共に用いることもできる。
CT走査装置制御用コンピュータ42は、CT走査装置44の動作を制御するために設けられる。具体的には、コンピュータ42は、被検者を走査して走査データを生成することを装置44に行なわせる。この後に、コンピュータ42は走査データを処理して、走査データから被検者の体内の解剖学的構造の複数のディジタル画像を形成する。この後に、ロボット制御用コンピュータ46はコンピュータ42に問い合わせて、ディジタル画像をロボット制御用コンピュータ46へ送信することをコンピュータ42に行なわせる。
ロボット制御用コンピュータ46は、ロボット式エンド・エフェクタ配置装置24及び直線配置装置25の移動を制御することによりエンド・エフェクタ26の移動を制御するために設けられる。ロボット制御用コンピュータ46は、ゲート信号137を受信する呼吸監視用コンピュータ40に電気的に結合される。ロボット制御用コンピュータ46はさらに、被検者の上述の複数のCTディジタル画像を受信するためにコンピュータ42に電気的に結合される。さらに、コンピュータ46はロボット式エンド・エフェクタ配置装置24に電気的に結合される。コンピュータ46の操作者は上述の複数のCTディジタル画像を表示モニタ48上のコンピュータ・ウィンドウに表示させることができる。操作者はまた、コンピュータ・ウィンドウのタッチスクリーンを介して被検者の体表の皮膚挿入点及び被検者の体内の目標位置を選択することができる。
テーブル14は、被検者を支持し、さらに被検者をCT走査装置44の走査領域内で移動させるために設けられている。テーブル14は、台160、垂直支持部材162、固定式テーブル・トップ部164及び可動式テーブル・トップ部166を含んでいる。図示のように、固定式テーブル・トップ部164は垂直支持部材162によって支持される。支持部材162はさらに、台160に固定式で取り付けられる。可動式テーブル・トップ部166は、固定式テーブル・トップ部164に対して直線移動することができる。前述のように、結合ブラケット34が受動式アーム28と可動式テーブル・トップ部166との間に介設されており、被検者がCT走査装置44の走査領域内に移動されつつあるときにロボット式エンド・エフェクタ配置装置24と被検者との間の相対位置を保持する。
被検者の体内での皮膚挿入点から目標点へのエンド・エフェクタ26の移動を案内する方法の詳細な説明を行なう前に、エンド・エフェクタ軌跡を決定してロボット式エンド・エフェクタ配置装置24を制御するためにロボット制御用コンピュータ46によって用いられる制御ウィンドウの簡単な全体像について説明する。図11に、ロボット制御用コンピュータ46によって表示モニタ48に生成されるコンピュータ・ウィンドウ180を示す。コンピュータ・ウィンドウ180は、(i)「設定」アイコン、(ii)「画像表示」アイコン、(iii)「手順計画」アイコン、(iv)「ロボット位置合わせ」アイコン、及び(v)「手順実行」アイコンを含め幾つかの命令アイコンを含んでおり、これらについて以下に詳述する。
ロボット制御用コンピュータ46の操作者が「設定」アイコンを選択すると、操作者は、エンド・エフェクタ26を被検者の体内に案内するときに用いられるエンド・エフェクタ移動速度を入力することを許可される。
ロボット制御用コンピュータ46の操作者が「画像表示」アイコンを選択すると、コンピュータ46はコンピュータ・ウィンドウ180を表示する。操作者が「画像取得」アイコンを選択すると、コンピュータ46はCT走査装置制御用コンピュータ42に問い合わせてCT走査装置44から得られた複数のディジタル画像を取得する。この後に、ロボット制御用コンピュータは所定枚数のディジタル画像をコンピュータ・ウィンドウ180に表示する。例えば、ディジタル画像190、192、194及び196をコンピュータ・ウィンドウ180に表示することができる。ディジタル画像190、192、194及び196は被検者の腹部の断面画像を表わす。
図12を参照して述べると、ロボット制御用コンピュータ46の操作者が「手順計画」アイコンを選択すると、コンピュータ46はコンピュータ・ウィンドウ204を表示する。コンピュータ・ウィンドウ204は、エンド・エフェクタ26が被検者の体内に初期挿入される位置である皮膚挿入点を操作者が選択することを可能にするために設けられる。さらに、ウィンドウ204は、エンド・エフェクタ26の先端を移動させるべき被検者の体内の目標点を操作者が選択することを可能にするために設けられる。図示のように、ウィンドウ204は、(i)「皮膚挿入点画像選択」アイコン、(ii)「皮膚挿入点選択」アイコン、(iii)「目標画像選択」アイコン、及び(iv)「目標点選択」アイコンの各選択アイコンを含んでいる。
「皮膚挿入点画像選択」アイコンは、操作者が複数のディジタル画像を観察して、エンド・エフェクタ26について所望の皮膚挿入域を有する特定のディジタル画像を決定することを可能にする。図示のように、操作者は所望の皮膚挿入域を有するディジタル画像210を選択することができる。
「皮膚挿入点選択」アイコンは、操作者がエンド・エフェクタ26についての皮膚挿入点を指定するために特定のディジタル画像で点を選択することを可能にする。図示のように、操作者はディジタル画像210上で皮膚挿入点212を選択することができる。
「目標画像選択」アイコンは、操作者が複数のディジタル画像を観察してエンド・エフェクタ26の先端について所望の目標域を有する特定の目標ディジタル画像を選択することを可能にする。図示のように、操作者は所望の目標域を有するディジタル画像214を選択することができる。
「目標点選択」アイコンは、操作者がエンド・エフェクタ26についての目標点を指定するための特定の目標ディジタル画像で点を選択することを可能にする。図示のように、操作者はディジタル画像214上の目標点216を選択することができる。
図10及び図13を参照して述べると、操作者が「ロボット位置合わせ」アイコンを選択すると、ロボット制御用コンピュータ46は表示モニタ48にコンピュータ・ウィンドウ224を生成して、CT走査装置制御用コンピュータ42からディジタル画像を検索する。「位置合わせ実行」アイコンは、操作者がロボット式エンド・エフェクタ配置装置24に所望の位置を指令してエンド・エフェクタ26をディジタル又はCT画像座標系において指定される点(例えば皮膚挿入点及び目標点)に配置することを可能にする。具体的には、操作者は、頭上支持部30及びロボット式エンド・エフェクタ配置装置24を手動で移動させてエンド・エフェクタ26の先端を所望の皮膚挿入点の近くに概略的に配置することを許される。被検者の術前走査の前に、ディジタル画像座標系は固定されたロボット座標系に関連付けされて、エンド・エフェクタ26をディジタル画像座標系において指定される点まで移動させる指令をロボット式エンド・エフェクタ配置装置24が受けることができるようにする。この工程は6段のステップを有する。すなわち(i)エンド・エフェクタ26に対して既知の位置及び配向に取り付けられた基準部材68のディジタル画像を形成するステップ、(ii)このディジタル画像を用いて、ディジタル画像座標系に対して相対的なエンド・エフェクタ26の位置及び配向を決定するステップ、(iii)前のステップで決定された位置及び配向から、エンド・エフェクタ座標系とディジタル画像座標系との間の空間的関係を定義する第一の同次座標変換行列(例えば同次変換)を構築するステップ、(iv)ロボットの運動特性を介してロボット参照フレームに対して相対的なエンド・エフェクタ26の位置及び配向を決定するステップ、(v)前のステップで決定された位置及び配向から、エンド・エフェクタ座標系とロボット座標系との間の空間的関係を定義する第二の同次座標変換行列を構築するステップ、並びに(vi)第一の同次座標変換行列と第二の同次座標変換行列とを乗算して、操作者がディジタル画像座標系でロボット移動を指定することを可能にする第三の座標変換行列を得るステップである。
図14を参照して述べると、ロボット制御用コンピュータ46の操作者が「手順実行」アイコンを選択すると、コンピュータ46は表示モニタ48にコンピュータ・ウィンドウ230を表示する。ウィンドウ230は、次の命令アイコンを含んでいる。すなわち(i)「皮膚挿入点へ移動」アイコン、(ii)「エンド・エフェクタ配向変更」アイコン及び(iii)「エンド・エフェクタ駆動」アイコンである。
操作者が「皮膚挿入点へ移動」アイコンを選択すると、「皮膚挿入点へ自動移動」アイコンが表示される。この後に、操作者が「皮膚挿入点へ自動移動」アイコンを選択すると、直線配置装置25がエンド・エフェクタ先端をジョイスティック47の作動に応じて位置合わせ位置から所望の皮膚挿入点へ移動させる。
操作者が「エンド・エフェクタ配向変更」アイコンを選択してジョイスティック47を作動させると、ロボット式エンド・エフェクタ配置装置24はエンド・エフェクタ26の先端を、選択された皮膚挿入点及び目標点に基づいて算出された軌跡経路に沿って配向させる。
操作者が「エンド・エフェクタ駆動」アイコンを選択してジョイスティック47を作動させると、ロボット式エンド・エフェクタ配置装置24は、所定の呼吸状態が得られたときに皮膚挿入点から目標点までのエンド・エフェクタ26の先端の直線移動を開始する。さらに、ロボット制御用コンピュータ46は「フルオロ表示」アイコンを含むコンピュータ・ウィンドウ232を表示する。操作者が「フルオロ表示」アイコンを選択すると、実時間ディジタル画像234が表示されて、操作者が被検者の体内でのエンド・エフェクタ26の走行経路を観察するのを可能にすることができる。
図16を参照して、エンド・エフェクタ26を被検者の体内の皮膚挿入点から目標位置まで案内する方法について説明する。
ステップ250では、被検者が一定の呼吸状態を保持した状態でCT走査装置44が被検者の術前走査を行なって、走査データを生成する。CT走査装置制御用コンピュータは、走査データに基づいて被検者の体内の解剖学的構造の第一の複数のディジタル画像を形成する。尚、術前走査時には、被検者は実質的に、例えば全吸気位置又は全呼気位置のような所定の呼吸状態を保持していることを特記しておく。
ステップ252では、呼吸監視用コンピュータ40が術前走査時に被検者の呼吸状態を観察して、被検者の所定の呼吸状態を決定する。具体的には、呼吸監視用コンピュータ40は被検者の呼吸状態を示すゲート信号137を受信する。
ステップ254では、CT走査装置制御用コンピュータ42が第一の複数のディジタル画像をロボット制御用コンピュータ46へ送信する。
ステップ256では、ロボット制御用コンピュータ46の操作者が第一の複数のディジタル画像から第一のディジタル画像を選択する。第一のディジタル画像は目標位置についての関心領域を示す。
ステップ258では、ロボット制御用コンピュータ46の操作者はエンド・エフェクタ先端について目標位置を第一のディジタル画像上で選択する。目標位置はディジタル画像座標系での一つの位置に対応する。
ステップ260では、ロボット制御用コンピュータ46の操作者はこれら複数のディジタル画像から第二のディジタル画像を選択する。第二のディジタル画像は皮膚挿入位置についての関心領域を示す。
ステップ262では、ロボット制御用コンピュータ46の操作者はエンド・エフェクタ先端についての皮膚挿入位置を第二のディジタル画像上で選択する。皮膚挿入位置はディジタル画像座標系での一つの位置に対応する。
ステップ264では、ロボット制御用コンピュータ46が、ロボット式エンド・エフェクタ配置装置24及びエンド・エフェクタ駆動器を用いて皮膚挿入位置から目標位置までエンド・エフェクタ先端を移動させるためのエンド・エフェクタ先端についての軌跡経路をディジタル画像座標系において算出する。
ステップ266では、エンド・エフェクタ駆動器70に配設されている基準部材68がCT走査装置44によって走査され得るように、ロボット式エンド・エフェクタ配置装置24がCT走査装置44の走査領域に配置される。
ステップ268では、CT走査装置44が基準部材68の走査を実行して走査データを生成する。CT走査装置制御用コンピュータ42はこの走査データに基づいて基準部材68の第二の複数のディジタル画像を形成する。
ステップ270では、CT走査装置制御用コンピュータ42がロボット制御用コンピュータ46へ第二の複数のディジタル画像を送信する。
ステップ272では、ロボット制御用コンピュータ46がディジタル画像座標系における基準部材68の位置を決定する。
ステップ274では、ロボット制御用コンピュータ46が、ディジタル画像座標系の座標をエンド・エフェクタ座標系の座標へ変換する第一の座標変換行列を、(i)エンド・エフェクタ座標系における基準部材68の位置、及び(ii)ディジタル画像座標系における基準部材68の位置に基づいて決定する。第一四半部の変換行列は、ロボット制御用コンピュータ46がディジタル画像座標系におけるエンド・エフェクタ26の位置を決定することを可能にする。
ステップ276では、ロボット制御用コンピュータ46が、エンド・エフェクタ座標系の座標をロボット座標系の座標へ変換する第二の座標変換行列をロボットの運動特性に基づいて決定する。
ステップ278では、ロボット制御用コンピュータ46が、ディジタル画像座標系の座標をロボット座標系の座標へ変換する第三の座標変換行列を第一の座標変換行列及び第二の座標変換行列に基づいて決定する。尚、ロボット制御用コンピュータ46がディジタル画像座標系及びロボット座標系におけるエンド・エフェクタ26の位置を決定することができるときに、コンピュータ46はディジタル画像座標系とロボット座標系との間で座標変換し得ることを理解されたい。
ステップ280では、ロボット制御用コンピュータ46が、ディジタル画像座標系において指定される軌跡経路を第三の座標変換行列を介して変換することによりロボット座標系での軌跡経路を決定する。
ステップ282では、エンド・エフェクタ26を保持するロボット式エンド・エフェクタ配置装置24が、エンド・エフェクタ26の先端が皮膚挿入位置に配置されて所定の軌跡経路と一致して配向するように移動される。
ステップ284では、呼吸監視用コンピュータ40は、監視されている被検者の呼吸状態が所定の呼吸状態に等しいか否かを判定する。具体的には、呼吸監視用コンピュータ40は、信号135が所定の呼吸範囲ΔR内にある時刻を判定する。信号135が所定の呼吸範囲内にあるとコンピュータ40が判定したら、コンピュータ40はロボット制御用コンピュータ46に送信されるゲート信号137を発生する。ステップ284の値が「Yes」に等しければ、方法はステップ286へ進む。他の場合には、ステップ284へ戻る。
ステップ286では、ロボット制御用コンピュータ46がロボット座標系における目標位置座標を算出する。
ステップ288では、ロボット制御用コンピュータ46は、操作者がジョイスティック47を作動させ、且つ監視されている呼吸状態が所定の呼吸状態に等しくなったときに、エンド・エフェクタ26の先端を目標位置座標に向かって移動させることをエンド・エフェクタ駆動器70に行なわせる。
ステップ290では、操作者は、エンド・エフェクタ26の先端が目標位置に到達したか否かを被検者のエンド・エフェクタ26の「実時間」ディジタル画像を観察することにより判定する。代替的には、エンド・エフェクタ26の先端が目標位置に到達したか否かをロボット制御用コンピュータ46が自動判定することもできる。ステップ290の値が「Yes」に等しい場合には、方法はステップ300へ進む。他の場合には、ステップ284へ戻る。
ステップ300では、ロボット制御用コンピュータ46はエンド・エフェクタ26の直線移動を停止させる。
エンド・エフェクタを被検者の体内の目標位置まで案内するシステム及び方法は他のシステムを凌ぐ実質的な利点を有する。具体的には、本システムは、被検者が所定の呼吸状態にあるときにのみ被検者の体内の所定の軌跡経路に沿ってエンド・エフェクタを移動させて目標位置に向かうエンド・エフェクタのさらに正確な配置を得る技術的効果を提供する。
幾つかの実施形態例を参照して本発明の実施形態を説明したが、当業者であれば本発明の範囲から逸脱せずに本発明の構成要素に対して様々な変形を加えまた均等構成を置換し得ることを理解されよう。加えて、本発明の範囲から逸脱せずに本発明の教示を具体的な状況に合わせて適応構成する多くの改変を施してもよい。従って、本発明は、本発明を実施するために開示された実施形態に限定されず、特許請求の範囲内にある全ての実施形態を包含するものとする。さらに、第一、第二等の用語の利用は重要性の序列を表わすのではなく、一方の要素を他方の要素と区別するために用いられている。さらに、単数不定冠詞の利用は量の制限を表わすのではなく、参照されている項目が少なくとも一つ存在していることを示すものである。
一実施形態例によるエンド・エフェクタ配置システムを含む施術室の概略図である。 図1のエンド・エフェクタ配置システムの概略図である。 図2のエンド・エフェクタ配置システムの一部の概略拡大図である。 図2のエンド・エフェクタ配置システムに用いられるロボット式エンド・エフェクタ配置装置及び受動式アームの概略図である。 図4のロボット式エンド・エフェクタ配置装置に用いられるエンド・エフェクタ駆動器の概略図である。 図4のロボット式エンド・エフェクタ配置装置に用いられるエンド・エフェクタ駆動器の概略図である。 図4のロボット式エンド・エフェクタ配置装置に用いられるエンド・エフェクタ駆動器の概略図である。 被検者の呼吸運動を示す信号の概略図である。 被検者の所定の呼吸状態を示す信号の概略図である。 図1のエンド・エフェクタ配置システムによって用いられる3種の座標系の図である。 図1のエンド・エフェクタ配置システムによって用いられるコンピュータ・ウィンドウの概略図である。 図1のエンド・エフェクタ配置システムによって用いられるコンピュータ・ウィンドウの概略図である。 図1のエンド・エフェクタ配置システムによって用いられるコンピュータ・ウィンドウの概略図である。 図1のエンド・エフェクタ配置システムによって用いられるコンピュータ・ウィンドウの概略図である。 図1のエンド・エフェクタ配置システムによって用いられるコンピュータ・ウィンドウの概略図である。 エンド・エフェクタを被検者の体内の目標位置まで案内する方法の流れ図である。 エンド・エフェクタを被検者の体内の目標位置まで案内する方法の流れ図である。 エンド・エフェクタを被検者の体内の目標位置まで案内する方法の流れ図である。
符号の説明
10 施術室
12 エンド・エフェクタ配置システム
14 施術用テーブル
24 ロボット式エンド・エフェクタ配置装置
25 直線配置装置
26 エンド・エフェクタ
28 受動式アーム
30 頭上支持部
32 レール支持部
34 結合ブラケット
36 赤外線式呼吸測定装置
38 位置反射体
62、64、72 ハウジング部
68 基準部材
69 エンド・エフェクタ配置装置の回転運動の方向(図4)
69 駆動側端部(図5)
70 エンド・エフェクタ駆動器
74、84 リム付き内孔
76 入力シャフト
78 軸方向取付け套管
80 O字管
82 ナット
86、88 接触面
90 フィレット
110、112 アーム部
114 締付け部
116、118、120 玉継手
122、124 支持部
130 赤外線送信器
132 赤外線検出器
133 スタンド
135 胸部位置信号(呼吸信号)
137 ゲート信号
140 開口
160 台
162 垂直支持部材
164 固定式テーブル・トップ部
166 可動式テーブル・トップ部
180 コンピュータ・ウィンドウ
190、192、194、196、214、234 ディジタル画像
204 「手順計画」コンピュータ・ウィンドウ
210 皮膚挿入域を有するディジタル画像
212 皮膚挿入点
214 目標域を有するディジタル画像
216 目標点
224 「ロボット位置合わせ」コンピュータ・ウィンドウ
230 「手順実行」コンピュータ・ウィンドウ
232 「エンド・エフェクタ駆動」コンピュータ・ウィンドウ
234 実時間ディジタル画像

Claims (10)

  1. エンド・エフェクタ(26)を被検者の体内の目標位置(216)まで案内する方法であって、
    前記被検者が所定の呼吸状態を有するときの前記被検者の体内の解剖学的構造の複数のディジタル画像(210、214)を形成するステップと、
    前記ディジタル画像の少なくとも1枚で皮膚挿入位置(212)を指示するステップと、
    前記ディジタル画像の少なくとも1枚で前記目標位置(216)を指示するステップと、
    前記皮膚挿入位置(212)及び前記目標位置(216)に基づいて軌跡経路を決定するステップと、
    前記被検者が前記所定の呼吸状態を実質的に有するときに前記エンド・エフェクタ(26)を前記軌跡経路に沿って前記目標位置(216)に向かって移動させるステップと、
    を備えた方法。
  2. 前記複数のディジタル画像(210、214)を形成するステップは、
    走査装置(44)の内部で軸に沿って前記被検者を移動させるステップと、
    該移動時に、各々別個の軸方向位置で形成される前記複数の断面ディジタル画像(210、214)を形成するステップと、
    を含んでいる、請求項1に記載の方法。
  3. 前記エンド・エフェクタ(26)を移動させるステップは、
    前記被検者の呼吸状態を経時的に監視するステップと、
    前記監視された呼吸状態と前記所定の呼吸状態との間の差が閾値以下であるときに前記エンド・エフェクタ(26)を前記軌跡経路に沿って移動させるステップと、
    を含んでいる、請求項1に記載の方法。
  4. 前記エンド・エフェクタ(26)は所定の速度で移動される、請求項1に記載の方法。
  5. 前記複数のディジタル画像(210、214)は複数の計算機式断層写真法画像を含んでいる、請求項1に記載の方法。
  6. エンド・エフェクタ(26)を被検者の体内の目標位置(216)まで案内するシステムであって、
    前記被検者の呼吸状態を監視する呼吸監視装置と、
    前記被検者が所定の呼吸状態を有するときの前記被検者の体内の解剖学的構造を走査して走査データを生成するように構成されている走査装置(44)と、
    前記走査データに基づいて複数のディジタル画像(210、214)を形成する第一のコンピュータ(42)と、
    前記複数のディジタル画像(210、214)を表示するように構成されている第二のコンピュータ(46)であって、さらに、操作者が前記ディジタル画像の少なくとも1枚で皮膚挿入位置(212)を指示することを可能にするように構成されており、さらに、前記操作者が前記ディジタル画像の少なくとも1枚で前記目標位置(216)を指示することを可能にするように構成されており、さらに、前記皮膚挿入位置(212)及び前記目標位置(216)に基づいて軌跡経路を決定するように構成されている第二のコンピュータ(46)と、
    前記被検者に挿入されるように構成されている前記エンド・エフェクタ(26)を有するエンド・エフェクタ挿入装置であって、前記第二のコンピュータ(46)は、前記被検者が前記所定の呼吸状態を実質的に有するときに前記エンド・エフェクタ(26)を前記軌跡経路に沿って前記目標位置(216)に向かって移動させることを当該エンド・エフェクタ挿入装置に行なわせる、エンド・エフェクタ挿入装置と、
    を備えたシステム。。
  7. 前記呼吸監視装置は、前記被検者の胸部の位置を検出する赤外線式呼吸測定装置(36)を含んでいる、請求項6に記載のシステム。
  8. 前記走査装置(44)は計算機式断層写真法スキャナを含んでおり、前記複数のディジタル画像は複数の計算機式断層写真法画像を含んでいる、請求項6に記載のシステム。
  9. 前記エンド・エフェクタ挿入装置は、前記エンド・エフェクタ(26)を直線移動させるように構成されているエンド・エフェクタ駆動器(70)を含んでいる、請求項6に記載のシステム。
  10. エンド・エフェクタ(26)を被検者の体内の目標位置(216)まで案内する方法であって、
    少なくとも1回の呼吸サイクルにわたって被検者の呼吸状態を監視するステップと、
    前記被検者が所定の呼吸状態を実質的に有するときにエンド・エフェクタ(26)を軌跡経路に沿って前記被検者における前記目標位置(216)に向かって移動させるステップと、
    を備えた方法。
JP2005153249A 2004-05-27 2005-05-26 エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品 Expired - Fee Related JP5021908B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/709,783 US20050267359A1 (en) 2004-05-27 2004-05-27 System, method, and article of manufacture for guiding an end effector to a target position within a person
US10/709,783 2004-05-27

Publications (2)

Publication Number Publication Date
JP2005334650A true JP2005334650A (ja) 2005-12-08
JP5021908B2 JP5021908B2 (ja) 2012-09-12

Family

ID=35426304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005153249A Expired - Fee Related JP5021908B2 (ja) 2004-05-27 2005-05-26 エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品

Country Status (4)

Country Link
US (1) US20050267359A1 (ja)
JP (1) JP5021908B2 (ja)
CN (1) CN100518626C (ja)
NL (1) NL1029127C2 (ja)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011504378A (ja) * 2007-06-12 2011-02-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像ガイドされる治療
JP2013252452A (ja) * 2005-06-06 2013-12-19 Intuitive Surgical Inc 腹腔鏡超音波ロボット外科手術システム
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
JP2016193222A (ja) * 2010-12-21 2016-11-17 レニショウ (アイルランド) リミテッド 画像を分析するための方法および装置
JP2016536047A (ja) * 2013-10-07 2016-11-24 テクニオン リサーチ アンド ディベロップメント ファンデーション リミテッド 軸操作による針操縦
JP2016538013A (ja) * 2013-10-07 2016-12-08 テクニオン リサーチ アンド ディベロップメント ファンデーション リミテッド ロボットによる画像誘導下の針挿入のためのグリッパー
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9795446B2 (en) 2005-06-06 2017-10-24 Intuitive Surgical Operations, Inc. Systems and methods for interactive user interfaces for robotic minimally invasive surgical systems
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JP2019118450A (ja) * 2017-12-28 2019-07-22 キヤノンメディカルシステムズ株式会社 医用画像診断装置、周辺機器及び撮影システム
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP2020520691A (ja) * 2017-05-12 2020-07-16 オーリス ヘルス インコーポレイテッド 生検装置およびシステム
JP2020162699A (ja) * 2019-03-28 2020-10-08 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2021013757A (ja) * 2012-12-21 2021-02-12 マコ サージカル コーポレーション 手術道具の触覚制御のためのシステム及び方法
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001280040A1 (en) * 2000-07-31 2002-02-13 Galil Medical Ltd. Planning and facilitation systems and methods for cryosurgery
DE102004036217B4 (de) * 2004-07-26 2009-08-06 Siemens Ag Interventionelles, biegbares medizinisches Gerät mit einer Empfangseinheit für ein Magnetresonanzsignal und einer Auswerteeinheit
US20090318935A1 (en) * 2005-11-10 2009-12-24 Satish Sundar Percutaneous medical devices and methods
US20090030339A1 (en) * 2006-01-26 2009-01-29 Cheng Wai Sam C Apparatus and method for motorised placement of needle
WO2007129308A2 (en) * 2006-05-02 2007-11-15 Galil Medical Ltd. Cryotherapy planning and control system
WO2007129310A2 (en) * 2006-05-02 2007-11-15 Galil Medical Ltd. Cryotherapy insertion system and method
US8401620B2 (en) 2006-10-16 2013-03-19 Perfint Healthcare Private Limited Needle positioning apparatus and method
US20090248200A1 (en) * 2007-10-22 2009-10-01 North End Technologies Method & apparatus for remotely operating a robotic device linked to a communications network
DE102008022924A1 (de) * 2008-05-09 2009-11-12 Siemens Aktiengesellschaft Vorrichtung und Verfahren für einen medizinischen Eingriff
US20120190970A1 (en) 2010-11-10 2012-07-26 Gnanasekar Velusamy Apparatus and method for stabilizing a needle
FR2985167A1 (fr) * 2011-12-30 2013-07-05 Medtech Procede medical robotise de surveillance de la respiration d'un patient et de correction de la trajectoire robotisee.
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US12004905B2 (en) 2012-06-21 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11857149B2 (en) * 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
CN106062822B (zh) 2014-03-04 2020-11-03 赞克特机器人有限公司 用于针插入的动态规划方法
US10376250B2 (en) 2015-03-23 2019-08-13 Synaptive Medical (Barbados) Inc. Automated autopsy system
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
CN105905187A (zh) * 2016-06-22 2016-08-31 北京科技大学 仿生正六边形六足机器人
EP3510927A1 (en) * 2018-01-10 2019-07-17 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring
WO2019137507A1 (en) * 2018-01-11 2019-07-18 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for surgical route planning
CN109009421A (zh) * 2018-07-30 2018-12-18 任庆峰 一种hpm高精度微创消融矫正装置及其消融矫正方法
CN111670076B (zh) * 2018-08-24 2022-10-11 深圳配天智能技术研究院有限公司 涂胶机器人及涂胶方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07194614A (ja) * 1993-12-28 1995-08-01 Shimadzu Corp 手術器具の位置表示装置
JPH11333007A (ja) * 1998-05-28 1999-12-07 Hitachi Medical Corp 治療システムにおける呼吸同期装置
JP2001170027A (ja) * 1999-09-30 2001-06-26 Koninkl Philips Electronics Nv 医療器具の位置を決定する方法及び装置
JP2001327514A (ja) * 2000-05-23 2001-11-27 Toshiba Corp 放射線治療計画装置及び放射線治療計画法
JP2001524863A (ja) * 1998-02-25 2001-12-04 バイオセンス・インコーポレイテッド 画像案内式胸部治療法およびその装置
US6400979B1 (en) * 1997-02-20 2002-06-04 Johns Hopkins University Friction transmission with axial loading and a radiolucent surgical needle driver
JP2003180680A (ja) * 2001-11-26 2003-07-02 Siemens Ag ナビゲーションシステム
JP2003523220A (ja) * 1999-03-16 2003-08-05 アキュレイ インコーポレイテッド 治療中に呼吸と患者の運動を補償するための装置及び方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4583538A (en) * 1984-05-04 1986-04-22 Onik Gary M Method and apparatus for stereotaxic placement of probes in the body utilizing CT scanner localization
US5078140A (en) * 1986-05-08 1992-01-07 Kwoh Yik S Imaging device - aided robotic stereotaxis system
US4838279A (en) * 1987-05-12 1989-06-13 Fore Don C Respiration monitor
ES2085885T3 (es) * 1989-11-08 1996-06-16 George S Allen Brazo mecanico para sistema interactivo de cirugia dirigido por imagenes.
US5657429A (en) * 1992-08-10 1997-08-12 Computer Motion, Inc. Automated endoscope system optimal positioning
AU7468494A (en) * 1993-07-07 1995-02-06 Cornelius Borst Robotic system for close inspection and remote treatment of moving parts
US5628327A (en) * 1994-12-15 1997-05-13 Imarx Pharmaceutical Corp. Apparatus for performing biopsies and the like
US5799055A (en) * 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
IL119545A (en) * 1996-11-01 2002-11-10 Philips Medical Systems Techno Method and device for precise invasive procedures
CA2252825A1 (en) * 1997-02-25 1998-08-27 Biosense, Inc. Image-guided thoracic therapy and apparatus therefor
US5957933A (en) * 1997-11-28 1999-09-28 Picker International, Inc. Interchangeable guidance devices for C.T. assisted surgery and method of using same
CA2335234A1 (en) * 1998-06-15 1999-12-23 Michael K. Landi Device for determining access to subsurface target
US6298257B1 (en) * 1999-09-22 2001-10-02 Sterotaxis, Inc. Cardiac methods and system
US6665555B2 (en) * 2000-04-05 2003-12-16 Georgetown University School Of Medicine Radiosurgery methods that utilize stereotactic methods to precisely deliver high dosages of radiation especially to the spine
US7366561B2 (en) * 2000-04-07 2008-04-29 Medtronic, Inc. Robotic trajectory guide
US7494494B2 (en) * 2000-08-30 2009-02-24 Johns Hopkins University Controllable motorized device for percutaneous needle placement in soft tissue target and methods and systems related thereto
WO2002041782A2 (en) * 2000-11-24 2002-05-30 Koninklijke Philips Electronics N.V. Diagnostic imaging interventional apparatus
CA2455663C (en) * 2001-08-24 2008-02-26 Mitsubishi Heavy Industries, Ltd. Radiotherapy apparatus
US6546279B1 (en) * 2001-10-12 2003-04-08 University Of Florida Computer controlled guidance of a biopsy needle
JP2005529630A (ja) * 2001-11-08 2005-10-06 ザ ジョンズ ホプキンズ ユニバーシティ 画像サーボに基づき蛍光透視法によりターゲティングを行うロボットのためのシステムおよび方法
CA2475239C (en) * 2002-02-06 2008-07-29 The Johns Hopkins University Remote center of motion robotic system and method
US7533004B2 (en) * 2002-10-18 2009-05-12 Finisar Corporation Automatic detection of production and manufacturing data corruption

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07194614A (ja) * 1993-12-28 1995-08-01 Shimadzu Corp 手術器具の位置表示装置
US6400979B1 (en) * 1997-02-20 2002-06-04 Johns Hopkins University Friction transmission with axial loading and a radiolucent surgical needle driver
JP2001524863A (ja) * 1998-02-25 2001-12-04 バイオセンス・インコーポレイテッド 画像案内式胸部治療法およびその装置
JPH11333007A (ja) * 1998-05-28 1999-12-07 Hitachi Medical Corp 治療システムにおける呼吸同期装置
JP2003523220A (ja) * 1999-03-16 2003-08-05 アキュレイ インコーポレイテッド 治療中に呼吸と患者の運動を補償するための装置及び方法
JP2001170027A (ja) * 1999-09-30 2001-06-26 Koninkl Philips Electronics Nv 医療器具の位置を決定する方法及び装置
JP2001327514A (ja) * 2000-05-23 2001-11-27 Toshiba Corp 放射線治療計画装置及び放射線治療計画法
JP2003180680A (ja) * 2001-11-26 2003-07-02 Siemens Ag ナビゲーションシステム

Cited By (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US9232984B2 (en) 1999-04-07 2016-01-12 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US10433919B2 (en) 1999-04-07 2019-10-08 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US9795446B2 (en) 2005-06-06 2017-10-24 Intuitive Surgical Operations, Inc. Systems and methods for interactive user interfaces for robotic minimally invasive surgical systems
JP2013252452A (ja) * 2005-06-06 2013-12-19 Intuitive Surgical Inc 腹腔鏡超音波ロボット外科手術システム
US11717365B2 (en) 2005-06-06 2023-08-08 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US11399909B2 (en) 2005-06-06 2022-08-02 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems
US10646293B2 (en) 2005-06-06 2020-05-12 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US10603127B2 (en) 2005-06-06 2020-03-31 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10773388B2 (en) 2006-06-29 2020-09-15 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10737394B2 (en) 2006-06-29 2020-08-11 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10730187B2 (en) 2006-06-29 2020-08-04 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11638999B2 (en) 2006-06-29 2023-05-02 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9801690B2 (en) 2006-06-29 2017-10-31 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical instrument
US10137575B2 (en) 2006-06-29 2018-11-27 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
JP2011504378A (ja) * 2007-06-12 2011-02-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像ガイドされる治療
US10695136B2 (en) 2007-06-13 2020-06-30 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9901408B2 (en) 2007-06-13 2018-02-27 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US11751955B2 (en) 2007-06-13 2023-09-12 Intuitive Surgical Operations, Inc. Method and system for retracting an instrument into an entry guide
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US11399908B2 (en) 2007-06-13 2022-08-02 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9629520B2 (en) 2007-06-13 2017-04-25 Intuitive Surgical Operations, Inc. Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide
US11432888B2 (en) 2007-06-13 2022-09-06 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US11382702B2 (en) 2008-06-27 2022-07-12 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US11638622B2 (en) 2008-06-27 2023-05-02 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10368952B2 (en) 2008-06-27 2019-08-06 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US10282881B2 (en) 2009-03-31 2019-05-07 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US11941734B2 (en) 2009-03-31 2024-03-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10984567B2 (en) 2009-03-31 2021-04-20 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10959798B2 (en) 2009-08-15 2021-03-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US11596490B2 (en) 2009-08-15 2023-03-07 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10772689B2 (en) 2009-08-15 2020-09-15 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10537994B2 (en) 2010-02-12 2020-01-21 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10828774B2 (en) 2010-02-12 2020-11-10 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
JP2016193222A (ja) * 2010-12-21 2016-11-17 レニショウ (アイルランド) リミテッド 画像を分析するための方法および装置
US11278296B2 (en) 2012-12-21 2022-03-22 Mako Surgical Corp. Systems and methods for haptic control of a surgical tool
US11259816B2 (en) 2012-12-21 2022-03-01 Mako Surgical Corp. Systems and methods for haptic control of a surgical tool
JP7397129B2 (ja) 2012-12-21 2023-12-12 マコ サージカル コーポレーション 手術道具の触覚制御のためのシステム及び方法
JP7091419B2 (ja) 2012-12-21 2022-06-27 マコ サージカル コーポレーション 手術道具の触覚制御のためのシステム及び方法
JP2022118111A (ja) * 2012-12-21 2022-08-12 マコ サージカル コーポレーション 手術道具の触覚制御のためのシステム及び方法
US11857201B2 (en) 2012-12-21 2024-01-02 Mako Surgical Corp. Surgical system with automated alignment
US11857200B2 (en) 2012-12-21 2024-01-02 Mako Surgical Corp. Automated alignment of a surgical tool
JP2021013757A (ja) * 2012-12-21 2021-02-12 マコ サージカル コーポレーション 手術道具の触覚制御のためのシステム及び方法
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11389255B2 (en) 2013-02-15 2022-07-19 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11806102B2 (en) 2013-02-15 2023-11-07 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP2016536047A (ja) * 2013-10-07 2016-11-24 テクニオン リサーチ アンド ディベロップメント ファンデーション リミテッド 軸操作による針操縦
JP2016538013A (ja) * 2013-10-07 2016-12-08 テクニオン リサーチ アンド ディベロップメント ファンデーション リミテッド ロボットによる画像誘導下の針挿入のためのグリッパー
US11529129B2 (en) 2017-05-12 2022-12-20 Auris Health, Inc. Biopsy apparatus and system
JP2020520691A (ja) * 2017-05-12 2020-07-16 オーリス ヘルス インコーポレイテッド 生検装置およびシステム
JP7046599B2 (ja) 2017-12-28 2022-04-04 キヤノンメディカルシステムズ株式会社 医用画像診断装置、周辺機器及び撮影システム
JP2019118450A (ja) * 2017-12-28 2019-07-22 キヤノンメディカルシステムズ株式会社 医用画像診断装置、周辺機器及び撮影システム
JP7355514B2 (ja) 2019-03-28 2023-10-03 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2020162699A (ja) * 2019-03-28 2020-10-08 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Also Published As

Publication number Publication date
US20050267359A1 (en) 2005-12-01
CN100518626C (zh) 2009-07-29
NL1029127C2 (nl) 2007-08-13
NL1029127A1 (nl) 2005-11-30
JP5021908B2 (ja) 2012-09-12
CN1714742A (zh) 2006-01-04

Similar Documents

Publication Publication Date Title
JP5021908B2 (ja) エンド・エフェクタを被検者の体内の目標位置まで案内するシステム、方法並びに製造物品
JP6843639B2 (ja) 超音波診断装置及び超音波診断支援装置
US20190069961A1 (en) Method and system for performing invasive medical procedures using a surgical robot
US11896318B2 (en) Methods and systems for controlling a surgical robot
JP4277964B2 (ja) フレームレス定位手術装置
JP5848005B2 (ja) 可動式画像取得における被検体の位置決めの自動式支援のシステム
CN110868937B (zh) 与声学探头的机器人仪器引导件集成
JP2010269067A (ja) 治療支援装置
US20160082596A1 (en) Mobile medical apparatus
US8721179B2 (en) Medical bed apparatus
CN208573801U (zh) 手术机器人系统
JP2007136201A (ja) 検査対象のx線診断方法および装置
Christoforou et al. A novel, general‐purpose, MR‐compatible, manually actuated robotic manipulation system for minimally invasive interventions under direct MRI guidance
US11937887B2 (en) Ultrasound system and method for tracking movement of an object
JP2006263068A (ja) 超音波診断装置
US11234884B2 (en) Medical apparatus and method for operating the medical apparatus
US20140135790A1 (en) System and method for guiding a medical device to a target region
WO2023124732A1 (zh) 一种影像引导介入穿刺的设备控制方法和系统
CN113893036B (zh) 一种磁共振环境下的介入机器人装置
US20200359994A1 (en) System and method for guiding ultrasound probe
CN114947691A (zh) 内窥镜设备、内窥镜的位置引导设备和医疗床
JP7244909B2 (ja) 穿刺ロボット及び穿刺制御用プログラム
JP2006015045A (ja) 手術支援システム
JP7309971B1 (ja) 医用装置、テーブルの駆動方法、および記録媒体
JP4793914B2 (ja) 磁気共鳴イメージング装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080523

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101126

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110415

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111220

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120615

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees