JP2009512514A - 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作 - Google Patents

医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作 Download PDF

Info

Publication number
JP2009512514A
JP2009512514A JP2008536776A JP2008536776A JP2009512514A JP 2009512514 A JP2009512514 A JP 2009512514A JP 2008536776 A JP2008536776 A JP 2008536776A JP 2008536776 A JP2008536776 A JP 2008536776A JP 2009512514 A JP2009512514 A JP 2009512514A
Authority
JP
Japan
Prior art keywords
image
display screen
generated
user
computer display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008536776A
Other languages
English (en)
Other versions
JP5322648B2 (ja
JP2009512514A5 (ja
Inventor
ブライアン ホフマン,
ラジェッシュ クマー,
デイビッド ラーキン,
ジュゼッペ プリスコ,
ニティッシュ スワラップ,
グアンフア チャン,
Original Assignee
インテュイティブ サージカル, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテュイティブ サージカル, インコーポレイテッド filed Critical インテュイティブ サージカル, インコーポレイテッド
Publication of JP2009512514A publication Critical patent/JP2009512514A/ja
Publication of JP2009512514A5 publication Critical patent/JP2009512514A5/ja
Application granted granted Critical
Publication of JP5322648B2 publication Critical patent/JP5322648B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/71Manipulators operated by drive cable mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B18/1482Probes or electrodes therefor having a long rigid shaft for accessing the inner body transcutaneously in minimal invasive surgery, e.g. laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00595Cauterization
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00982Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body combined with or comprising means for visual or photographic inspections inside the body, e.g. endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00994Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body combining two or more different kinds of non-mechanical energy or combining one or more non-mechanical energies with ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B2090/101Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis for stereotaxic radiosurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N7/02Localised ultrasound hyperthermia
    • A61N7/022Localised ultrasound hyperthermia intracavitary
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Plasma & Fusion (AREA)
  • Otolaryngology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Manipulator (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Surgical Instruments (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

医療処置を行う外科医を支援するため、治療対象の解剖学的構造の内部の詳細を一般的に示す補助画像は、一般的に解剖学的構造の外観である一次画像を補足するため、外科医によってコンピュータ表示画面上に表示されて操作される。第1モードのロボットアームを制御するマスター入力デバイスは、外科医によって第2モードに切り換えられ得、代わりにマウスのようなポインティングデバイスとして機能し、外科医が、このような補助情報の表示および操作を行うのを容易にする。

Description

(関連出願の引用)
本出願は、2005年10月20日に出願された米国仮出願第60/728,450号の優先権を主張し、該出願は参考により援用される。
(発明の分野)
本発明は、概して、医療用ロボットシステムに関し、特に、医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作に関する。
(発明の背景)
例えば、低侵襲性外科手術を行うときに使用される医療用ロボットシステムは、従来の直視下手術の技術と比べて多くの利点を提供し、例えば、痛みが少なく、入院期間が短く、通常の活動への復帰が迅速であり、瘢痕化が最小限であり、回復時間が短縮され、組織に対する損傷が少ない。その結果、医療用ロボットシステムを使用する低侵襲性手術に対する要望は強く、次第に大きくなりつつある。
医療用ロボットシステムの一例は、カリフォルニア州、サニーベールのIntuitive Surgical,Inc.が市販しているdaVinci(登録商標)手術システムである。daVinci(登録商標)システムは、外科医コンソールと、患者側チャートと、高性能3−D視覚システムと、Intuitive Surgicalが所有権を有するEndoWristTMとを備え、EndoWristTMは、ヒトの手関節に倣ってモデル化されており、手術器具を保持するロボットアーム組立体の運動に追加すると、直視下手術の自然な動きに匹敵する少なくとも完全に6自由度の運動が可能になる。
daVinci(登録商標)外科医コンソールは、2つの順次走査陰極線管(「CRT」)を含む高解像度立体映像ディスプレイを有する。このシステムは、偏光、シャッターアイグラス、またはその他の技法より高度の忠実度を提供する。各々の眼は、対物レンズおよび一連のミラーを通して、それぞれ左右の眼を表す個々のCRTを見る。外科医は快適に着席して、外科医が術中3−D像を表示および操作するのに理想的な場所を確保して、手術中にこのディスプレイを覗き込む。
表示画面上に表示される一次像のほかに、時には、より良好な洞察力を得るか、あるいは実施される医療処置を支援するために、補助情報を同時に閲覧することができることも望ましい。補助情報は、テキスト情報、棒グラフ、二次元ピクチャーインピクチャー画像、および二次元または三次元画像など、様々なモードで提供され、一次画像の対に対して登録され、適切にオーバーレイされる。
補助画像の場合、画像は、超音波検査法、磁気共鳴映像法、CT断層撮影法、およびX線透視法などの技術を使用して術前または術中に捕捉され、治療対象の解剖学的構造の内部の詳細を提供する。この情報は、次に、解剖学的構造、例えば、局所的に配置されたカメラによって捕捉された構造の外観を補足するために使用される。
多数の補助情報源、およびその情報を表示する方法があるが、補助画像の表示および操作の改善は、外科医が、医療用ロボットシステムにより医療処置を実行するのをさらに支援するのに役立つ。
したがって、本発明の様々な態様の1つの目的は、手順によるその時点における治療対象の解剖学的構造の画像に対するオーバーレイ、あるいはこの画像に関連するオーバーレイなど、治療手順の効果を含む補助情報を表示する方法である。
本発明の様々な態様のもう1つの目的は、ユーザが指定する体積レンダリング拡大率で、解剖学的構造の補助画像のユーザ選択部分を、解剖学的構造の一次画像に対して登録されたオーバーレイとしてコンピュータ表示画面上に表示する方法である。
本発明のもう1つの目的は、コンピュータディスプレイの三次元空間に画像を手動で登録するために使用されるマスター入力デバイスを有する医療用ロボットシステムである。
本発明の様々な態様のもう1つの目的は、解剖学的構造の体積レンダリングの切断平面をコンピュータディスプレイの三次元空間で規定するために使用されるマスター入力デバイスを有する医療用ロボットシステムである。
本発明の様々な態様のもう1つの目的は、解剖学的構造の体積レンダリングの部分または詳細をコンピュータディスプレイの三次元空間に選択的に修正するために使用されるマスター入力デバイスを有する医療用ロボットシステムである。
本発明の様々な態様のもう1つの目的は、コンピュータ表示画面に表示される解剖学的構造のレンダリングのための表示パラメータを変えるために使用されるマスター入力デバイスを有する医療用ロボットシステムである。
本発明の様々な態様のさらにもう1つの目的は、マスター入力デバイスが、画像捕捉デバイスの動作を制御する画像捕捉モードと、マスター入力デバイスが、画像捕捉デバイスが捕捉した画像をコンピュータ表示画面上に表示および操作するのを制御する画像操作モードとの間で切り換えられるマスター入力デバイスを有する医療用ロボットシステムである。
これらおよび追加の目的は、本発明の様々な態様によって達成され、簡潔に述べると、一態様は、治療器具によって解剖学的構造に適用される治療手順の効果をコンピュータ表示画面上に表示する方法であって、治療器具によって解剖学的構造に適用される治療手順の効果を指示する補助画像を生成するステップと、補助画像でオーバーレイされた解剖学的構造の一次画像を、治療手順時にコンピュータ表示画面に表示するステップとを含む方法である。
別の態様は、解剖学的構造の補助画像の選択部分を解剖学的構造の一次画像に対するオーバーレイとして、コンピュータ表示画面上に表示する方法であって、可動ウィンドウをポインティングデバイスと関連付けて、ポインティングデバイスを使用して、可動ウィンドウをコンピュータ表示画面上に配置可能にするステップと、解剖学的構造の補助画像と解剖学的構造の一次画像とを登録して、共通の基準フレーム内で同じ位置および向きになるようにするステップと、一次画像をコンピュータ表示画面上に表示し、可動ウィンドウと同じ画面座標に対応する登録された補助画像の一部分を、一次画像に対するオーバーレイとして、可動ウィンドウ内に表示するステップとを含む方法である。
さらに別の態様は、医療用ロボットシステムであって、画像を捕捉する画像捕捉デバイスと、画像捕捉デバイスを保持するロボットアームと、コンピュータ表示画面と、ユーザが、複数自由度の動作によって操作可能であるように構成されるマスター入力デバイスと、マスター入力デバイスが画像捕捉モードであるときに、ユーザによるマスター入力デバイスの操作に応じて、画像捕捉デバイスの動作を制御し、マスター入力デバイスが画像操作モードであるときに、ユーザによるマスター入力デバイスの操作に応じて、捕捉画像から生成された画像をコンピュータ表示画面上に表示するのを制御するように構成されたプロセッサとを含む医療用ロボットシステムである。
本発明の様々な態様のその他の目的、特徴、および利点は、好ましい実施態様の以下の説明を、添付の図面に関連して解釈すると明らかになるであろう。
(好ましい実施態様の詳細な説明)
図1は、一例として、医療用ロボットシステムを利用する手術室の上面図を示す。この場合の医療用ロボットシステムは、一人または複数のアシスタント(「A」)の助力により、手術台(「O」)上に横たわっている患者(「P」)に対して低侵襲性診断または手術手順を行う際に、外科医(「S」)によって使用されるコンソール(「C」)を含む低侵襲性ロボット手術((「MIRS」)システム100である。
コンソールは、患者内の手術部位の1つまたは複数の画像、およびおそらくその他の情報を外科医に表示するためのマスターディスプレイ104(本明細書では、「表示画面」または「コンピュータ表示画面」とも言う)を備える。また、マスター入力デバイス107、108(本明細書では「マスターマニピュレータ」とも言う)、1つまたは複数のフットペダル105、106、外科医から音声コマンドを受信するためのマイクロフォン103、およびプロセッサ102も備える。マスター入力デバイス107、108は、様々な入力デバイス、例えば、ジョイスティック、グローブ、トリガーガン、手動コントローラ、グリッパなどのうちの任意の1つ以上を備えることができる。プロセッサ102は、好ましくは、コンソール内に組み込まれ得るか、あるいは従来の方法でコンソールに接続され得るパーソナルコンピュータである。
外科医は、マスター入力デバイス107、108を操作することによってMIRSシステム100を使用して医療処置を行い、その操作によって、プロセッサ102は、それぞれのマスター入力デバイスに関連するスレーブアーム121、122に、取外し可能に結合および保持された手術器具138、139(本明細書では「ツール」とも言う)を相応に操作させ、その際、外科医は、マスターディスプレイ104上の手術部位の三次元(「3D」)画像を見ている。
ツール138、139は、好ましくは、Intuitive Surgicalが所有権を有するEndoWristTM関節器具であって、ヒトの手関節に倣ってモデル化されており、ツールを保持するロボットアームの運動に追加されると、直視下手術の自然な動きに匹敵する少なくとも完全に6度の自由運動を可能にする関節器具である。このようなツールに関するその他の詳細は、共有にかかる米国特許第5,797,900号、名称「Wrist Mechanism for Surgical Instrument for Performing Minimally Invasive Surgery with Enhanced Dexterity and Sensitivity」に記載されており、該特許は、参考によって本明細書に援用される。各々のツール138、139の動作端部には、操作可能なエンドエフェクタ、例えば、クランプ、捕捉器具、はさみ、ステープラ、刃、針、針保持具、または活性化可能なプローブがある。
マスターディスプレイ104は、2つの順次走査陰極線管(「CRT」)を含む高解像度立体映像ディスプレイを有する。このシステムは、偏光、シャッターアイグラス、またはその他の技術より高度の忠実度を提供する。各々の眼は、対物レンズおよび一連のミラーを通した左右の眼の配景を表す別個のCRTを見る。外科医は快適に着席し、外科医が術中3−D像を表示および操作するのに理想的な場所を確保して、手術中にこのディスプレイを覗き込む。
立体内視鏡140は、左右のカメラ視野をプロセッサ102に提供し、プロセッサ102は、プログラム化された命令に従って情報を処理し、情報をマスターディスプレイ104上に表示する。腹腔鏡超音波(「LUS」)プローブ150は、解剖学的構造の二次元(「2D」)超音波画像スライスをプロセッサ102に提供し、プロセッサ102は、解剖学的構造の3D超音波コンピュータモデル、または体積レンダリングを生成する。
各々のツール138、139、並びに内視鏡140およびLUSプローブ150は、好ましくは、カニューレ、トロカール(図示しない)、またはその他のツールガイドを通して患者内に挿入され、切開部161などの対応する低侵襲性切開部を通して下方に手術部位に延在する。各々のスレーブアーム121〜124は、スレーブマニピュレータおよび設定アームを備える。スレーブマニピュレータは、モータ制御ジョイント(「アクティブジョイント」とも言う)を使用してロボット制御で移動され、個々に保持しているツールを操作し、および/または移動させる。設定アームは、スレーブアーム121〜124を水平および垂直に位置決めするために、正常にブレーキをかけられたジョイント(「設定ジョイント」とも言う)を解放することによって手動で操作され、個々のツールはカニューレ内に挿入され得る。
一度に使用される手術器具の数、ひいてはシステム100に使用されるスレーブアームの数は、一般に、他の要素の中でも、実施される医療処置、および手術室内の空間的制約によって決まる。手順時に使用される1つまたは複数のツールを変更する必要がある場合、アシスタントは、それ以後使用しないツールをスレーブアームから取り外し、手術室内のトレー(「T」)にあるツール131などの別のツールと交換し得る。
好ましくは、マスターディスプレイ104は、外科医の手の付近に配置し、外科医が実際に手術部位を直接見下ろしていると感じるように方向付けられた投影画像を表示する。そのため、ツール138、139の画像は、観測点(つまり、内視鏡140およびLUSプローブ150の観測点)が、画像の視野からではあり得ない場合でも、外科医の手が位置する場所に実質的に配置されているように表示されることが好ましい。
さらに、実時間画像は透視画像(perspective image)として投影され、外科医が実質的に実際どおりに作業空間を見ているかのように、対応するマスター入力デバイス107または108を通してツール138または139のエンドエフェクタを操作できることが好ましい。実際どおりとは、画像の表現が、物理的にツールを操作する操作者の視点をシミュレートする実際の透視画像であることを意味する。したがって、プロセッサ102はツールの座標を知覚位置に変換し、その結果、透視画像は、開腔手術の際に、内視鏡140が外科医の眼の高さからツールを直接見ている場合に見える画像である。
プロセッサ102は、システム100内の様々な機能を実行する。プロセッサ102が実行する1つの重要な機能は、外科医が、個々のツール138、139を効率的に操作することができるように、バス110上の制御信号を通して、マスター入力デバイス107、108の機械的な運動を解釈し、関連するスレーブアーム121、122に伝達することである。もう1つの重要な機能は、図4〜12に関して本明細書で説明する様々な方法をインプリメントすることである。
プロセッサ102は、プロセッサとして説明されているが、実際上、ハードウェア、ソフトウェア、およびファームウェアの任意の組合せでインプリメントされ得る。また、本明細書で説明されるその機能は、1つのユニットとして実行されるか、または様々な構成要素に分割され得、その結果、各々の構成要素は、ハードウェア、ソフトウェア、およびファームウェアの任意の組合せでインプリメントされ得る。様々な構成要素に分割されると、構成要素は、1箇所に集中化されるか、または分散処理目的の場合はシステム100全体に分散され得る。
医療処置を実行する前に、LUSプローブ150によって捕捉される超音波画像、立体内視鏡140によって捕捉される左右の2Dカメラ、並びにスレーブアーム121〜124およびこれらの感知関節位置の運動学を使用して決定されるエンドエフェクタの位置および向きを較正し、互いに対して登録する。
スレーブアーム123、124は、スレーブアーム121、122がツール138、139を操作するのと同様に、内視鏡140およびLUSプローブ150を操作し得る。しかし、外科医が、内視鏡140またはLUSプローブ150のいずれかの動作を手動で制御するために、マスター入力デバイス107、108などのマスター入力デバイスが、システム100内に2つしか存在しない場合、マスター入力デバイス107、108の一方を一時的に、外科医が手動制御を望む内視鏡140またはLUSプローブ150に関連付け、その前に結合されていたツールおよびスレーブマニピュレータは所定の位置にロックされる必要があり得る。
この例には示されないが、解剖学的構造の一次画像および補助画像のその他のソースは、例えば、超音波、磁気共鳴CT断層撮影、およびX線透視像を捕捉するために通常使用されるシステムなどのシステム100内に含まれ得る。像のこれらのソースの各々は、術前に使用され、適切かつ実際的である場合は術中に使用され得る。
図2は、一例として、システム100のブロック図を示す。このシステムには、2つのマスター入力デバイス107、108がある。マスター入力デバイス107は、その制御スイッチ機構211がどちらのモードになっているかに応じて、ツール138または立体内視鏡140のどちらかの動作を制御し、マスター入力デバイス108は、その制御スイッチ機構231がどちらのモードになっているかに応じて、ツール139またはLUSプローブ150のどちらかの動作を制御する。
制御スイッチ機構211および231は、外科医が、音声コマンド、マスター入力デバイス107、108上もしくはその付近に物理的に配置されたスイッチ、コンソール上のフットペダル105、106を使用するか、または外科医が、マスターディスプレイ104もしくは補助ディスプレイ(図示しない)上に表示される適切なアイコンもしくはその他のグラフィックユーザインターフェース選択手段を選択することにより、第1または第2モードに配置され得る。
制御スイッチ機構211が第1モードに配置されると、マスターコントローラ202は、スレーブコントローラ203と通信し、外科医がマスター入力装置107を操作することにより、スレーブアーム121によってツール138は相応に動作し、その際、内視鏡140は所定の位置にロックされた状態を保つ。一方、制御スイッチ機構211が第2モードに配置されると、マスターコントローラ202は、スレーブコントローラ233と通信し、外科医がマスター入力装置107を操作することにより、スレーブアーム123によって内視鏡140は相応に動作し、その際、ツール138は所定の位置にロックされた状態を保つ。
同様に、制御スイッチ機構231が第1モードに配置されると、マスターコントローラ108はスレーブコントローラ223と通信し、外科医がマスター入力装置108を操作することにより、スレーブアーム122によってツール139は相応に動作する。しかし、この場合、LUSプローブ150は、所定の位置にロックされる必要はない。その動作は、メモリ240内に記憶された命令に従って、補助コントローラ242により案内され得る。補助コントローラ242は、マスター入力装置108を通して外科医に対して、LUSプローブ力センサ247の指示値を表す触覚フィードバックも提供する。一方、制御スイッチ機構231が第2モードに配置されると、マスターコントローラ108はスレーブコントローラ243と通信し、外科医がマスター入力装置108を操作することにより、スレーブアーム124によってLUSプローブ150は相応に動作し、その際、ツール139は所定の位置にロックされた状態を保つ。
制御スイッチ機構が、スイッチをその第1モードまたは通常モードに戻す前に、関連するマスター入力デバイスは、スイッチの前に存在していた場所に再配置されることが好ましい。あるいは、マスター入力デバイスは、その現在の位置に留まり得、マスター入力デバイスと関連ツールのスレーブアームとの間の運動学的関係は、制御スイッチ機構が第1または通常モードに戻ったときにツールの急激な動作が生じないように再調節され得る。制御スイッチのその他の詳細に関しては、共有に係る米国特許第6,659,939号、名称「Cooperative Minimally invasive Telesurgical System」を参照されたい。該特許は、本明細書において、参照することによって援用される。
第3の制御スイッチ機構241は、制御スイッチ機構231が第2モードにある状態で(つまり、マスター入力デバイス108をLUSプローブ150に結合して)、ユーザが、画像捕捉モードと画像操作モードとの間で切り換えることを可能にするために設けられる。第1モードまたは通常モード(つまり、画像捕捉モード)では、LUSプローブ150は、通常、上記のとおりマスター入力デバイス108によって制御される。第2モード(つまり画像操作モード)では、LUSプローブ150は、マスター入力デバイス108によって制御されず、マスター入力デバイス108は、補助画像を表示画面104上に表示および操作するなどのその他の作業、特に本明細書で説明するように、ユーザが指定する機能を実行することができる。しかし、LUSプローブ150は、制御スイッチ機構241のこの第2モードでは、マスター入力デバイス108によって制御されないが、それでもなお、メモリ240内に記憶されている命令に従って、補助コントローラ242の制御下で自動的に揺動するか、あるいは移動することができるため、隣接する解剖学的構造の3D体積レンダリングは、LUSプローブ150によって捕捉された一連の2D超音波画像から生成することができることに注意されたい。LUSプローブ150の前記およびその他のプログラム化動作に関するその他の詳細に関しては、2006年6月6日に出願された、共有に係る米国特許出願第11/447,668号、名称「Laparoscopic Ultrasound Robotic Surgical System」を参照されたい。該出願は、ここで参照することにより本明細書に援用される。
補助コントローラ242は、LUSプローブ150および内視鏡140に関連するその他の機能も実行する。補助コントローラ242は、LUSプローブ力センサ247から出力を受信し、このセンサは、LUSプローブ150に加わる力を感知し、マスターコントローラ222を通して、この力の情報をマスター入力デバイス108に戻すため、外科医は、自身が、その時点でLUSプローブ150の動作を直接制御していない場合でも、これらの力を感じることができる。したがって、外科医は、LUSプローブ150の何らかの動作を直ちに停止する能力、およびその動作の手動制御を引き継ぐ能力を有するため、患者に傷害を与える可能性は最小限にされる。
補助制御装置242の別の重要な機能は、ユーザが選択した表示オプションに従って、内視鏡140およびLUSプローブ150からの処理情報をマスターディスプレイ104上に表示させることである。このような処理の例としては、LUSプローブ150から超音波プロセッサ246を介して受信された2D超音波画像スライスから3D超音波画像を生成することと、選択した位置および向きに対応する3Dまたは2Dのいずれかの超音波画像をマスターディスプレイ104のピクチャーインピクチャー(picture−in−picture)ウィンドウに表示させることと、解剖学的構造の3Dまたは2Dのいずれかの超音波画像を、カメラが捕捉した、マスターディスプレイ104上に表示される解剖学的構造の画像にオーバーレイさせることと、図4〜12に関して以下に説明する方法を実行することとを含む。
別個の実体として示されているが、マスターコントローラ202、222、スレーブコントローラ203、233、223、243、および補助コントローラ242は、プロセッサ102、および制御スイッチ機構211、231、241の一定のモード切換え態様によって実行されるソフトウェアモジュールとしてインプリメントされることが好ましい。一方、超音波プロセッサ246および映像プロセッサ236は、ソフトウェアモジュール、個々のボードまたはカードであり得、これらは、プロセッサ102に結合されているか、あるいは組み込まれている適切なスロット内に挿入され、これらの画像捕捉デバイスから受信される信号をマスターディスプレイ104上に表示するのに適する信号に変換するか、および/または補助コントローラ242によってさらに処理した後に、マスターディスプレイ104上に表示する。
この例は、各々のマスター入力デバイスが、1つの予め割り当てられたツールスレーブロボットアーム、および1つの予め割り当てられた画像捕捉デバイスのロボットアームのみによって共用されることを前提としているが、別の装置も実行可能であり、本発明の完全な範囲内であると想定される。例えば、各々のマスター入力デバイスが、ツールおよび画像捕捉デバイスのロボットアームのいずれか一方と選択的に結合される異なる装置であり得、対応性が最大であるという点でさらに好ましい。また、内視鏡ロボットアームは、この実施例では、1つのマスター入力デバイスによって制御されているように示されているが、両方のマスター入力デバイスを使用して、「画像を掴む」ことが可能であるという感覚を与え、その画像を異なる位置または視野に移動させるように制御しても良い。さらに、この実施例には、内視鏡およびプローブのみが示されているが、カメラ、超音波、磁気共鳴、CT断層撮影、およびX線透視像を捕捉するために使用されるようなその他の画像捕捉デバイスも、システム100内に完全に想定されているが、これらの画像捕捉デバイスの各々は、必ずしも1つのマスター入力デバイスによって操作され得ない。
図3は、LUSプローブ150の一実施態様の側面図を示す。LUSプローブ150は、好ましくは末端自由度2の巧妙なツールである。LUSセンサ301の近位端に物理的に接続され、長形シャフト312の内側通路を通って延在する駆動ロッドまたはケーブル(図示しない)の対立する対は、従来のプッシュ−プル(push−pull)タイプの動作を使用して、LUSセンサ301の縦揺れおよび横揺れを機械的に制御する。
LUSセンサ301は、隣接する解剖学的構造の2D超音波スライスを捕捉し、LUSケーブル304を通してこの情報を逆にプロセッサ102に送信する。LUSケーブル304は、長形シャフト312の外側に通されているように示されているが、このシャフトの内部に延在しても良い。クラムシェルシース321は、長形シャフト312およびLUSケーブル304を囲み、カニューレ331(またはトロカール)を通過する良好なシールを提供する。基準マーク302および322は、映像を追跡するために、LUSセンサ301およびシース321上に配置される。
図4は、一例として、治療手順または治療の効果を表示画面104上に表示する方法のフロー図を示す。401では、解剖学的構造の一次画像は、画像捕捉デバイスによって捕捉される。一例として、図5は、内視鏡140によって捕捉された一次画像を示し、解剖学的構造501、および解剖学的構造501内の治療部位において治療手順を実行するために、解剖学的構造501内に部分的に挿入された治療用器具511を備える。もう1つの用途では、治療用器具511は、治療手順を実行するために、解剖学的構造501に接触または接近することのみが必要であり得る。
一次画像は、治療手順以前または治療手順時に捕捉される。手順以前に捕捉された一次画像は「術前」画像と呼ばれ、手順時に捕捉された一次画像は「術中」画像と呼ばれる。一次画像が術前画像である場合、この画像は、一般的には手順時に更新されないため、この方法は、1つの一次画像のみを使用する。一方、一次画像が術中画像である場合、この画像は、好ましくは、手順時に定期的に更新され、その結果、この方法は、この場合に複数の一次画像を使用する。
術前画像は、一般に、超音波検査法、磁気共鳴映像法(MRI)、またはCT断層撮影法(CAT)を使用して捕捉される。術中画像は、立体内視鏡140またはLUSプローブ150などの画像捕捉デバイスによって、手術もしくは治療部位において捕捉され得るか、または術前画像を捕捉するために使用される類の技術によって外部から捕捉され得る。
図4の402では、治療用器具の電源を入れるか、さもなければ治療用器具を作動させるか、または活性化されて、患者の体内の解剖学的構造に治療を施すことができるようにする。器具は、一般に、疾患または損傷組織などの異常な組織に治療用エネルギーを印加するための先端を有する。こうした治療手順の一例として、無線周波剥離(RFA;Radio Frequency Ablation)は、RFAプローブを使用して、疾患組織部位に熱を加えることによって、肝臓などの解剖学的構造内に位置する腫瘍などの疾患組織を破壊するために使用され得る。その他の手順の例としては、高密度焦点式超音波(HIFU)および焼灼が挙げられる。治療用器具は、スレーブアーム121、122に取り付けられたツール138、139の1つであり得、外科医によって、マスター/スレーブ制御システムを通して、治療部位に移動され、操作され得る。
403では、補助画像が生成され、この補助画像は、解剖学的構造に対する治療手順の効果を示す。補助画像は、治療手順の効果を感知することが可能な感知デバイスによって捕捉された情報から提供または生成された解剖学的構造の実際の画像であり得る。あるいは、補助画像は、治療効果を示すコンピュータモデルであり得、実験的に生成されるか、さもなければ従来どおり決定されるこのような効果の式を使用して生成される。後者の場合、このコンピュータモデルは、一般に、治療用器具の先端の幾何学的形状、治療用器具の先端によって解剖学的構造に加えられる熱またはエネルギーレベル、および解剖学的構造内で治療手順が施される治療部位の周囲の組織の特徴などの要素によって決定される。
感知デバイスによって捕捉された情報から提供されるか、さもなければ生成される補助画像の一例として、図6は、LUSプローブ150によって捕捉された二次元超音波スライスから従来どおりに生成された解剖学的構造601の三次元超音波画像を示す。この実施例では、剥離量621が示されており、これは、RFAプローブ612の先端613が、解剖学的構造601の腫瘍部位に適用された治療手順の効果を表す。この場合の剥離量の増加は、腫瘍部位の周囲組織の加熱および壊死から生じる組織特性の変化によって観察することができる。
404では、一次画像および補助画像は、同じスケールであると共に、共通参照フレーム内の同じ位置および向きを参照するように登録される。この種の登録は、周知である。一例として、共有に係る米国特許第6,522,906号、名称「Devices and Methods for Presenting and Regulating Auxiliary Information on an Image Display of a Telesurgical System to Assist an Operator in Performing a Surgical Procedure」を参照されたい。該特許は、ここで参照することにより本明細書に援用される。
405では、一次画像が表示画面104上に表示され、治療手順は、登録された補助画像を好ましくは一次画像上にオーバーレイした状態で実施され、その結果、各々の画像内の対応する構造または物体は、表示画面104と同じサイズ、並びに同じ位置および向きであるように表示される。この方法では、治療手順の効果は、手順が施される解剖学的構造上へのオーバーレイとして示される。
一例として、図7は、図示のために点線で区別されている補助画像が、図5の一次画像上にオーバーレイされている例示的な表示画面104を示す。補助画像が、感知デバイスによって捕捉された情報から提供されるか、あるいは生成される場合、治療効果521、治療用器具512、および器具の先端513は、捕捉情報から提供されるか、あるいは生成される。一方、治療効果521が、実験で決定された式を使用して、体積形状コンピュータモデルとして生成される場合、治療用器具512および器具の先端513は、少なくとも部分的には、器具の操作スレーブアームの結合位置に基づく従来のツール追跡計算を使用して決定され得る。
図4の406では、この方法は次に、治療用器具の電源が切れているかどうかを確認する。電源が切れている場合、治療手順が終了していることを意味し、この方法は終了する。一方、治療用器具にまだ電源が入っている場合、この方法は次に、治療手順がまだ実行されていると想定して、407に進み、新しい一次画像が捕捉されたかどうかを判断する。例えば、一次画像は術前画像であるなどの理由で、一次画像が捕捉されていなかった場合、この方法は次に、403に戻り、補助画像を更新して、治療用器具の電源が切れたことを検出することによって、治療手順が完了したと判断されるまで、引き続き403〜407を介してループする。一方、例えば、一次画像が術中画像であるなどの理由で、新しい一次画像が捕捉された場合、この方法は、403に戻る前に、408で一次画像を更新し、治療用器具の電源が切れたことを検出することによって、治療手順が完了したと判断されるまで、引き続き403〜408を介してループする。
図8は、表示画面104上に表示されるときの位置および向きは、関連するポインティングデバイスを使用して、ユーザが操作可能な拡大鏡のレンズ領域として規定されたウィンドウ内に、解剖学的構造の一次画像に対して登録されたオーバーレイとして、解剖学的構造の補助画像を表示する方法のフロー図を一例として示す。
801では、この方法は、ポインティングデバイスが移動するように、拡大鏡をポインティングデバイスと関連させることによって開始し、表示画面104上に表示される拡大鏡(および特に、ウィンドウとして考えられるそのレンズ)は、対応する様式で移動する。この場合の関連性は、ポインティングデバイスを使用して、従来の方法で拡大鏡を「掴む」か、または拡大鏡を事実上ポインティングデバイスにすることによって行われ得る。表示画面104は、好ましくは三次元ディスプレイなので、ポインティングデバイスは、それに応じて、向き指示機能を有する三次元ポインティングデバイスであることが好ましい。
802では、現在の一次画像および補助画像が処理のために使用可能になる。この例の一次画像は、内視鏡140によって捕捉され、補助画像は、LUSプローブ150によって捕捉される。しかし、一次画像および補助画像のその他のソースも使用可能であり、本発明の実施において意図されており、例えば、同じソースから捕捉された一次画像および補助画像が挙げられる。後者の場合の一例として、高解像度カメラは、画像を表示画面上に表示するために使用される場合と比べて、さらに高解像度で画像を捕捉することができる。この場合、カメラによって捕捉された高解像度画像は、補助画像として処理され得、表示画面上に表示される縮小画像が一次画像として処理され得る。
803では、ユーザが選択可能な拡大率が読み取られる。拡大率は、例えば、ダイアルまたはホイールタイプのコントロールにより、ユーザが選択可能であり得る。あるいは、表示画面104上に表示されるメニュー項目をユーザが選択するか、またはその他の何らかの従来のユーザが選択可能なパラメータ値方式もしくは機構によってユーザが選択可能であり得る。ユーザが選択を行わない場合、拡大率1.0などのデフォルト値が使用される。
804では、一次画像および補助画像は、同じスケールであり、共通参照フレーム内の同じ位置および向きを参照するように登録され、その結果、2つの画像内の対応する構造および物体は、同じ座標を有する。
805では、一次画像は、解剖学的構造の三次元ビューのように表示画面104上に表示され、この場合、解剖学的構造の補助画像の二次元スライスの一部分は、拡大鏡のレンズ内にオーバーレイとして表示される。この場合の二次元スライスの部分は、拡大鏡のレンズの中心点と同じ位置および向きを有する中心点を有するウィンドウの面積、並びに拡大率によって決定される面積によって規定され、その結果、二次元スライスの部分は、拡大鏡のレンズ内に適合するように拡大または縮小される。拡大鏡の位置および向きは、位置決めデバイスによって、表示画面104の三次元空間内の任意の位置、例えば、解剖学的構造の体積内の位置に操作可能なので、二次元スライスは、解剖学的構造内のユーザが選択可能な任意の深さに対応させることが可能である。物理的な拡大鏡と違って、それを見ることは、解剖学的構造の外側のみの検査に限られない。805に関するその他の詳細については、図9に関連して以下の説明を参照されたい。
806では、この方法は次に、例えば、ユーザが、拡大鏡の「掴まれた」画像を解放するか、あるいは何らかの種類の従来のスイッチ機構を使用して、拡大鏡とポインティングデバイスとの関連性がオフに切り換えられていることによって、拡大鏡のコマンドがオフになっているかどうかを決定する。オフになっている場合、この方法は終了する。一方、オフになっていない場合、この方法は802に戻り、拡大鏡コマンドがオフになっていることが検出されるまで、引き続き802〜806を介してループする。この方法が802〜806を介してループするごとに、一次画像および補助画像の更新バージョンがある場合、その更新バージョンが、更新値がある場合、その更新値と共にユーザが選択可能な拡大率で処理される。したがって、この方法が、十分に迅速にループを介して進行する場合、ユーザは、拡大鏡の選択した位置および向きの解剖学的構造を見ながら、ダイアルまたはノブを回して拡大率を調節する場合、著しい遅れに気が付かないであろう。
図9は、例えば、解剖学的構造の補助画像のビューを指定の拡大率で、ユーザ可動拡大鏡のレンズ内の解剖学的構造の一次画像のビューに対するオーバーレイとして表示する方法のフロー図を示す。前に説明したとおり、この方法は、図8の805を実行するために使用され得る。
901では、拡大鏡のレンズの中心点の現在位置および向きは、表示画面104の三次元空間内で決定される。902では、補助画像の登録された体積モデルの二次元スライスは、位置および向きの透視画像から取得され、二次元スライスの一部分は、好ましくは同じ位置および向きに中心点を有する補助ビューウィンドウ内で規定されたように取得される。この場合の補助ビューウィンドウの面積は、拡大鏡の現在の拡大率に従ってレンズの面積に反比例する。903では、補助ビューウィンドウによって規定される二次元スライスの部分は、拡大鏡のレンズの面積に適合する拡大率で拡大され、904では、解剖学的構造の一次画像は表示画面104上に表示され、補助画像の二次元スライスの拡大部分は、表示画面104上に表示される拡大鏡のレンズの面積内にオーバーレイされる。
901〜904の図による例として、図10〜11には、解剖学的構造の補助画像の二次元スライス1001が、2つの円形ウィンドウ1021、1022と共に、図10に示されている二次元スライス上に示されている。この場合の各々のウィンドウ1021、1022は、拡大鏡1120のレンズ1121の形状に対応し、このレンズの中心点と等しい中心点を有し、拡大鏡1120は、解剖学的構造の外観1101の一次画像と共に、図11に示す表示画面104上に示されている。この実施例では、ウィンドウ1021の面積はレンズ1121の面積に等しく、拡大率が1.0だった場合、ウィンドウ1021が選択され、902で使用される。一方、ウィンドウ1022の面積はレンズ1121の面積未満であるため、拡大率が1.0より大きい場合、ウィンドウ1022が選択され得、902で使用され得る。拡大鏡1120のレンズ1121は、円形として示されているが、矩形など、拡大鏡に一般的なその他の形状を有しても良い。
図12は、医療用ロボットシステム内のプロセッサによって実行される方法であって、マスター入力デバイスが画像操作モードであるときに、関連するマスター入力デバイスの対応する操作に応じて、医療用ロボットシステムのコンピュータ表示画面に表示される画像物体を操作する方法のフロー図を一例として示す。
この方法の前提として、医療用ロボットシステムは、画像を捕捉するための画像捕捉デバイス(内視鏡140、またはLUSプローブ150など);画像捕捉デバイスを保持するロボットアーム(それぞれ内視鏡140およびLUSプローブ150を保持するスレーブアーム123、またはスレーブアーム124など);コンピュータ表示画面(表示画面104など);ユーザが、複数自由度の動作で操作可能であるように構成されたマスター入力デバイス(マスター入力デバイス107、またはマスター入力デバイス108など);マスター入力デバイスが画像捕捉モードであるときに、ユーザによるマスター入力デバイスの操作に応じて、画像捕捉デバイスの動作を制御し、マスター入力デバイスが画像操作モードであるときに、ユーザによるマスター入力デバイスの操作に応じて、コンピュータ表示画面上における、捕捉画像から生成された画像の表示を制御するように構成されるプロセッサ(補助コントローラ242など)を備える。
1201では、プロセッサは、ユーザがマスター入力デバイスを画像操作モードにしたことを検出する。これがインプリメントされ得る1つの方法は、医療用ロボットシステム内に設けられたマスタークラッチ機構を使用することであり、このマスタークラッチ機構は、マスター入力デバイスが再配置されるように、関連するロボットアームからのマスター入力デバイスの解放をサポートしている。このモードが、ユーザがマスター入力デバイスのボタンを押す、フットペダルを押す、あるいは音声駆動を使用するなど、何らかの作用によって作動する場合、関連するロボットアームは所定の位置にロックされ、カーソル(一般に手のアイコン、例えば、
Figure 2009512514
)は、コンピュータ表示画面でユーザに対して提示される。ユーザがこのモードを終了すると、このカーソルは隠され、必要に応じてロボットアームの位置が再調節された後、ロボットアームの制御が再開され得る。
1202では、プロセッサは、例えば、従来のマウス上のボタンを押すことによって生成された制御入力が、ユーザによって起動されたのかどうかを判断する。この場合の制御入力は、マスター入力デバイス上に設けられたボタンを押すことによって起動され得るか、またはマスター入力デバイス上に設けられたグリッパもしくはペンチ構造を締め付けるなどのその他の何らかの方法で起動され得る。クラッチング、およびマスター入力デバイス上のグリッパまたはペンチ構成に関するその他の詳細は、例えば、共有に係る米国特許第6,659,939号、名称「Cooperative Minimally Invasive Telesurgical System」を参照されたい。この特許は、先に参照することによって本明細書に援用されている。制御入力が、1202で「オン」である(つまり、起動された)と判断されなかった場合、プロセッサは、「オン」の指示を受信するか、または画像操作モードが終了するまで待機する。
1203では、制御入力が「オン」であるという指示を受信した後、プロセッサは、カーソルが、コンピュータ表示画面上に表示される物体上(または所定の距離の範囲内)に位置するかどうかを検査して確認する。位置していない場合、1204では、プロセッサは、ユーザが選択可能な項目または動作のメニューをコンピュータ表示画面上に表示させ、1205では、プロセッサは、ユーザによって行われたメニューの選択を受信し、これに反応する。
ユーザが選択可能なメニュー項目の例としては、拡大鏡、切断平面、イレーザ、および画像の登録が挙げられる。ユーザが拡大鏡項目を選択した場合、拡大鏡の画像は、コンピュータ表示画面上に表示され、図8に関して説明された方法がプロセッサによって実行され得る。ユーザが、拡大鏡機能を終了すると、ユーザは、従来の方法で機能を終了することを指示し得、プロセッサは1202に戻る。
ユーザが、切断平面項目を選択した場合、平面(または、一定であるか、もしくはユーザが調節可能なサイズの矩形ウィンドウ)がコンピュータ表示画面上に表示される。次に、マスター入力デバイスは平面に関連付けられ、ユーザは、ポインティングデバイスのようにマスター入力デバイスを操作することによって、平面を三次元空間内に配置し、方向付けることができる。この平面は、解剖学的構造の体積レンダリングに交差するように操作される場合、体積レンダリングの二次元スライスを交点に規定する切断平面として機能する。あるいは、マスター入力デバイスは、解剖学的構造の体積レンダリングと関連付けられ得、体積レンダリングは、表示された平面と交差して切断平面を規定するように操作され得る。平面または体積レンダリングとポインティングデバイスとの関連付けは、図8の801に関する拡大鏡に関連して説明したのと実質的に同様に行われ得る。
次に、二次元スライスは、平面自体に、またはコンピュータ表示画面上の別個のウィンドウ内、例えば、ピクチャーインピクチャーに表示される。ユーザは、切断平面項目を追加の回数さらに選択して、体積レンダリングの追加の二次元スライスを規定し、コンピュータ表示画面上の個々の平面またはピクチャーインピクチャーに同時に表示する。コンピュータ表示画面を望ましくない切断平面スライスで散乱させないため、従来の削除機能が設けられ、その結果、ユーザは任意の切断平面、およびその対応するスライスを選択的に削除することができる。ユーザは、切断平面機能を終了する場合、従来の方法でこの機能を終了するように指示し得、プロセッサは1202に戻る。
ユーザがイレーザ項目を選択すると、イレーザがコンピュータ表示画面上に表示される。マスター入力デバイスは、次にイレーザと関連付けられ、ユーザは、マスター入力デバイスをポインティングデバイスのように操作することによって、コンピュータ表示画面の三次元空間内にイレーザを配置し、方向付けることができる。この場合、イレーザとポインティングデバイスとの関連付けは、図8の801に関する拡大鏡に関連して説明したのと実質的に同様に行われ得る。イレーザは、解剖学的構造の体積レンダリングと交差するように操作されると、体積レンダリングを横断するときに、このようなレンダリングを完全または部分的に消去するように機能する。ユーザによって、部分的な消去が選択される場合(あるいは、プロセッサ内に予めプログラムされる場合)、イレーザが体積レンダリングを横断するごとに、示され得る解剖学的構造の詳細が減っていく。この場合の減っていく詳細とは、レンダリングの粗さ/精密さを意味するか、または三次元体積レンダリング内のレイヤからのストリッピングを意味する。消去のこのような特性またはオプションはすべて、ユーザが従来の手段を使用して選択することができる。ユーザが、体積レンダリングの一部分を不注意で消去する場合、ユーザが消去を取り消すことを可能にするために従来の取消し機能が設けられる。ユーザが消去機能を終了する場合、ユーザは、従来の何らかの方法でこの機能の終了を指示し得、プロセッサは1202に戻る。
上記のイレーザ機能のほかに、その他の空間的に局在化された修正機能も意図されており、本発明の完全な範囲内であると考えられ、例えば、表示画像の部分を選択的に鮮鋭化、高輝度化、または着色して、選択した領域における可視性、あるいは強調表示を強化することが挙げられる。このような空間的に局在化された修正機能は、イレーザ機能に関して上記で説明した方法と実質的に同じ方法を使用して実施され得る。
ユーザが、画像登録項目を選択すると、プロセッサは、1212に関して以下で説明するとおり、その選択を今後の動作に備えて記録した後、再びプロセス1202に戻る。この場合の画像登録は、一般に、解剖学的構造などの物体の補助画像を、物体の対応する一次画像に対して手動で登録することを含む。
上記のメニューによる方法の代わりに、上記のとおり、選択可能な項目の各々をそれぞれ示すアイコンが、画像操作モードになった後にコンピュータ表示画面上に表示され得、それらのアイコンをユーザがクリックすることによって選択され、その後、プロセッサは、対応するメニュー項目の選択に関連して上記のように実行を続ける。
次に、プロセッサは、図12に関連して説明する方法を続け、制御入力が1201で制御入力がオンであるという指示を受信して、カーソルが、1202でコンピュータ表示画面上に表示される物体(アイコン以外)上、またはその付近に位置していると判断した後、好ましくは、カーソルを例えば、手のアイコン表現から、マスター入力デバイスをユーザが操作することにより、物体が「掴まれて」、コンピュータ表示画面の三次元空間内の別の位置および/または向きに移動もしくは「ドラッグ」されることを示す握った手のアイコンに変更する。
1206では、プロセッサは、次に、ユーザが、選択した物体の表示パラメータを調節することを指示したかどうかを判断し、ユーザが指示した場合、1207で、プロセッサは表示の調節を実行する。一例として、マスター入力デバイス上のダイアルは、ユーザによって回転され得、ダイアルに関連する表示パラメータの表示の調節具合が、選択された物体について、ダイアルの回転量に応じて調節されることを両方に示す。あるいは、マスター入力デバイスにグリッパが装備されている場合、このグリッパは、ダイアルとして機能するように回転し得る。このようにして調節される表示パラメータの例としては、コンピュータ表示画面上に表示される選択物体の輝度、コントラスト、色、および詳細(例えば、メッシュの粗さ/精密さ、ボクセルのサイズおよび/または不透明さ)が挙げられる。
プロセッサは、次に1208に進み、1203における肯定的な決定の後に、選択された物体が「掴まれた」ことにより、カーソルが移動したかどうかを判断する。カーソルが移動した場合、ユーザが、この時点では選択された物体の表示パラメータの調節のみを望んでいるため、プロセッサは1202に戻る。一方、選択された物体が「掴まれて」カーソルが移動した場合、1209で、プロセッサは、選択された物体を新しいカーソル位置に移動させる。カーソルは、コンピュータ表示画面の三次元空間内で動作するため、表示画面「内」に移動すると、例えば、サイズを徐々に小さくすることによって、このような動作を指示する。コンピュータ表示画面の三次元の性質が、深さ値を指示する2つのビュー間の共通点が相違している物体の左右の二次元ビューを使用して達成される場合、左右のビューのカーソルの画像の深さ値が減少すると、カーソルが表示画面「内」に移動していることを示す。
任意に、1210では、触覚フィードバックは、逆にマスター入力デバイスに提供されるため、ユーザは、「掴まれた」物体が1209で移動する際の反射力を感知することができる。一例として、ユーザと物体との相互作用は、仮想質量および慣性特性を物体と関連付けることによって、触覚的にユーザに反射され得るため、ユーザは、物体に接触したとき、または加速/減速されている物体を平行移動もしくは回転させるときに反射力を感じる。この1210で実行される触覚フィードバックは、あるタイプの物体に対してのみ実行され得、他の物体に対しては実行されないか、または特定の状況でのみ効果を示し得る。このような触覚フィードバックの使用は、拡大鏡の動作、および/または上記のとおり、切断平面の規定に使用される平面にも適用され得る。しかし、このような場合、触覚フィードバックは、拡大鏡または平面が、関連する解剖学的構造内に入った後にのみ行われるように制限され得る。
1211では、プロセッサは、制御入力がまだ「オン」状態かどうかを判断する。制御が「オン」である場合、プロセッサは、1208に戻り、カーソルの動作を追跡し、その動作に応答する。一方、例えば、ユーザが、制御を「オン」にすることを指示するために最初に押されたボタンを解放したことによって、制御がオフになった場合、1212で、プロセッサは選択された動作を実行する。
例えば、プロセッサが1204でメニューを表示する(あるいは、ユーザが項目を示すアイコンをクリックする)のに応じて、画像登録項目が、ユーザによって選択された場合、移動された物体は、現在整列されており、その時点でコンピュータ表示画面上に表示されている物体の別の画像と登録されるため、これらは、コンピュータ表示画面と同様、共通参照フレーム内に同じ座標および向きの値を有する。この特徴は、例えば、解剖学的構造の補助画像(例えば、LUSプローブ150を使用して得られた)と、解剖学的構造の一次画像(例えば、内視鏡140を使用して得られた)との手動登録を容易にする。最初の登録後、一次画像内の対応する物体の位置および/または向きの変更は、補助画像内の選択物体に対応する変更が行われ、一次画像に対して相対的な位置/向きを維持するように反転され得る。ユーザが、画像登録機能を終了すると、プロセッサは1202に戻る。
本発明の様々な態様について、好ましい実施態様に関して説明してきたが、本発明は、添付の特許請求の範囲の完全な範囲内の完全な保護に対して権利を有することが分かるであろう。
図1は、本発明の態様を利用する医療用ロボットシステムを使用する手術室の上面図を示す。 図2は、本発明の態様を利用する医療用ロボットシステムのブロック図を示す。 図3は、本発明の態様を利用する医療用ロボットシステムに有用な腹腔鏡超音波プローブを示す。 図4は、治療用器具により解剖学的構造に適用される治療手順の効果を、本発明の態様を利用してコンピュータ表示画面上に表示する方法のフロー図を示す。 図5は、治療用器具が、治療手順を実施するために解剖学的構造内に挿入されている解剖学的構造の外観を示す。 図6は、治療感知デバイスによって捕捉された認識可能な治療効果が示されている解剖学的構造の内部図を示す。 図7は、治療手順によって治療される解剖学的構造に登録され、本発明の態様を利用する方法によって生成される手順の効果を表示するコンピュータ表示画面を示す。 図8は、本発明の態様を利用して、コンピュータ表示画面上のユーザ可動拡大鏡内に解剖学的構造の補助画像の選択部分を表示する方法のフロー図を示す。 図9は、本発明の態様を利用して、解剖学的構造の内部図の操作可能ウィンドウを指定拡大率で表示する方法のフロー図を示す。 図10は、解剖学的構造の補助画像、およびこの補助画像の同心領域を示し、本発明の態様を利用する方法によりコンピュータ表示画面上の拡大鏡内に表示する際の異なる拡大率を表している。 図11は、解剖学的構造の一次画像、および拡大鏡レンズ内に見える解剖学的構造の補助画像のオーバーレイ部分が、本発明の態様を利用する方法によって表示されているコンピュータ表示画面を示す。 図12は、本発明の態様を利用してコンピュータ表示画面上に表示される対象を操作するために、医療用ロボットシステム内のプロセッサによって実施される方法のフロー図を示す。

Claims (72)

  1. 治療器具によって解剖学的構造に適用された治療手順の効果をコンピュータ表示画面に表示する方法であって、
    該治療器具によって該解剖学的構造に適用される該治療手順の該効果を示す補助画像を生成するステップと、
    該補助画像にオーバーレイされた該解剖学的構造の一次画像を、該治療手順時に該コンピュータ表示画面上に表示するステップと
    を含む、方法。
  2. 前記治療手順が、医療用ロボットシステムを使用して実行され、前記治療器具が、該治療手順を実行するために、外科医が前記医療用ロボットシステムを使用して、ロボット制御で操作可能である、請求項1に記載の方法。
  3. 前記一次画像が、前記治療手順の前に捕捉される、請求項1に記載の方法。
  4. 前記一次画像が、超音波により生成される術前画像である、請求項3に記載の方法。
  5. 前記一次画像が、磁気共鳴映像法によって生成される術前画像である、請求項3に記載の方法。
  6. 前記一次画像が、CT断層撮影法によって生成される術前画像である、請求項3に記載の方法。
  7. 前記補助画像が、前記治療手順時に、前記治療器具によって適用される前記治療効果のコンピュータモデルである、請求項3に記載の方法。
  8. 前記コンピュータモデルが、前記治療器具の治療端部の幾何学的形状によって少なくとも部分的に決定される体積形状である、請求項7に記載の方法。
  9. 前記コンピュータモデルが、前記治療器具の治療端部によって前記解剖学的構造に適用される熱レベルによって少なくとも部分的に決定される体積形状である、請求項7に記載の方法。
  10. 前記コンピュータモデルが、前記治療手順の対象になる前記解剖学的構造の周囲組織の特徴によって少なくとも部分的に決定される体積形状である、請求項7に記載の方法。
  11. 前記一次画像が、前記治療手順時に捕捉される、請求項1に記載の方法。
  12. 前記一次画像が、カメラユニットよって捕捉された術中画像である、請求項11に記載の方法。
  13. 前記カメラユニットが、カメラの立体写真を含む、請求項12に記載の方法。
  14. 前記カメラユニットが内視鏡内に含まれる、請求項12に記載の方法。
  15. 前記内視鏡が腹腔鏡である、請求項14に記載の方法。
  16. 前記補助画像が、前記治療手順時に、前記治療器具によって適用される前記治療効果のコンピュータモデルである、請求項11に記載の方法。
  17. 前記コンピュータモデルが、前記治療器具の治療端部の形状によって少なくとも部分的に決定される体積形状である、請求項16に記載の方法。
  18. 前記コンピュータモデルが、前記治療器具の治療端部によって前記解剖学的構造に適用される熱レベルによって少なくとも部分的に決定される体積形状である、請求項16に記載の方法。
  19. 前記コンピュータモデルが、前記治療手順の対象である前記解剖学的構造の周囲組織の特徴によって少なくとも部分的に決定される体積形状である、請求項16に記載の方法。
  20. 前記補助画像が、超音波によって生成された術中画像である、請求項11に記載の方法。
  21. 前記治療手順が、無線周波剥離を使用して前記解剖学的構造の異常組織を破壊する、請求項22に記載の方法。
  22. 前記異常組織が疾患組織を含む、請求項21に記載の方法。
  23. 前記疾患組織が少なくとも1つの腫瘍を含む、請求項22に記載の方法。
  24. 前記異常組織が損傷組織を含む、請求項21に記載の方法。
  25. 前記治療手順が、無線周波剥離、高密度焦点式超音波、および焼灼から成る群の1つである、請求項21に記載の方法。
  26. 解剖学的構造の補助画像の選択部分を該解剖学的構造の一次画像のオーバーレイとしてコンピュータ表示画面上に表示する方法であって、
    ポインティングデバイスを使用して、可動ウィンドウを該コンピュータ表示画面上に配置可能であるように、該可動ウィンドウとポインティングデバイスとを関連付けるステップと、
    共通参照フレーム内で同じ位置および向きであるように、該解剖学的構造の補助画像と該解剖学的構造の一次画像とを登録するステップと、
    該一次画像を該コンピュータ表示画面上に表示し、該可動ウィンドウと同じ該画面座標に対応する、該登録された補助画像の一部分を、該一次画像に対するオーバーレイとして、該可動ウィンドウ内に表示するステップと、
    を含む方法。
  27. 前記一次画像が、医療用ロボットシステムを使用して実行される低侵襲性手術手順時に、画像捕捉デバイスによって捕捉され、該画像捕捉デバイスが、医療処置を実行する際に、該医療用ロボットシステムを使用してロボット制御で操作可能である、請求項26に記載の方法。
  28. 前記可動ウィンドウが円形レンズとして前記表示画面上に表示される、請求項26に記載の方法。
  29. 前記可動ウィンドウが矩形レンズとして前記表示画面上に表示される、請求項26に記載の方法。
  30. 前記一次画像が前記解剖学的構造の三次元画像であり、前記コンピュータ表示画面が三次元コンピュータ表示画面である、請求項26に記載の方法。
  31. 前記可動ウィンドウと同じ画面座標に対応する、前記登録された補助画像の全体の部分が前記一次画像に対するオーバーレイとして、該可動ウィンドウ内に表示される、請求項26に記載の方法。
  32. 前記可動ウィンドウと同じ画面座標に対応する、前記登録された補助画像の一部分が前記一次画像に対するオーバーレイとして、前記可動ウィンドウ内に適合して表示され、前記補助画像の拡大図として表示されるように拡大される、請求項26に記載の方法。
  33. 前記コンピュータ表示画面を見るユーザによって選択された拡大率を受信するステップと、
    該拡大率を適用して、前記登録された補助画像の前記一部分が、前記一次画像に対するオーバーレイとして前記可動ウィンドウ内に適合して表示されると決定するステップと、
    をさらに含む、請求項32に記載の方法。
  34. 前記一次画像および補助画像が前記解剖学的構造の三次元画像であり、前記コンピュータ表示画面が三次元コンピュータ表示画面である、請求項26に記載の方法。
  35. 前記可動ウィンドウが前記補助画像のユーザが選択可能な深さに関連付けられ、その結果、ユーザが選択した深さに対応する該補助画像の二次元スライスが、前記一次画像に対するオーバーレイとして前記可動ウィンドウ内に表示される、請求項26に記載の方法。
  36. 前記一次画像が磁気共鳴映像法によって生成された術前画像である、請求項26に記載の方法。
  37. 前記一次画像がCT断層撮影法によって生成された術前画像である、請求項26に記載の方法。
  38. 前記一次画像がカメラユニットによって捕捉された術中画像である、請求項26に記載の方法。
  39. 前記カメラユニットが内視鏡内に含まれる、請求項38に記載の方法。
  40. 前記補助画像が術前の捕捉画像である、請求項38に記載の方法。
  41. 前記術前に捕捉される画像が磁気共鳴映像法によって生成される、請求項40に記載の方法。
  42. 前記術前に捕捉される画像がCT断層撮影法によって生成される、請求項40に記載の方法。
  43. 前記術前に捕捉される画像が超音波によって生成される、請求項40に記載の方法。
  44. 前記補助画像が術中に捕捉される画像である、請求項38に記載の方法。
  45. 前記術中に捕捉される画像が超音波によって生成される、請求項44に記載の方法。
  46. 前記術中に捕捉される画像が第2カメラユニットによって生成される、請求項44に記載の方法。
  47. 医療用ロボットシステムであって、
    画像を捕捉するための画像捕捉デバイスと、
    該画像捕捉デバイスを保持するロボットアームと、
    コンピュータ表示画面と、
    ユーザが、複数自由度の動作で操作可能であるように構成されたマスター入力デバイスと、
    該マスター入力デバイスが画像捕捉モードであるときに、ユーザによる該マスター入力デバイスの操作に応じて、画像捕捉デバイスの動作を制御し、該マスター入力デバイスが画像操作モードであるときに、ユーザによる該マスター入力デバイスの操作に応じて、該コンピュータ表示画面上における、捕捉画像から生成された画像の表示を制御するように構成されるプロセッサと、
    を備える、医療用ロボットシステム。
  48. 前記マスター入力デバイスが6自由度で操作可能であるように構成され、その結果、該マスター入力デバイスが、前記画像操作モードであるときに、三次元マウスとして動作する、請求項47に記載の医療用ロボットシステム。
  49. 前記プロセッサが、ユーザが、前記マスター入力デバイスに関連するカーソルが前記生成画像上に表示されている間に制御入力を作動するときに、前記コンピュータ表示画面上に表示される前記生成画像の1つに対して掴み機能を実行し、該ユーザが、前記画像操作モードにあるときに制御入力が起動された状態を維持しつつ、該マスター入力デバイスを移動するときに、該生成画像に対して移動機能を実行するように構成される、請求項47に記載の医療用ロボットシステム。
  50. 前記プロセッサが、前記生成画像に対して前記移動機能を実行した状態で、触覚フィードバックを前記マスター入力デバイスに提供するようにさらに構成される、請求項49に記載の医療用ロボットシステム。
  51. 前記触覚フィードバックが、仮想質量および慣性特性を前記生成画像に関連付けることによって提供され、その結果、前記プロセッサが、前記画像操作モードにあるときに、ユーザによる前記マスター入力デバイスの操作に応じて、該生成画像に対して掴み機能および移動機能を実行すると、該ユーザが反射力を感知する、請求項50に記載の医療用ロボットシステム。
  52. 前記画像捕捉デバイスが補助画像を捕捉し、前記プロセッサが、前記生成画像の1つの少なくとも一部分が前記一次画像上にオーバーレイされた状態で、一次画像捕捉デバイスによって捕捉された一次画像を前記コンピュータ表示画面上に表示させるように構成される、請求項49に記載の医療用ロボットシステム。
  53. 前記プロセッサが、ユーザが、前記掴み機能および移動機能を前記生成画像に対して実行することによって、該生成画像の1つと前記一次画像との手動登録を促進し、前記画像操作モードにあるときに、該生成画像および該一次画像の両方が、前記コンピュータ表示画面上に表示されている場合に、該生成画像と該一次画像とを登録するように構成される、請求項52に記載の医療用ロボットシステム。
  54. 前記マスター入力デバイスが、ユーザの手によって圧迫され、該マスター入力デバイスが前記画像操作モードにあるときに、制御入力として機能するように構成されたグリッパを有する、請求項47に記載の医療用ロボットシステム。
  55. 前記プロセッサが、前記マスター入力デバイスが前記画像操作モードにあるときに、前記グリッパが圧迫され、該グリッパの軸の周囲で回転するとき、前記生成画像に関連するパラメータを調節するように構成される、請求項54に記載の医療用ロボットシステム。
  56. 前記調節可能なパラメータが前記生成画像の輝度である、請求項55に記載の医療用ロボットシステム。
  57. 前記調節可能なパラメータが前記生成画像の色である、請求項55に記載の医療用ロボットシステム。
  58. 前記調節可能なパラメータが、前記生成画像の詳細のレベルである、請求項55に記載の医療用ロボットシステム。
  59. 前記生成画像の詳細の前記レベルが、前記生成画像を規定するメッシュ構造の粗さのレベルによって決定される、請求項58に記載の医療用ロボットシステム。
  60. 前記生成画像が、前記捕捉された画像から生成された三次元体積であり;前記プロセッサが、該三次元体積および二次元ウィンドウの一方を前記コンピュータ表示画面に表示し、ユーザによる前記マスター入力デバイスの操作に応じて、該コンピュータ表示画面上の前記ウィンドウの位置および向きを操作し、該ウィンドウと該三次元体積との交差によって切断平面を規定し、該三次元体積の二次元スライスを示すようにさらに構成される、請求項47に記載の医療用ロボットシステム。
  61. 前記二次元スライスが前記ウィンドウ内に表示される、請求項60に記載の医療用ロボットシステム。
  62. 前記二次元スライスが、前記コンピュータ表示画面のピクチャーインピクチャーウィンドウ内に表示される、請求項60に記載の医療用ロボットシステム。
  63. 前記プロセッサが、ユーザが選択可能な数の二次元ウィンドウを前記コンピュータ表示画面上に表示し、ユーザによる前記マスター入力デバイスの操作に応じて、該コンピュータ表示画面上の該ウィンドウの位置および向きを個々に操作し、該操作されたウィンドウと前記三次元体積との交差によって切断平面を規定し、前記三次元体積の対応する二次元スライスを示すようにさらに構成される、請求項60に記載の医療用ロボットシステム。
  64. 前記二次元スライスが、前記コンピュータ表示画面の対応するピクチャーインピクチャーウィンドウ内に表示される、請求項63に記載の医療用ロボットシステム。
  65. 前記プロセッサが、前記コンピュータ表示画面上に表示されたメニューに含まれる項目をユーザが選択したことに応じて、前記二次元ウィンドウを該コンピュータ表示画面上に表示するように構成される、請求項60に記載の医療用ロボットシステム。
  66. 前記プロセッサが、前記表示画面上に表示されるアイコンをユーザが選択したことに応じて、前記二次元ウィンドウを前記コンピュータ表示画面上に表示されるように構成される、請求項60に記載の医療用ロボットシステム。
  67. 前記アイコンが、前記コンピュータ表示画面の周囲領域に表示され、前記プロセッサが、ユーザが前記アイコンをクリックし、ユーザが該アイコンを選択したときの周囲領域から離れるように該アイコンをドラッグするというユーザによるマウスタイプの動作を解釈するようにさらに構成される、請求項66に記載の医療用ロボットシステム。
  68. 前記画像捕捉デバイスが超音波プローブであり、前記生成画像が、該超音波プローブによって捕捉された二次元超音波スライスからコンピュータで生成された解剖学的構造の三次元超音波画像である、請求項67に記載の医療用ロボットシステム。
  69. 前記プロセッサが、前記生成画像およびイレーザ画像の一方を前記コンピュータ表示画面上に表示し、ユーザが、前記マスター入力デバイスを操作したことに応じて、該イレーザ画像の少なくとも位置を操作し、該イレーザ画像が該コンピュータ表示画面上で操作されるときに、該イレーザ画像が横断する該コンピュータ表示画面上に表示される前記生成画像の1つの任意の部分を消去するようにさらに構成される、請求項47に記載の医療用ロボットシステム。
  70. 前記プロセッサが、前記イレーザ画像が横断する前記生成画像の部分のすべての詳細を消去するように構成される、請求項69に記載の医療用ロボットシステム。
  71. 前記プロセッサが、前記イレーザ画像が横断する前記生成画像の部分の前記詳細を減少させるように構成される、請求項69に記載の医療用ロボットシステム。
  72. 前記イレーザ画像が横断する前記生成画像の部分の前記詳細の前記減少が、前記生成画像を規定するメッシュ構造の細かさを減少させることを含む、請求項71に記載の医療用ロボットシステム。
JP2008536776A 2005-10-20 2006-10-19 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作 Active JP5322648B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US72845005P 2005-10-20 2005-10-20
US60/728,450 2005-10-20
PCT/US2006/040754 WO2007047782A2 (en) 2005-10-20 2006-10-19 Auxiliary image display and manipulation on a computer display in a medical robotic system

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2011278962A Division JP5467615B2 (ja) 2005-10-20 2011-12-20 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
JP2011278963A Division JP5276706B2 (ja) 2005-10-20 2011-12-20 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
JP2013096250A Division JP5639223B2 (ja) 2005-10-20 2013-05-01 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作

Publications (3)

Publication Number Publication Date
JP2009512514A true JP2009512514A (ja) 2009-03-26
JP2009512514A5 JP2009512514A5 (ja) 2009-10-22
JP5322648B2 JP5322648B2 (ja) 2013-10-23

Family

ID=37744551

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2008536776A Active JP5322648B2 (ja) 2005-10-20 2006-10-19 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
JP2011278962A Active JP5467615B2 (ja) 2005-10-20 2011-12-20 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
JP2011278963A Active JP5276706B2 (ja) 2005-10-20 2011-12-20 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
JP2013096250A Active JP5639223B2 (ja) 2005-10-20 2013-05-01 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2011278962A Active JP5467615B2 (ja) 2005-10-20 2011-12-20 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
JP2011278963A Active JP5276706B2 (ja) 2005-10-20 2011-12-20 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
JP2013096250A Active JP5639223B2 (ja) 2005-10-20 2013-05-01 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作

Country Status (6)

Country Link
US (4) US20080033240A1 (ja)
EP (4) EP3524202A1 (ja)
JP (4) JP5322648B2 (ja)
KR (1) KR101320379B1 (ja)
CN (3) CN103142309B (ja)
WO (1) WO2007047782A2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013018926A1 (en) 2011-08-04 2013-02-07 Olympus Corporation Medical equipment
US9161772B2 (en) 2011-08-04 2015-10-20 Olympus Corporation Surgical instrument and medical manipulator
US9218053B2 (en) 2011-08-04 2015-12-22 Olympus Corporation Surgical assistant system
US9244523B2 (en) 2011-08-04 2016-01-26 Olympus Corporation Manipulator system
US9244524B2 (en) 2011-08-04 2016-01-26 Olympus Corporation Surgical instrument and control method thereof
US9259283B2 (en) 2011-07-07 2016-02-16 Olympus Corporation Medical master slave manipulator system
US9423869B2 (en) 2011-08-04 2016-08-23 Olympus Corporation Operation support device
US9477301B2 (en) 2011-08-04 2016-10-25 Olympus Corporation Operation support device and assembly method thereof
US9568992B2 (en) 2011-08-04 2017-02-14 Olympus Corporation Medical manipulator
US9632577B2 (en) 2011-08-04 2017-04-25 Olympus Corporation Operation support device and control method thereof
US9632573B2 (en) 2011-08-04 2017-04-25 Olympus Corporation Medical manipulator and method of controlling the same
US9671860B2 (en) 2011-08-04 2017-06-06 Olympus Corporation Manipulation input device and manipulator system having the same
US9851782B2 (en) 2011-08-04 2017-12-26 Olympus Corporation Operation support device and attachment and detachment method thereof
JP2018532527A (ja) * 2015-09-29 2018-11-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット支援低侵襲手術のための器具コントローラ
US10420575B2 (en) 2014-07-25 2019-09-24 Olympus Corporation Treatment tool and treatment tool system
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US9517106B2 (en) 1999-09-17 2016-12-13 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
US9155544B2 (en) * 2002-03-20 2015-10-13 P Tech, Llc Robotic systems and methods
US8073528B2 (en) 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9492240B2 (en) 2009-06-16 2016-11-15 Intuitive Surgical Operations, Inc. Virtual measurement tool for minimally invasive surgery
US8971597B2 (en) * 2005-05-16 2015-03-03 Intuitive Surgical Operations, Inc. Efficient vision and kinematic data fusion for robotic surgical instruments and other applications
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
EP3524202A1 (en) * 2005-10-20 2019-08-14 Intuitive Surgical Operations Inc. Auxiliary image display and manipulation on a computer display in a medical robotic system
US7907166B2 (en) * 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
KR101477125B1 (ko) * 2006-06-13 2014-12-29 인튜어티브 서지컬 인코포레이티드 미소절개 수술 시스템
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US20100149183A1 (en) * 2006-12-15 2010-06-17 Loewke Kevin E Image mosaicing systems and methods
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US9980691B2 (en) * 2006-12-28 2018-05-29 David Byron Douglas Method and apparatus for three dimensional viewing of images
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
JP4916011B2 (ja) * 2007-03-20 2012-04-11 株式会社日立製作所 マスタ・スレーブ式マニピュレータシステム
CA2684475C (en) * 2007-04-16 2016-01-12 Neuroarm Surgical Ltd. Frame mapping and force feedback methods, devices and systems
US9089256B2 (en) * 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9084623B2 (en) * 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US20090069804A1 (en) * 2007-09-12 2009-03-12 Jensen Jeffrey L Apparatus for efficient power delivery
US9050120B2 (en) * 2007-09-30 2015-06-09 Intuitive Surgical Operations, Inc. Apparatus and method of user interface with alternate tool mode for robotic surgical tools
US8042435B2 (en) * 2007-11-26 2011-10-25 Thompson Ray P Special articulating tool holder
US9123159B2 (en) * 2007-11-30 2015-09-01 Microsoft Technology Licensing, Llc Interactive geo-positioning of imagery
US8155479B2 (en) 2008-03-28 2012-04-10 Intuitive Surgical Operations Inc. Automated panning and digital zooming for robotic surgical systems
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
DE102008041867B4 (de) * 2008-09-08 2015-09-10 Deutsches Zentrum für Luft- und Raumfahrt e.V. Medizinischer Arbeitsplatz und Bedienvorrichtung zum manuellen Bewegen eines Roboterarms
US8315720B2 (en) 2008-09-26 2012-11-20 Intuitive Surgical Operations, Inc. Method for graphically providing continuous change of state directions to a user of a medical robotic system
US20110234754A1 (en) * 2008-11-24 2011-09-29 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
US8184880B2 (en) 2008-12-31 2012-05-22 Intuitive Surgical Operations, Inc. Robust sparse image matching for robotic surgery
US8830224B2 (en) * 2008-12-31 2014-09-09 Intuitive Surgical Operations, Inc. Efficient 3-D telestration for local robotic proctoring
KR20110136847A (ko) * 2009-03-12 2011-12-21 헬스 리서치 인코포레이티드 최소 침습 수술 트레이닝 방법 및 시스템
US9155592B2 (en) * 2009-06-16 2015-10-13 Intuitive Surgical Operations, Inc. Virtual measurement tool for minimally invasive surgery
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
KR101039108B1 (ko) * 2009-09-01 2011-06-07 한양대학교 산학협력단 의료용 로봇 시스템 및 그 제어 방법
WO2011040769A2 (ko) * 2009-10-01 2011-04-07 주식회사 이턴 수술용 영상 처리 장치, 영상 처리 방법, 복강경 조작 방법, 수술 로봇 시스템 및 그 동작 제한 방법
KR101683057B1 (ko) * 2009-10-30 2016-12-07 (주)미래컴퍼니 수술 로봇 시스템 및 그 동작 제한 방법
KR101598774B1 (ko) * 2009-10-01 2016-03-02 (주)미래컴퍼니 수술용 영상 처리 장치 및 그 방법
US8706184B2 (en) * 2009-10-07 2014-04-22 Intuitive Surgical Operations, Inc. Methods and apparatus for displaying enhanced imaging data on a clinical image
KR101759534B1 (ko) 2009-10-30 2017-07-19 더 존스 홉킨스 유니버시티 외과 수술 시 임상적으로 중요한 해부상의 랜드마크에 대한 시각 추적 및 주석 달기
DE102010009295B4 (de) * 2010-02-25 2019-02-21 Siemens Healthcare Gmbh Verfahren zur Darstellung eines zu untersuchenden und/oder behandelnden Bereichs
US9298260B2 (en) * 2010-03-12 2016-03-29 Broadcom Corporation Tactile communication system with communications based on capabilities of a remote system
US8675939B2 (en) 2010-07-13 2014-03-18 Stryker Leibinger Gmbh & Co. Kg Registration of anatomical data sets
EP2636034A4 (en) * 2010-11-04 2015-07-22 Univ Johns Hopkins SYSTEM AND METHOD FOR ASSESSING OR ENHANCING CAPACITIES IN NON-INVASIVE SURGERY
US9486189B2 (en) 2010-12-02 2016-11-08 Hitachi Aloka Medical, Ltd. Assembly for use with surgery system
JP5717543B2 (ja) 2011-05-30 2015-05-13 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置及びその制御プログラム
JP5892361B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 制御装置、制御方法、プログラム、及びロボット制御システム
EP2740435B8 (en) 2011-08-04 2018-12-19 Olympus Corporation Surgical support apparatus
KR101828453B1 (ko) 2011-12-09 2018-02-13 삼성전자주식회사 의료용 로봇 시스템 및 그 제어 방법
US9956042B2 (en) 2012-01-13 2018-05-01 Vanderbilt University Systems and methods for robot-assisted transurethral exploration and intervention
US9586323B2 (en) 2012-02-15 2017-03-07 Intuitive Surgical Operations, Inc. User selection of robotic system operating modes using mode distinguishing operator actions
EP2650691A1 (en) 2012-04-12 2013-10-16 Koninklijke Philips N.V. Coordinate transformation of graphical objects registered to a magnetic resonance image
WO2013158983A1 (en) 2012-04-20 2013-10-24 Vanderbilt University Robotic device for establishing access channel
US9539726B2 (en) * 2012-04-20 2017-01-10 Vanderbilt University Systems and methods for safe compliant insertion and hybrid force/motion telemanipulation of continuum robots
WO2013158974A1 (en) 2012-04-20 2013-10-24 Vanderbilt University Dexterous wrists for surgical intervention
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US20130314418A1 (en) * 2012-05-24 2013-11-28 Siemens Medical Solutions Usa, Inc. System for Erasing Medical Image Features
CN104334109B (zh) 2012-06-01 2017-06-23 直观外科手术操作公司 用于使用零空间的外科手术操纵器的命令的重新配置的系统和方法
US8882662B2 (en) 2012-06-27 2014-11-11 Camplex, Inc. Interface for viewing video from cameras on a surgical visualization system
US9642606B2 (en) 2012-06-27 2017-05-09 Camplex, Inc. Surgical visualization system
RU2689767C2 (ru) * 2012-06-28 2019-05-28 Конинклейке Филипс Н.В. Улучшенная визуализация кровеносных сосудов с использованием управляемого роботом эндоскопа
CN104411248B (zh) 2012-06-28 2017-09-26 皇家飞利浦有限公司 在内窥镜外科手术中用于最佳图像采集的c型臂轨迹规划
US9076227B2 (en) * 2012-10-01 2015-07-07 Mitsubishi Electric Research Laboratories, Inc. 3D object tracking in multiple 2D sequences
CN103054612B (zh) * 2012-12-10 2015-06-10 苏州佳世达电通有限公司 超声波探头鼠标及超声波仪
US9386908B2 (en) * 2013-01-29 2016-07-12 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Navigation using a pre-acquired image
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
CA2906286C (en) * 2013-03-15 2022-06-21 9234438 Canada Inc. Electrosurgical mapping tools and methods
KR102257034B1 (ko) 2013-03-15 2021-05-28 에스알아이 인터내셔널 하이퍼덱스트러스 수술 시스템
KR101563498B1 (ko) 2013-05-02 2015-10-27 삼성메디슨 주식회사 대상체의 변화 정보를 제공하는 초음파 시스템 및 방법
WO2014189969A1 (en) 2013-05-21 2014-11-27 Camplex, Inc. Surgical visualization systems
EP3046458B1 (en) 2013-09-20 2020-10-21 Camplex, Inc. Surgical visualization systems
JP5781135B2 (ja) * 2013-09-27 2015-09-16 エフ・エーシステムエンジニアリング株式会社 3dナビゲーション映像生成装置
EP3050492A4 (en) * 2013-10-30 2017-09-20 Olympus Corporation Light source unit and endoscope device
JP6358463B2 (ja) 2013-11-13 2018-07-18 パナソニックIpマネジメント株式会社 マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置
US10057590B2 (en) * 2014-01-13 2018-08-21 Mediatek Inc. Method and apparatus using software engine and hardware engine collaborated with each other to achieve hybrid video encoding
EP3096692B1 (en) * 2014-01-24 2023-06-14 Koninklijke Philips N.V. Virtual image with optical shape sensing device perspective
US10083278B2 (en) * 2014-02-12 2018-09-25 Edda Technology, Inc. Method and system for displaying a timing signal for surgical instrument insertion in surgical procedures
KR102332119B1 (ko) 2014-03-17 2021-11-29 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 원격 조종 의료 시스템에서 미리 설정된 암 위치를 가지는 자동화된 구조
EP3119329B1 (en) 2014-03-17 2022-07-20 Intuitive Surgical Operations, Inc. Guided setup for teleoperated medical device
CN110236693B (zh) 2014-03-17 2022-11-04 直观外科手术操作公司 用于遥控操作医疗系统中的器械的屏外指示的系统和方法
EP3125809B1 (en) * 2014-03-28 2020-09-09 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
CN111184577A (zh) 2014-03-28 2020-05-22 直观外科手术操作公司 器械在视野中的定量三维可视化
WO2015149046A1 (en) 2014-03-28 2015-10-01 Dorin Panescu Quantitative three-dimensional imaging of surgical scenes from multiport perspectives
JP2017517355A (ja) 2014-03-28 2017-06-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 定量的3次元イメージング及び手術用インプラントのプリント
JP2017518147A (ja) 2014-03-28 2017-07-06 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術シーンの定量的三次元撮像
JP2015192697A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 制御装置および制御方法、並びに撮影制御システム
JP6305810B2 (ja) * 2014-03-31 2018-04-04 キヤノンメディカルシステムズ株式会社 医用画像診断装置
EP3136943A4 (en) * 2014-05-01 2017-12-27 EndoChoice, Inc. System and method of scanning a body cavity using a multiple viewing elements endoscope
CN105321202A (zh) * 2014-07-16 2016-02-10 南京普爱射线影像设备有限公司 医学二维图像和3d图像显示软件系统
US9815206B2 (en) * 2014-09-25 2017-11-14 The Johns Hopkins University Surgical system user interface using cooperatively-controlled robot
CN107106245B (zh) * 2014-11-13 2024-04-19 直观外科手术操作公司 用户界面与主控制器之间的交互作用
US10123846B2 (en) 2014-11-13 2018-11-13 Intuitive Surgical Operations, Inc. User-interface control using master controller
WO2016090336A1 (en) 2014-12-05 2016-06-09 Camplex, Inc. Surgical visualization systems and displays
EP3277152A4 (en) 2015-03-25 2018-12-26 Camplex, Inc. Surgical visualization systems and displays
CN104887175A (zh) * 2015-06-03 2015-09-09 皖南医学院 一种虚拟胃镜检查与诊断系统
CN113384360A (zh) * 2015-10-02 2021-09-14 索尼公司 医疗控制设备、控制方法、程序以及医疗控制系统
WO2017091704A1 (en) * 2015-11-25 2017-06-01 Camplex, Inc. Surgical visualization systems and displays
CN105376503B (zh) * 2015-12-14 2018-07-20 北京医千创科技有限公司 一种手术图像处理装置及方法
CN113729977A (zh) * 2016-02-12 2021-12-03 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的系统和方法
CN114767266A (zh) * 2016-06-09 2022-07-22 直观外科手术操作公司 计算机辅助远程操作手术系统和方法
CN108024833B (zh) 2016-06-30 2021-06-04 直观外科手术操作公司 用于在图像引导过程期间显示引导信息的图形用户界面
KR20230164237A (ko) 2016-06-30 2023-12-01 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 안내식 시술 중에 복수의 모드에서 안내 정보를 디스플레이하기 위한 그래픽 사용자 인터페이스
CN113893032B (zh) * 2016-07-14 2024-10-15 直观外科手术操作公司 用于远程操作医疗系统中的屏幕菜单的系统和方法
WO2018034661A1 (en) * 2016-08-18 2018-02-22 Stryker European Holdings I, Llc Method for visualizing a bone
KR101715026B1 (ko) * 2016-08-26 2017-03-13 (주)미래컴퍼니 수술 로봇 시스템 및 그 동작 제한 방법
WO2018081931A1 (en) * 2016-11-01 2018-05-11 Bio-Medical Engineering (HK) Limited Surgical robotic devices and systems for use in performing minimally invasive and natural orifice transluminal endoscopic surgical actions
US11793394B2 (en) 2016-12-02 2023-10-24 Vanderbilt University Steerable endoscope with continuum manipulator
EP3582709A4 (en) * 2017-02-14 2020-11-25 Intuitive Surgical Operations Inc. MULTIDIMENSIONAL VISUALIZATION IN A COMPUTER-ASSISTED REMOTE-GUIDED SURGERY
US10839956B2 (en) * 2017-03-03 2020-11-17 University of Maryland Medical Center Universal device and method to integrate diagnostic testing into treatment in real-time
WO2018195216A1 (en) * 2017-04-18 2018-10-25 Intuitive Surgical Operations, Inc. Graphical user interface for monitoring an image-guided procedure
US10918455B2 (en) 2017-05-08 2021-02-16 Camplex, Inc. Variable light source
CN110913749B (zh) * 2017-07-03 2022-06-24 富士胶片株式会社 医疗图像处理装置、内窥镜装置、诊断支持装置、医疗业务支持装置及报告书制作支持装置
EP3672505A4 (en) * 2017-08-21 2021-02-17 Relign Corporation ARTHROSCOPY DEVICES AND METHODS
US11662270B2 (en) * 2017-08-22 2023-05-30 Intuitive Surgical Operations, Inc. User-installable part installation detection techniques
US20200261180A1 (en) * 2017-09-06 2020-08-20 Covidien Lp 27-3systems, methods, and computer-readable media for providing stereoscopic visual perception notifications and/or recommendations during a robotic surgical procedure
WO2019055701A1 (en) 2017-09-13 2019-03-21 Vanderbilt University MULTI-SCALE CONTINUUM MOVEMENT ROBOTS BY BALANCING MODULATION
WO2019079126A1 (en) * 2017-10-17 2019-04-25 Verily Life Sciences Llc DISPLAYING PREOPERATIVE AND INTRA-OPERATIVE IMAGES
CN111356407A (zh) * 2017-10-20 2020-06-30 昆山华大智造云影医疗科技有限公司 超声检测装置、超声控制装置、超声系统及超声成像方法
US11793537B2 (en) 2017-10-30 2023-10-24 Cilag Gmbh International Surgical instrument comprising an adaptive electrical system
US11510741B2 (en) 2017-10-30 2022-11-29 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US11612444B2 (en) 2017-12-28 2023-03-28 Cilag Gmbh International Adjustment of a surgical device function based on situational awareness
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11179175B2 (en) 2017-12-28 2021-11-23 Cilag Gmbh International Controlling an ultrasonic surgical instrument according to tissue location
US20190206569A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Method of cloud based data analytics for use with the hub
US11464559B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US11257589B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US12062442B2 (en) 2017-12-28 2024-08-13 Cilag Gmbh International Method for operating surgical instrument systems
US11076921B2 (en) 2017-12-28 2021-08-03 Cilag Gmbh International Adaptive control program updates for surgical hubs
US11026751B2 (en) 2017-12-28 2021-06-08 Cilag Gmbh International Display of alignment of staple cartridge to prior linear staple line
US11013563B2 (en) 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US12096916B2 (en) 2017-12-28 2024-09-24 Cilag Gmbh International Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub
US11896443B2 (en) * 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11399858B2 (en) 2018-03-08 2022-08-02 Cilag Gmbh International Application of smart blade technology
US11678927B2 (en) 2018-03-08 2023-06-20 Cilag Gmbh International Detection of large vessels during parenchymal dissection using a smart blade
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
CN108836392B (zh) * 2018-03-30 2021-06-22 中国科学院深圳先进技术研究院 基于超声rf信号的超声成像方法、装置、设备及存储介质
WO2019222495A1 (en) 2018-05-18 2019-11-21 Auris Health, Inc. Controllers for robotically-enabled teleoperated systems
CN209253118U (zh) * 2018-07-31 2019-08-16 深圳市精锋医疗科技有限公司 视野较好的从操作设备组件及手术机器人
US20200073526A1 (en) * 2018-08-28 2020-03-05 Johnson Controls Technology Company Energy management system with draggable and non-draggable building component user interface elements
CN112654280A (zh) * 2018-09-11 2021-04-13 索尼公司 医学观察系统、医学观察装置和医学观察方法
WO2020060750A1 (en) 2018-09-17 2020-03-26 Auris Health, Inc. Systems and methods for concomitant medical procedures
WO2020072328A1 (en) * 2018-10-02 2020-04-09 Convergascent Llc Endoscope with inertial measurement units and/or haptic input controls
CN109498162B (zh) * 2018-12-20 2023-11-03 深圳市精锋医疗科技股份有限公司 提升沉浸感的主操作台及手术机器人
JP7494196B2 (ja) * 2019-02-12 2024-06-03 インテュイティブ サージカル オペレーションズ, インコーポレイテッド コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法
US11331100B2 (en) 2019-02-19 2022-05-17 Cilag Gmbh International Staple cartridge retainer system with authentication keys
EP3977406A1 (en) * 2019-05-31 2022-04-06 Intuitive Surgical Operations, Inc. Composite medical imaging systems and methods
KR102247545B1 (ko) * 2019-07-24 2021-05-03 경북대학교 산학협력단 수술위치 정보제공방법 및 수술위치 정보제공장치
US11903650B2 (en) 2019-09-11 2024-02-20 Ardeshir Rastinehad Method for providing clinical support for surgical guidance during robotic surgery
US11918307B1 (en) * 2019-11-15 2024-03-05 Verily Life Sciences Llc Integrating applications in a surgeon console user interface of a robotic surgical system
US11931119B1 (en) 2019-11-15 2024-03-19 Verily Life Sciences Llc Integrating applications in a surgeon console user interface of a robotic surgical system
JP2021091060A (ja) * 2019-12-12 2021-06-17 セイコーエプソン株式会社 制御方法およびロボットシステム
US12029522B2 (en) * 2020-09-23 2024-07-09 Verb Surgical Inc. Deep disengagement detection during telesurgery
USD981425S1 (en) * 2020-09-30 2023-03-21 Karl Storz Se & Co. Kg Display screen with graphical user interface
CN114831738A (zh) * 2020-10-08 2022-08-02 深圳市精锋医疗科技股份有限公司 手术机器人及其图形化控制装置、图形化显示方法
USD1022197S1 (en) 2020-11-19 2024-04-09 Auris Health, Inc. Endoscope
CN112957107B (zh) * 2021-02-19 2021-11-30 南昌华安众辉健康科技有限公司 一种具有腹腔硬镜的胸腹腔手术器械
US11819302B2 (en) 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
US12042241B2 (en) 2021-03-31 2024-07-23 Moon Surgical Sas Co-manipulation surgical system having automated preset robot arm configurations
US11832909B2 (en) 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints
US11844583B2 (en) 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
AU2022247392A1 (en) 2021-03-31 2023-09-28 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
CN113925615A (zh) * 2021-10-26 2022-01-14 北京歌锐科技有限公司 一种微创手术设备及其控制方法
US11717149B1 (en) 2022-04-27 2023-08-08 Maciej J. Kieturakis Methods and systems for robotic single-port laparoscopic access
CN115363751B (zh) * 2022-08-12 2023-05-16 华平祥晟(上海)医疗科技有限公司 术中解剖结构指示方法
CN118078434A (zh) * 2022-11-25 2024-05-28 深圳市精锋医疗科技股份有限公司 一种手术控制台、导航控制台、操作系统及存储介质
US11839442B1 (en) 2023-01-09 2023-12-12 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force
US11986165B1 (en) 2023-01-09 2024-05-21 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111816A (ja) * 1994-10-11 1996-04-30 Toshiba Corp 医用画像表示装置
JPH09173352A (ja) * 1995-12-25 1997-07-08 Toshiba Medical Eng Co Ltd 医用ナビゲーションシステム
JPH10322629A (ja) * 1997-05-16 1998-12-04 Canon Inc 撮像装置、撮像システム、及び記憶媒体

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5493595A (en) * 1982-02-24 1996-02-20 Schoolman Scientific Corp. Stereoscopically displayed three dimensional medical imaging
US5181514A (en) 1991-05-21 1993-01-26 Hewlett-Packard Company Transducer positioning system
US5279309A (en) * 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5182728A (en) * 1991-06-28 1993-01-26 Acoustic Imaging Technologies Corporation Ultrasound imaging system and method
US6963792B1 (en) * 1992-01-21 2005-11-08 Sri International Surgical method
US5361768A (en) * 1992-06-30 1994-11-08 Cardiovascular Imaging Systems, Inc. Automated longitudinal position translator for ultrasonic imaging probes, and methods of using same
US5397323A (en) * 1992-10-30 1995-03-14 International Business Machines Corporation Remote center-of-motion robot for surgery
US5788688A (en) * 1992-11-05 1998-08-04 Bauer Laboratories, Inc. Surgeon's command and control
WO1994024631A1 (en) * 1993-04-20 1994-10-27 General Electric Company Computer graphic and live video system for enhancing visualisation of body structures during surgery
US5842473A (en) * 1993-11-29 1998-12-01 Life Imaging Systems Three-dimensional imaging system
US6241725B1 (en) * 1993-12-15 2001-06-05 Sherwood Services Ag High frequency thermal ablation of cancerous tumors and functional targets with image data assistance
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US5836880A (en) * 1995-02-27 1998-11-17 Micro Chemical, Inc. Automated system for measuring internal tissue characteristics in feed animals
US5797849A (en) * 1995-03-28 1998-08-25 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
US5817022A (en) * 1995-03-28 1998-10-06 Sonometrics Corporation System for displaying a 2-D ultrasound image within a 3-D viewing environment
JPH08275958A (ja) * 1995-04-07 1996-10-22 Olympus Optical Co Ltd 手術用マニピュレータ装置
US5887121A (en) * 1995-04-21 1999-03-23 International Business Machines Corporation Method of constrained Cartesian control of robotic mechanisms with active and passive joints
US5551432A (en) * 1995-06-19 1996-09-03 New York Eye & Ear Infirmary Scanning control system for ultrasound biomicroscopy
US6256529B1 (en) * 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
US5797900A (en) 1996-05-20 1998-08-25 Intuitive Surgical, Inc. Wrist mechanism for surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
US6642836B1 (en) * 1996-08-06 2003-11-04 Computer Motion, Inc. General purpose distributed operating room control system
US5810008A (en) * 1996-12-03 1998-09-22 Isg Technologies Inc. Apparatus and method for visualizing ultrasonic images
US5853367A (en) * 1997-03-17 1998-12-29 General Electric Company Task-interface and communications system and method for ultrasound imager control
US6129670A (en) * 1997-11-24 2000-10-10 Burdette Medical Systems Real time brachytherapy spatial registration and visualization system
US5842993A (en) * 1997-12-10 1998-12-01 The Whitaker Corporation Navigable ultrasonic imaging probe assembly
JP3582348B2 (ja) * 1998-03-19 2004-10-27 株式会社日立製作所 手術装置
US6950689B1 (en) * 1998-08-03 2005-09-27 Boston Scientific Scimed, Inc. Dynamically alterable three-dimensional graphical model of a body region
US6951535B2 (en) * 2002-01-16 2005-10-04 Intuitive Surgical, Inc. Tele-medicine system that transmits an entire state of a subsystem
US6468265B1 (en) * 1998-11-20 2002-10-22 Intuitive Surgical, Inc. Performing cardiac surgery without cardioplegia
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6799065B1 (en) * 1998-12-08 2004-09-28 Intuitive Surgical, Inc. Image shifting apparatus and method for a telerobotic system
US6522906B1 (en) * 1998-12-08 2003-02-18 Intuitive Surgical, Inc. Devices and methods for presenting and regulating auxiliary information on an image display of a telesurgical system to assist an operator in performing a surgical procedure
US6602185B1 (en) * 1999-02-18 2003-08-05 Olympus Optical Co., Ltd. Remote surgery support system
JP2000300579A (ja) * 1999-04-26 2000-10-31 Olympus Optical Co Ltd 多機能マニピュレータ
US6312391B1 (en) * 2000-02-16 2001-11-06 Urologix, Inc. Thermodynamic modeling of tissue treatment procedure
US6599247B1 (en) * 2000-07-07 2003-07-29 University Of Pittsburgh System and method for location-merging of real-time tomographic slice images with human vision
US6862561B2 (en) * 2001-05-29 2005-03-01 Entelos, Inc. Method and apparatus for computer modeling a joint
US6887245B2 (en) * 2001-06-11 2005-05-03 Ge Medical Systems Global Technology Company, Llc Surgical drill for use with a computer assisted surgery system
US7831292B2 (en) * 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
US7155316B2 (en) * 2002-08-13 2006-12-26 Microbotics Corporation Microsurgical robot system
US20060161218A1 (en) * 2003-11-26 2006-07-20 Wicab, Inc. Systems and methods for treating traumatic brain injury
JP4377827B2 (ja) * 2004-03-30 2009-12-02 株式会社東芝 マニピュレータ装置
EP1805744A2 (en) * 2004-08-10 2007-07-11 The General Hospital Corporation Methods and apparatus for simulation of endovascular and endoluminal procedures
JP2006055273A (ja) * 2004-08-18 2006-03-02 Olympus Corp 手術支援システム
US7396129B2 (en) * 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
JP2006320427A (ja) * 2005-05-17 2006-11-30 Hitachi Medical Corp 内視鏡手術支援システム
JP2006321027A (ja) * 2005-05-20 2006-11-30 Hitachi Ltd マスタ・スレーブ式マニピュレータシステム及びその操作入力装置
JP4398405B2 (ja) * 2005-05-30 2010-01-13 アロカ株式会社 医療システム
KR101258912B1 (ko) * 2005-06-06 2013-04-30 인튜어티브 서지컬 인코포레이티드 복강경의 초음파 로보트 수술 시스템
EP3524202A1 (en) 2005-10-20 2019-08-14 Intuitive Surgical Operations Inc. Auxiliary image display and manipulation on a computer display in a medical robotic system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111816A (ja) * 1994-10-11 1996-04-30 Toshiba Corp 医用画像表示装置
JPH09173352A (ja) * 1995-12-25 1997-07-08 Toshiba Medical Eng Co Ltd 医用ナビゲーションシステム
JPH10322629A (ja) * 1997-05-16 1998-12-04 Canon Inc 撮像装置、撮像システム、及び記憶媒体

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9259283B2 (en) 2011-07-07 2016-02-16 Olympus Corporation Medical master slave manipulator system
US9524022B2 (en) 2011-08-04 2016-12-20 Olympus Corporation Medical equipment
US9568992B2 (en) 2011-08-04 2017-02-14 Olympus Corporation Medical manipulator
US9244524B2 (en) 2011-08-04 2016-01-26 Olympus Corporation Surgical instrument and control method thereof
US9218053B2 (en) 2011-08-04 2015-12-22 Olympus Corporation Surgical assistant system
US9423869B2 (en) 2011-08-04 2016-08-23 Olympus Corporation Operation support device
US9477301B2 (en) 2011-08-04 2016-10-25 Olympus Corporation Operation support device and assembly method thereof
WO2013018926A1 (en) 2011-08-04 2013-02-07 Olympus Corporation Medical equipment
US9244523B2 (en) 2011-08-04 2016-01-26 Olympus Corporation Manipulator system
US9632577B2 (en) 2011-08-04 2017-04-25 Olympus Corporation Operation support device and control method thereof
US9632573B2 (en) 2011-08-04 2017-04-25 Olympus Corporation Medical manipulator and method of controlling the same
US9671860B2 (en) 2011-08-04 2017-06-06 Olympus Corporation Manipulation input device and manipulator system having the same
US9851782B2 (en) 2011-08-04 2017-12-26 Olympus Corporation Operation support device and attachment and detachment method thereof
US9161772B2 (en) 2011-08-04 2015-10-20 Olympus Corporation Surgical instrument and medical manipulator
US10420575B2 (en) 2014-07-25 2019-09-24 Olympus Corporation Treatment tool and treatment tool system
JP2018532527A (ja) * 2015-09-29 2018-11-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット支援低侵襲手術のための器具コントローラ

Also Published As

Publication number Publication date
US20160235496A1 (en) 2016-08-18
CN101291635A (zh) 2008-10-22
EP3155998A1 (en) 2017-04-19
EP3155998B1 (en) 2021-03-31
JP2013150873A (ja) 2013-08-08
KR101320379B1 (ko) 2013-10-22
JP5322648B2 (ja) 2013-10-23
US20080033240A1 (en) 2008-02-07
JP2012061336A (ja) 2012-03-29
CN103142309B (zh) 2015-06-17
JP5467615B2 (ja) 2014-04-09
CN103251455A (zh) 2013-08-21
EP3524202A1 (en) 2019-08-14
EP3162318A3 (en) 2017-08-09
JP5639223B2 (ja) 2014-12-10
CN101291635B (zh) 2013-03-27
EP1937176A2 (en) 2008-07-02
US20220071721A1 (en) 2022-03-10
EP1937176B1 (en) 2019-04-17
US11197731B2 (en) 2021-12-14
WO2007047782A2 (en) 2007-04-26
CN103251455B (zh) 2016-04-27
JP5276706B2 (ja) 2013-08-28
US20190388169A1 (en) 2019-12-26
EP3162318A2 (en) 2017-05-03
WO2007047782A3 (en) 2007-09-13
KR20080068640A (ko) 2008-07-23
CN103142309A (zh) 2013-06-12
JP2012055752A (ja) 2012-03-22
EP3162318B1 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
US11197731B2 (en) Auxiliary image display and manipulation on a computer display in a medical robotic system
US8583274B2 (en) Method for graphically providing continuous change of state directions to a user of medical robotic system
JP7015256B2 (ja) コンピュータ支援遠隔操作システムにおける補助器具制御
KR101258912B1 (ko) 복강경의 초음파 로보트 수술 시스템
JP2009512514A5 (ja)
CN116301480A (zh) 用于与虚拟模型进行交互的触摸屏用户界面
CN115500950A (zh) 内窥镜位姿调整方法、手术机器人及存储介质
US20210212773A1 (en) System and method for hybrid control using eye tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120423

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130501

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130716

R150 Certificate of patent or registration of utility model

Ref document number: 5322648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250