JP7454863B2 - 医療手術のためのナビゲーションシステム及び方法 - Google Patents
医療手術のためのナビゲーションシステム及び方法 Download PDFInfo
- Publication number
- JP7454863B2 JP7454863B2 JP2021537457A JP2021537457A JP7454863B2 JP 7454863 B2 JP7454863 B2 JP 7454863B2 JP 2021537457 A JP2021537457 A JP 2021537457A JP 2021537457 A JP2021537457 A JP 2021537457A JP 7454863 B2 JP7454863 B2 JP 7454863B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- data
- instrument
- navigation
- robotic system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 65
- 238000001356 surgical procedure Methods 0.000 title claims description 33
- 238000009877 rendering Methods 0.000 claims description 28
- 239000003550 marker Substances 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 26
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 19
- 210000003484 anatomy Anatomy 0.000 claims description 13
- 230000003213 activating effect Effects 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000001447 compensatory effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 235000012489 doughnuts Nutrition 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000005553 drilling Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 239000000523 sample Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 238000003801 milling Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 229920000049 Carbon (fiber) Polymers 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000004917 carbon fiber Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 239000000806 elastomer Substances 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000007790 scraping Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000000278 spinal cord Anatomy 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/1662—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
- A61B17/1671—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the spine
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/304—Surgical robots including a freely orientable platform, e.g. so called 'Stewart platforms'
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0807—Indication means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/5025—Supports for surgical instruments, e.g. articulated arms with a counter-balancing mechanism
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/05—Surgical care
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Gynecology & Obstetrics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Manipulator (AREA)
Description
Claims (34)
- ツールを使用するロボットシステムによって実施される医療手術のためのナビゲーション方法であって、
前記ロボットシステムのプロセッサにおいて、少なくとも1組のナビゲーションデータを受信するステップであって、前記少なくとも1組のナビゲーションデータは、少なくとも1組の登録データ、少なくとも1組の器具データ、少なくとも1組の空間センサデータ、少なくとも1組の医療手術計画データを含み、前記少なくとも1組の空間センサデータは、空間マーカフレームで送信した信号による情報を含み、前記ロボットシステムは、器具システムの器具、及び前記器具に接続された支持アームを含み、前記器具はハウジングを含み、前記ハウジングは、前記ハウジングに機械的に連結されたハンドル及びマニピュレータを提供し、前記マニピュレータは、前記ツールに連結されたプラットフォームと、ベースと、前記プラットフォームとベースと間に接続されたジョイントと、前記ジョイントの移動を駆動するために互いに並列して前記ハウジングの内部に配置されたアクチュエータとを含み、前記空間マーカフレームは前記プラットフォームに配置され、前記ハンドルは前記マニピュレータと前記支持アームの間に配置され、前記少なくとも1組の器具データは前記ロボットシステムの少なくとも1組の仮想作業空間又は仮想アクティブ空間を含み、前記ナビゲーションデータは少なくとも1つの仮想物体を含み、前記仮想物体は解剖学的部位の表現又は器具システムの表現を生成するために用いられる、受信するステップ(S1)と、
前記ロボットシステムの前記プロセッサにおいて、前記少なくとも1組のナビゲーションデータ内の前記仮想物体の少なくとも1つの3次元モデルを受信又は生成するステップ(S2)と、
前記ロボットシステムの前記プロセッサにおいて、仮想環境を生成するように前記仮想物体の少なくとも1つの3次元モデルが含まれた前記少なくとも1組のナビゲーションデータを処理するステップであって、前記仮想環境は前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間、並びに前記少なくとも1つの仮想物体を含む、ステップ(S3)と、
前記ロボットシステムの前記プロセッサにおいて、少なくとも1つのナビゲーション指示を生成するために、前記少なくとも1組ナビゲーションデータ及び前記仮想環境を処理することで、前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間と、前記少なくとも1つの仮想物体との間に空間関係を決定し、前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間は前記マニピュレータの作業空間に基づいて決定され、前記マニピュレータの前記作業空間は、前記ベースが静止したままであるときの前記ツールにおける1組の到達可能な点を含む、ステップ(S4)と、
前記ロボットシステムに電気的に接続されたユーザインタフェースにおいて、ユーザが前記医療手術中に参照するために、前記ロボットシステムの前記ユーザに前記仮想環境、前記ナビゲーション指示、又は前記仮想環境と前記ナビゲーション指示を提示するステップ(S5)と、を含む、
ナビゲーション方法。 - 前記ステップ(S1)は、少なくとも1組の解剖学的データを受信するステップ(S1-1)をさらに含む、請求項1に記載のナビゲーション方法。
- 前記ステップ(S1-1)は、前記ロボットシステムに電気的に接続された低侵襲画像システムから少なくとも1組の内視鏡画像データを受信するステップをさらに含み、
ステップ(S5)は、内視鏡画像データを表示するステップをさらに含み、前記内視鏡画像データは、前記仮想環境における仮想解剖学的構造と空間的かつタイムリーに一致する、請求項2に記載のナビゲーション方法。 - 前記仮想アクティブ空間は、第1の仮想アクティブ空間及び第2の仮想アクティブ空間をさらに含み、前記第1の仮想アクティブ空間のサイズ又は形状は、前記第2の仮想アクティブ空間のサイズ又は形状とは異なる、請求項1に記載のナビゲーション方法。
- 前記ロボットシステムは、器具システムに電気的に接続され、前記第1の仮想アクティブ空間は、前記マニピュレータ又は前記ツールをアクティブ化するための複数の基準のうちの1つに関連付けられ、前記第2の仮想アクティブ空間は、前記マニピュレータ又は前記ツールを非アクティブ化するための複数の基準のうちの1つに関連付けられる、請求項4に記載のナビゲーション方法。
- 前記少なくとも1つの空間関係は、少なくとも1つの補償評価を含み、前記少なくとも1つの補償評価は、前記少なくとも1組の医療手術計画データ及び前記仮想作業空間から、又は前記少なくとも1組の医療手術計画データ及び前記仮想アクティブ空間から計算される、請求項1に記載のナビゲーション方法。
- 前記ステップ(S4)は、少なくとも1つのナビゲーション指示を生成するように、前記医療手術計画データ内の少なくとも1つの仮想計画物体属性を処理するステップを含み、前記少なくとも1つの仮想計画物体属性は、前記医療手術における前記ツールの軌跡を表す、請求項1に記載のナビゲーション方法。
- 前記ロボットシステムの少なくとも1つの機能を制御するための少なくとも1つの組の制御信号を生成するステップをさらに含む、請求項1に記載のナビゲーション方法。
- 前記制御信号は、第1の制御信号と第2の制御信号とを含み、前記第1の制御信号は、前記ナビゲーションデータの計算の第1の計算結果に基づいて生成され、前記第2の制御信号は、前記ナビゲーションデータの計算の第2の計算結果に基づいて生成される、請求項8に記載のナビゲーション方法。
- 前記ステップ(S5)は、前記プロセッサに電気的に接続された表示装置上に3次元グラフィックスをレンダリングするステップを含み、
前記3次元グラフィックスは、前記仮想環境、前記少なくとも1つのナビゲーション指示、又は前記仮想環境と前記少なくとも1つのナビゲーション指示を含む、請求項1に記載のナビゲーション方法。 - 前記レンダリングの視野角は、前記ロボットシステムに電気的に接続された器具の方位に合わせられる、請求項10に記載のナビゲーション方法。
- 前記ステップ(S5)は、前記少なくとも1つのナビゲーションデータ及び前記仮想環境に応じて、グラフィカルユーザインタフェース(GUI)アプリケーションにより、複数の2次元アイコンを生成及び表示するステップを含み、
前記複数の2次元アイコンは、前記ロボットシステムに電気的に接続された器具の位置、前記器具の方位、前記少なくとも1つのナビゲーション指示、及び前記器具の有効な方位の範囲を表す、請求項1に記載のナビゲーション方法。 - 前記少なくとも1つのナビゲーション指示は、光インジケータ又はオーディオ装置によって提示され、前記光インジケータ及び前記オーディオ装置は、前記ロボットシステムに電気的に接続される、請求項1に記載のナビゲーション方法。
- 前記少なくとも1つのナビゲーション指示は、ツールの方向によって提示される、請求項1に記載のナビゲーション方法。
- 前記ステップ(S5)は、前記少なくとも1つのナビゲーションデータ及び前記仮想環境に応じて、グラフィカルユーザインタフェース(GUI)アプリケーションにより、複数の2次元アイコンを生成及び表示するステップを含み、
前記2次元アイコンは、作業空間プログレスバーを表す、請求項1に記載のナビゲーション方法。 - ツールによって医療手術を支援するためのロボットシステムであって、
ハウジングを含む器具と、前記器具に接続される支持アームとを備える器具システムであって、前記ハウジングは前記ハウジングに機械的に連結されるハンドルとマニピュレータを提供し、前記マニピュレータは、前記ツールに連結されたプラットフォームと、ベースと、前記プラットフォームとベースと間に接続されたジョイントと、前記ジョイントの移動を駆動するために互いに並列して前記ハウジングの内部に配置されたアクチュエータとを含み、前記プラットフォームに空間マーカフレームが配置される、器具システムと、
前記ロボットシステムに電気的に接続されたユーザインタフェースと、
前記ユーザインタフェース及び前記器具システムに電気的に接続されたコンピュータシステムと、を含み、
前記コンピュータシステムは、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに接続され、前記医療手術をナビゲートするための複数のコンピュータ読み取り可能命令を記憶する非一時的なコンピュータ可読媒体とを備え、前記複数のコンピュータ読み取り可能命令は、前記少なくとも1つのプロセッサによって実行されると、前記ロボットシステムに以下のステップを実行させる命令を含み、
前記ステップは、
前記ロボットシステムのプロセッサにおいて、少なくとも1組のナビゲーションデータを受信し、前記少なくとも1組のナビゲーションデータは、少なくとも1組の登録データと、少なくとも1組の器具データと、少なくとも1組の空間センサデータと、少なくとも1組の医療手術計画データとを含み、前記少なくとも1組の空間センサデータは、空間マーカフレームで送信した信号による情報を含み、前記少なくとも1組の器具データは前記ロボットシステムの少なくとも1組の仮想作業空間又は仮想アクティブ空間を生成するために用いられ、前記少なくとも1組のナビゲーションデータは、解剖学的部位の表現又は器具システムの表現を含む少なくとも1つの仮想物体を生成するために用いられる、受信するステップ(S1)と、
前記少なくとも1組のナビゲーションデータ内の前記仮想物体の少なくとも1つの3次元モデルを受信又は生成するステップ(S2)と、
仮想環境を生成するように前記仮想物体の少なくとも1つの3次元モデルが含まれる前記少なくとも1組のナビゲーションデータを処理するステップであって、前記仮想環境は少なくとも1組の仮想作業空間又は仮想アクティブ空間、並びに前記仮想物体を含むステップ(S3)と、
少なくとも1つのナビゲーション指示を生成するために、前記少なくとも1組のナビゲーションデータ及び前記仮想環境を処理することで、前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間と、前記少なくとも1つの仮想物体との間に空間関係を決定し、前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間は前記マニピュレータの作業空間に基づいて決定され、前記マニピュレータの前記作業空間は、前記ベースが静止したままであるときの前記ツールにおける1組の到達可能な点である、ステップ(S4)と、
前記ロボットシステムに電気的に接続されたユーザインタフェースにおいて、ユーザが医療手術中に参照するために、前記ロボットシステムの前記ユーザに少なくとも1つの前記仮想環境、前記少なくとも1つのナビゲーション指示、又は前記仮想環境と前記ナビゲーション指示を提示するステップ(S5)と、を含む、ロボットシステム。 - 前記ステップ(S1)は、少なくとも1組の解剖学的データを受信するステップ(S1-1)をさらに含む、請求項16に記載のロボットシステム。
- 前記ステップ(S1-1)は、前記ロボットシステムに電気的に接続された低侵襲画像システムから少なくとも1組の内視鏡画像データを受信するステップをさらに含み、
ステップ(S5)は、前記少なくとも1組の内視鏡画像データを表示するステップをさらに含み、表示された前記少なくとも1組の内視鏡画像データは、前記仮想環境における仮想解剖学的構造と空間的かつタイムリーに一致する、請求項17に記載のロボットシステム。 - 前記仮想アクティブ空間は、第1の仮想アクティブ空間及び第2の仮想アクティブ空間を含み、前記第1の仮想アクティブ空間のサイズ又は形状は、前記第2の仮想アクティブ空間のサイズ又は形状とは異なる、請求項16に記載のロボットシステム。
- 前記ロボットシステムは、前記器具システムに電気的に接続され、前記第1の仮想アクティブ空間は、前記マニピュレータ又は前記ツールをアクティブ化するための複数の基準のうちの1つに関連付けられ、前記第2の仮想アクティブ空間は、前記マニピュレータ又は前記ツールを非アクティブ化するための複数の基準のうちの1つに関連付けられる、請求項19に記載のロボットシステム。
- 前記少なくとも1つの空間関係は、少なくとも1つの補償評価を含み、前記少なくとも1つの補償評価は、前記少なくとも1組の医療手術計画データ及び前記仮想作業空間から、又は前記少なくとも1組の医療手術計画データ及び前記仮想アクティブ空間から計算される、請求項16に記載のロボットシステム。
- 前記ステップ(S4)は、少なくとも1つのナビゲーション指示を生成するように、前記少なくとも1組の医療手術計画データ内の少なくとも1つの仮想計画物体属性を処理するステップを含み、前記少なくとも1つの仮想計画物体属性は、前記医療手術における前記ツールの軌跡を表す、請求項16に記載のロボットシステム。
- 前記複数のコンピュータ読み取り可能命令が前記少なくとも1つのプロセッサによって実行されると、前記ロボットシステムはさらに、前記ロボットシステムの少なくとも1つの機能を制御するための少なくとも1つの組の制御信号を生成する、請求項16に記載のロボットシステム。
- 前記少なくとも1つの組の制御信号は、第1の制御信号と第2の制御信号とを含み、前記第1の制御信号は、前記少なくとも1つの組のナビゲーションデータの計算の第1の計算結果に基づいて生成され、前記第2の制御信号は、前記少なくとも1つの組ナビゲーションデータの計算の第2の計算結果に基づいて生成される、請求項23に記載のロボットシステム。
- 前記ステップ(S5)は、前記プロセッサに電気的に接続された表示装置上に3次元グラフィックスをレンダリングするステップを含み、
前記3次元グラフィックスは、少なくとも1つの前記仮想環境、前記少なくとも1つのナビゲーション指示、又は少なくとも1つの前記仮想環境と前記少なくとも1つのナビゲーション指示を含む、請求項16に記載のロボットシステム。 - 前記レンダリングの視野角は、前記ロボットシステムに電気的に接続された器具の方位に合わせられる、請求項25に記載のロボットシステム。
- 前記ステップ(S5)は、前記少なくとも1組のナビゲーションデータ及び前記仮想環境に応じて、グラフィカルユーザインタフェース(GUI)アプリケーションにより、複数の2次元アイコンを生成及び表示するステップを含み、
前記2次元アイコンは、前記ロボットシステムに電気的に接続された器具の位置、前記少なくとも1つのナビゲーション指示、及び前記器具の有効な方位の範囲を表す、請求項16に記載のロボットシステム。 - 前記少なくとも1つのナビゲーション指示は、光インジケータ又はオーディオ装置によって提示され、前記光インジケータ及び前記オーディオ装置は、前記ロボットシステムに電気的に接続される、請求項16に記載のロボットシステム。
- 前記少なくとも1つのナビゲーション指示は、前記ツールの方向によって提示され、前記ツールは、前記マニピュレータに接続される、請求項16に記載のロボットシステム。
- 前記ステップ(S5)は、前記少なくとも1組のナビゲーションデータ及び前記仮想環境に応じて、グラフィカルユーザインタフェース(GUI)アプリケーションにより、複数の2次元アイコンを生成及び表示するステップを含み、
前記2次元アイコンは、作業空間プログレスバーを表す、請求項16に記載のロボットシステム。 - 前記器具システムは、前記コンピュータシステムに電気的に接続される、請求項16に記載のロボットシステム。
- ツールを使用するロボットシステムによって実施される医療手術のためのナビゲーション方法であって、
前記ロボットシステムのプロセッサにおいて、少なくとも1組のナビゲーションデータを受信するステップであって、前記少なくとも1組のナビゲーションデータは、少なくとも1組の登録データ、少なくとも1組の器具データ、少なくとも1組の空間センサデータ、少なくとも1組の医療手術計画データを含み、前記少なくとも1組の空間センサデータは、空間マーカフレームで送信した信号による情報を含み、前記ロボットシステムは、器具システムの器具を含み、前記器具はハウジングを含み、前記ハウジングはマニピュレータを提供し、前記マニピュレータは、前記ツールに連結されたプラットフォームと、ベースと、前記プラットフォームとベースと間に接続されたジョイントと、前記ジョイントの移動を駆動するために互いに並列して前記ハウジングの内部に配置されたアクチュエータとを含み、前記空間マーカフレームは前記プラットフォームに配置され、前記少なくとも1組の器具データは前記ロボットシステムの少なくとも1組の仮想作業空間又は前記ロボットシステムの仮想アクティブ空間を含み、前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間は、前記器具の作業空間に対応した物体属性を含み、前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間は、前記マニピュレータの作業空間を含み、前記マニピュレータの前記作業空間は、前記ベースが静止したままであるときの前記ツールにおける1組の到達可能な点を含み、前記少なくとも1組のナビゲーションデータは少なくとも1つの仮想物体を含み、前記仮想物体は解剖学的部位の表現又は器具システムの表現を生成するために用いられる、受信するステップ(S1)と、
前記プロセッサにおいて、前記少なくとも1組のナビゲーションデータ内の前記仮想物体の少なくとも1つの3次元モデルを受信又は生成するステップ(S2)と、
前記プロセッサにおいて、仮想環境を生成するために、前記仮想物体の少なくとも1つの3次元モデルが含まれた前記少なくとも1組のナビゲーションデータを処理するステップであって、前記仮想環境は前記少なくとも1組の仮想作業空間又は前記仮想アクティブ空間、並びに前記少なくとも1つの仮想物体を含む、ステップ(S3)と、
前記プロセッサにおいて、少なくとも1つのナビゲーション指示を生成するために、前記少なくとも1組ナビゲーションデータ及び前記仮想環境を処理するステップであって、前記少なくとも2つの仮想物体との間に空間関係を決定し、前記少なくとも2つの仮想物体における第1の仮想物体は、前記少なくとも1組の器具データによる仮想作業空間又は仮想アクティブ空間であり、前記少なくとも2つの仮想物体における第2の仮想物体は、前記少なくとも1組の器具データによる仮想計画物体であり、前記仮想計画物体は、前記ツールと前記解剖学的部位との間の相互作用による所定の部位の表現であり、前記少なくとも1つの空間関係は、少なくとも1つの補償評価を含み、前記少なくとも1つの補償評価は、前記少なくとも1組の医療手術計画データ及び前記仮想作業空間から、又は前記少なくとも1組の医療手術計画データ及び前記仮想アクティブ空間から計算される、ステップ(S4)と、
前記ロボットシステムに電気的に接続されたユーザインタフェースにおいて、ユーザが前記医療手術中に参照するために、前記ロボットシステムの前記ユーザに少なくとも1つの前記仮想環境及び前記少なくとも1つのナビゲーション指示を提示するステップであって、前記ロボットシステムは、前記器具の前記少なくとも1つの補償評価を獲得するステップ(S5)と、を含む、
ナビゲーション方法。 - 前記アクチュエータは前記ベースに連結される、請求項1に記載のナビゲーション方法。
- 各前記ジョイントは、前記ベース及び前記プラットフォームの一方に接続される、請求項33に記載のナビゲーション方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/122,861 US11612438B2 (en) | 2018-09-05 | 2018-09-05 | Navigation system and method for medical operation by a robotic system using a tool |
US16/122,861 | 2018-09-05 | ||
PCT/CN2019/104567 WO2020048511A1 (en) | 2018-09-05 | 2019-09-05 | Navigation system and method for medical operation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022500204A JP2022500204A (ja) | 2022-01-04 |
JP7454863B2 true JP7454863B2 (ja) | 2024-03-25 |
Family
ID=69639484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537457A Active JP7454863B2 (ja) | 2018-09-05 | 2019-09-05 | 医療手術のためのナビゲーションシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11612438B2 (ja) |
EP (1) | EP3846726A4 (ja) |
JP (1) | JP7454863B2 (ja) |
CN (1) | CN110876643B (ja) |
TW (1) | TWI693923B (ja) |
WO (1) | WO2020048511A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3067299A1 (en) | 2011-09-02 | 2013-03-07 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
US11209954B2 (en) * | 2015-12-10 | 2021-12-28 | Cmr Surgical Limited | Surgical robotic system using dynamically generated icons to represent orientations of instruments |
US11642182B2 (en) * | 2016-09-27 | 2023-05-09 | Brainlab Ag | Efficient positioning of a mechatronic arm |
KR102274167B1 (ko) * | 2019-09-05 | 2021-07-12 | 큐렉소 주식회사 | 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템 |
US20240130795A1 (en) * | 2019-10-18 | 2024-04-25 | Integrity Implants Inc. D/B/A Accelus | Surgical navigation system |
JP7439603B2 (ja) | 2020-03-23 | 2024-02-28 | Toppanホールディングス株式会社 | 可視化装置、可視化方法、およびプログラム |
TWI727725B (zh) * | 2020-03-27 | 2021-05-11 | 台灣骨王生技股份有限公司 | 手術導航系統及其成像方法 |
TWI808336B (zh) * | 2020-07-30 | 2023-07-11 | 杰悉科技股份有限公司 | 影像顯示方法與影像監控系統 |
CN112826458B (zh) * | 2021-01-08 | 2022-11-01 | 广州中医药大学(广州中医药研究院) | 脉诊系统和脉诊方法 |
WO2022172697A1 (ja) * | 2021-02-12 | 2022-08-18 | オリンパス株式会社 | マニピュレータシステムおよびマニピュレータの制御装置 |
EP4088681A1 (en) * | 2021-05-11 | 2022-11-16 | DePuy Ireland Unlimited Company | System for guiding a surgical tool comprising an operative axis with respect to an anatomical structure |
WO2023052881A1 (en) * | 2021-09-28 | 2023-04-06 | Auris Health, Inc. | Real-time 3d robotic status |
WO2023060198A1 (en) * | 2021-10-08 | 2023-04-13 | Intuitive Surgical Operations, Inc. | Medical instrument guidance systems, including guidance systems for percutaneous nephrolithotomy procedures, and associated devices and methods |
US20230149082A1 (en) * | 2021-11-16 | 2023-05-18 | Mazor Robotics Ltd. | Systems, methods, and devices for performing a surgical procedure using a virtual guide |
CN115227463B (zh) * | 2022-07-22 | 2023-04-07 | 北京长木谷医疗科技有限公司 | 手术器械的磨锉装置、手术器械及手术机器人 |
CN116919596B (zh) * | 2023-09-14 | 2024-01-09 | 武汉联影智融医疗科技有限公司 | 器械导航方法、系统、装置、设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130096574A1 (en) | 2011-10-18 | 2013-04-18 | Hyosig Kang | System and method for robotic surgery |
US20130172906A1 (en) | 2010-03-31 | 2013-07-04 | Eric S. Olson | Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems |
JP2015502180A (ja) | 2011-09-02 | 2015-01-22 | ストライカー・コーポレイション | ハウジングから延びる切断アクセサリ及びハウジングに対する切断アクセサリの位置を確立するアクチュエータを備える手術器具 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8004229B2 (en) * | 2005-05-19 | 2011-08-23 | Intuitive Surgical Operations, Inc. | Software center and highly configurable robotic systems for surgery and other uses |
US7831292B2 (en) | 2002-03-06 | 2010-11-09 | Mako Surgical Corp. | Guidance system and method for surgical procedures with improved feedback |
CA2826925C (en) | 2005-02-22 | 2017-01-24 | Mako Surgical Corp. | Haptic guidance system and method |
US8073528B2 (en) * | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
WO2007136770A2 (en) * | 2006-05-19 | 2007-11-29 | Mako Surgical Corp. | System and method for verifying calibration of a surgical device |
WO2008083079A2 (en) * | 2006-12-27 | 2008-07-10 | Mako Surgical Corp. | Apparatus and method for providing an adjustable positive stop in space |
US7950306B2 (en) * | 2007-02-23 | 2011-05-31 | Microdexterity Systems, Inc. | Manipulator |
EP2467798B1 (en) | 2009-08-17 | 2020-04-15 | Mazor Robotics Ltd. | Device for improving the accuracy of manual operations |
US8603089B2 (en) * | 2011-01-19 | 2013-12-10 | Covidien Lp | Surgical instrument including inductively coupled accessory |
CA2854505C (en) * | 2011-11-04 | 2020-03-24 | The Johns Hopkins University | Steady hand micromanipulation robot |
US9289264B2 (en) | 2011-12-29 | 2016-03-22 | Mako Surgical Corp. | Systems and methods for guiding an instrument using haptic object with collapsing geometry |
TWI463964B (zh) * | 2012-03-03 | 2014-12-11 | Univ China Medical | 手術影像導引定位裝置及其系統 |
CN103040525B (zh) * | 2012-12-27 | 2016-08-03 | 深圳先进技术研究院 | 一种多模医学影像手术导航方法及系统 |
AU2014240998B2 (en) | 2013-03-13 | 2018-09-20 | Stryker Corporation | System for arranging objects in an operating room in preparation for surgical procedures |
WO2014165060A2 (en) | 2013-03-13 | 2014-10-09 | Stryker Corporation | Systems and methods for establishing virtual constraint boundaries |
US9901356B2 (en) | 2013-03-14 | 2018-02-27 | Think Surgical, Inc. | Systems and methods for monitoring a surgical procedure with critical regions |
US9014851B2 (en) * | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US9600138B2 (en) | 2013-03-15 | 2017-03-21 | Synaptive Medical (Barbados) Inc. | Planning, navigation and simulation systems and methods for minimally invasive therapy |
KR102356881B1 (ko) * | 2013-08-15 | 2022-02-03 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 카테터 위치설정 및 삽입을 위한 그래픽 사용자 인터페이스 |
US10045826B2 (en) | 2015-01-20 | 2018-08-14 | Mako Surgical Corporation | Systems and methods for repairing bone with multiple tools |
EP3247306B1 (en) * | 2015-01-22 | 2020-03-25 | Neocis Inc. | Interactive guidance and manipulation detection arrangements for a surgical robotic system |
JP6832870B2 (ja) * | 2015-05-19 | 2021-02-24 | マコ サージカル コーポレーション | 生体構造を加工するためのシステム及び方法 |
WO2017020081A1 (en) * | 2015-08-03 | 2017-02-09 | Deakin University | Apparatus, system and method for controlling motion of a robotic manipulator |
EP4070723A1 (en) | 2015-09-18 | 2022-10-12 | Auris Health, Inc. | Navigation of tubular networks |
BR112018007473A2 (pt) | 2015-10-14 | 2018-10-23 | Surgical Theater LLC | navegação cirúrgica de realidade aumentada |
WO2017114834A1 (en) | 2015-12-29 | 2017-07-06 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
CN108472090B (zh) * | 2015-12-29 | 2021-06-18 | 皇家飞利浦有限公司 | 用于控制外科手术机器人的系统、控制单元和方法 |
KR20180113512A (ko) | 2016-02-26 | 2018-10-16 | 씽크 써지컬, 인크. | 로봇의 사용자 위치설정을 안내하는 방법 및 시스템 |
US10413366B2 (en) | 2016-03-16 | 2019-09-17 | Synaptive Medical (Bardbados) Inc. | Trajectory guidance alignment system and methods |
CN105943161A (zh) * | 2016-06-04 | 2016-09-21 | 深圳市前海康启源科技有限公司 | 基于医疗机器人的手术导航系统及方法 |
TWI618036B (zh) * | 2017-01-13 | 2018-03-11 | China Medical University | 以斷層影像為基礎之手術探針導航模擬方法及其系統 |
CN107970060A (zh) | 2018-01-11 | 2018-05-01 | 上海联影医疗科技有限公司 | 手术机器人系统及其控制方法 |
US10058396B1 (en) | 2018-04-24 | 2018-08-28 | Titan Medical Inc. | System and apparatus for insertion of an instrument into a body cavity for performing a surgical procedure |
-
2018
- 2018-09-05 US US16/122,861 patent/US11612438B2/en active Active
-
2019
- 2019-03-28 TW TW108111088A patent/TWI693923B/zh active
- 2019-03-28 CN CN201910245689.7A patent/CN110876643B/zh active Active
- 2019-09-05 WO PCT/CN2019/104567 patent/WO2020048511A1/en unknown
- 2019-09-05 EP EP19856615.0A patent/EP3846726A4/en active Pending
- 2019-09-05 JP JP2021537457A patent/JP7454863B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130172906A1 (en) | 2010-03-31 | 2013-07-04 | Eric S. Olson | Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems |
JP2015502180A (ja) | 2011-09-02 | 2015-01-22 | ストライカー・コーポレイション | ハウジングから延びる切断アクセサリ及びハウジングに対する切断アクセサリの位置を確立するアクチュエータを備える手術器具 |
US20130096574A1 (en) | 2011-10-18 | 2013-04-18 | Hyosig Kang | System and method for robotic surgery |
Also Published As
Publication number | Publication date |
---|---|
EP3846726A4 (en) | 2021-11-17 |
CN110876643B (zh) | 2021-12-24 |
US11612438B2 (en) | 2023-03-28 |
US20200069373A1 (en) | 2020-03-05 |
CN110876643A (zh) | 2020-03-13 |
JP2022500204A (ja) | 2022-01-04 |
WO2020048511A1 (en) | 2020-03-12 |
EP3846726A1 (en) | 2021-07-14 |
TWI693923B (zh) | 2020-05-21 |
TW202010477A (zh) | 2020-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7454863B2 (ja) | 医療手術のためのナビゲーションシステム及び方法 | |
JP7233841B2 (ja) | ロボット外科手術システムのロボットナビゲーション | |
US11813030B2 (en) | Robotic navigation of robotic surgical systems | |
US20210386494A1 (en) | Systems and methods for controlling a surgical instrument | |
KR102258511B1 (ko) | 로봇 수술 시스템용 그래픽 사용자 인터페이스 | |
US10888385B2 (en) | Calibration device and calibration method for surgical instrument | |
US11589939B2 (en) | Systems and methods for guided port placement selection | |
US11298186B2 (en) | Surgery assistive system and method for obtaining surface information thereof | |
US20210378750A1 (en) | Spatially-Aware Displays For Computer-Assisted Interventions | |
Šuligoj et al. | Medical applicability of a low-cost industrial robot arm guided with an optical tracking system | |
EP4203830A1 (en) | Control of an endoscope by a surgical robot | |
JP2021122743A (ja) | ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン | |
KR20220024055A (ko) | 추적 시스템 시야 위치설정 시스템 및 방법 | |
EP3811892A1 (en) | Calibration device and calibration method for surgical instrument | |
JP6901160B2 (ja) | 手術支援システムおよびその表面情報を取得する方法 | |
JP7154606B2 (ja) | 手術用器具の校正装置及び校正方法 | |
US20240099781A1 (en) | Neuromapping systems, methods, and devices | |
EP3811889A1 (en) | Surgery assistive system for obtaining surface information | |
WO2024076592A1 (en) | Increasing mobility of computer-assisted systems while maintaining a partially constrained field of view | |
CN114366299A (zh) | 用于确定器械的末端的球形表面部分的半径的技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220817 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7454863 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |