TWI693923B - 醫療手術導航方法及機器人系統 - Google Patents
醫療手術導航方法及機器人系統 Download PDFInfo
- Publication number
- TWI693923B TWI693923B TW108111088A TW108111088A TWI693923B TW I693923 B TWI693923 B TW I693923B TW 108111088 A TW108111088 A TW 108111088A TW 108111088 A TW108111088 A TW 108111088A TW I693923 B TWI693923 B TW I693923B
- Authority
- TW
- Taiwan
- Prior art keywords
- virtual
- robot system
- data
- navigation
- instrument
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/1662—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
- A61B17/1671—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the spine
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/304—Surgical robots including a freely orientable platform, e.g. so called 'Stewart platforms'
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0807—Indication means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/5025—Supports for surgical instruments, e.g. articulated arms with a counter-balancing mechanism
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/05—Surgical care
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Gynecology & Obstetrics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Manipulator (AREA)
Abstract
一種由機器人系統執行的醫療手術導航方法,包括以下步驟:通過機器人系統的處理器接收至少一組導航數據;通過所述處理器接收或生成所述虛擬對象的三維模型;通過所述處理器處理所述導航數據以生成一虛擬環境;S4,通過所述處理器處理所述導航數據及虛擬環境以生成至少一導航指令;及S5,通過電性連接至所述機器人系統的一使用者介面呈現所述虛擬環境及/或所述導航指令給使用者以給所述使用者提供手術參考。本發明還提供還提供一種機器人系統。
Description
本發明涉及機器人系統,尤其涉及電腦輔助的手術機器人系統中給使用者提供導航指令的方法。
一般醫療手術(例如,外科手術)均要求外科醫生進行高精度的手工操作。例如,外科整形手術就要求外科醫生在精確的位置以精確的角度通過打磨、鑽孔或鋸開骨頭的方式植入假體或重塑骨頭形狀。這種操作一般通過外科醫生徒手利用手術器械、依照體表解剖標誌軌跡進行。因此這類外科手術的準度依靠外科醫生的經驗、預定的手術計劃以及可用的手術器械來保證。
由於通訊技術與機器人技術的發展,電腦輔助外科手術的出現提升了醫療手術的準度與精度。例如,美國專利公開號20120143084揭露了一種控制外科器械定位的機器人系統。電腦輔助手術的方式有兩種,一種是當外科醫生移動手術器械超出預定的解剖區域時,利用機械臂阻止手術器械移動,對手術器械形成機械約束。另一種是利用機器人控制平臺連接手術器械的操作工具,以使操作工具移動以彌補外科醫生手動造成的誤差。
然而,雖然和傳統器械相比,具有自我調節功能的操作工具的外科器械理論上具有更好的操作靈活性,然而這些外科器械的機動性與精度仍不夠理想。一方面,在操作器械的過程中,外科醫生很難確定器械在手術位置點放置的較佳範圍。換句話說,由於不知道操作工具允許移動的空間範圍,或者不知道操作工具進行偏移糾正的範圍,外科醫生只能估算他/她可以在離手術位置多遠或多近放置手術器械。另一方面,由於不知道操作工具允許的或較佳的空間範圍的邊界,外科醫生就難以覺察到操作工具任何的無意識偏離。
因此,有必要提供一種導航系統,用於搭配具有自我調節操作工具的外科器械使用,以告知外科醫生外科器械的允許範圍。
本發明的一目的為提供一種可靠的導航系統,在醫療手術過程中根據器械的性能即時矯正操作工具的偏差及給外科醫生提供手術環境中高精度的空間位置資訊。
本發明另一個目的是提供一種直觀式導航系統,在手術過程中直觀顯示器械性能以即時矯正操作工具的偏差以及給外科醫生提供操作外科器械的清晰指導。
一種由機器人系統執行的醫療手術導航方法,包括以下步驟:S1,通過機器人系統的處理器接收至少一組導航數據,包括以下步驟:接收至少一組註冊數據,接收至少一組器械數據,接收至少一組空間感測數據,及接收至少一組醫療手術計劃數據,其中所述器械數據包括所述機器人系統的虛擬工作區或虛擬活動區,所述導航數據包括至少一虛擬對象;S2,通過所述處理器接收或生成所述虛擬對象的三維模型;S3,通過所述處理器處理所述導航數據以生成一虛擬環境;S4,通過所述處理器處理所述導航數據及虛擬環境以生成至少一導航指令;及S5,通過電性連接至所述機器人系統的一使用者介面呈現所述虛擬環境及/或所述導航指令給使用者以給所述使用者提供手術參考。
進一步地,步驟S1包括:S1-1,接收至少一組解剖數據。
進一步地,步驟S1-1包括:從一電性連接至所述機器人系統的內視鏡影像感測系統處接收至少一組內視鏡影像數據;及步驟S5包括:顯示內視鏡影像數據,所述內視鏡影像數據與所述虛擬環境中的虛擬解剖部位在空間與時間上具有一致性。
進一步地,所述虛擬活動區包括第一虛擬活動區和第二虛擬活動區,其中所述第一虛擬活動區、第二虛擬活動區具有不同的尺寸或形狀。
進一步地,其中所述機器人系統電性連接至一器械系統,所述器械系統具有一操作部或一作業部,所述第一虛擬活動區與啟動所述操作部或作業部的功能相關聯,所述第二虛擬活動區與停止所述操作部或作業部的功
能相關聯。
進一步地,步驟S4包括:確定所述虛擬環境中的至少兩個虛擬對象之間的空間關係。
進一步地,所述至少兩個虛擬對象中的第一個虛擬對象為虛擬器械數據中的虛擬工作區或虛擬活動區,所述至少兩個虛擬對象中的第二個虛擬對象是所述醫療手術計劃數據中的虛擬計劃對象。
進一步地,所述空間關係包括至少一補償率,所述補償率通過所述醫療手術計劃數據與所述虛擬工作區計算,或者通過所述醫療手術計劃數據與所述虛擬活動區計算。
進一步地,步驟S4包括:處理所述醫療手術計劃數據中的至少一虛擬計劃對象屬性來生成至少一導航指令。
進一步地,所述導航方法還包括以下步驟:生成至少一控制訊號以控制所述機器人系統的至少一功能。
進一步地,所述控制訊號包括第一控制訊號與第二控制訊號,所述第一控制訊號根據計算所述導航數據的第一計算結果生成,所述第二控制訊號根據計算所述導航數據的第二計算結果生成。
進一步地,步驟S5包括:在電性連接至所述處理器的顯示裝置上表現三維圖形;其中所述三維圖形包括虛擬環境及/或導航指令。
進一步地,所述表現中的一個視角與一電性連接至所述機器人系統的器械的方位對齊。
進一步地,步驟S5包括以下步驟:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述多個二維圖標代表一電性連接至所述機器人系統的器械的位置與方位、所述導航指令以及所述器械的有效方位範圍。
進一步地,所述導航指令通過指示燈或聲音裝置來呈現,其中所述指示燈或聲音裝置電性連接至所述機器人系統。
進一步地,所述導航指令通過一作業部的方位來呈現,其中所述作業部連接至一操作部,所述操作部電性連接至所述機器人系統。
進一步地,所述步驟S5包括:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述二維圖標呈現一作業進度條。
另一方面提供一種輔助手術操作的機器人系統,包括:使用者介面;及電性連接至所述使用者介面的電腦系統;其中,所述電腦系統包括非暫存性電腦可讀存儲媒介,所述非暫存性電腦可讀存儲媒介存儲一導航醫療手術的程式,所述電腦系統的至少一處理器運行所述程式來執行下述導航方法:S1,通過機器人系統的處理器接收至少一組導航數據,包括以下步驟:接收至少一組註冊數據,接收至少一組器械數據,接收至少一組空間感測數據,及接收至少一組醫療手術計劃數據,其中所述器械數據包括所述機器人系統的虛擬工作區或虛擬活動區,所述導航數據包括至少一虛擬對象;S2,通過所述處理器接收或生成所述虛擬對象的三維模型;S3,通過所述處理器處理所述導航數據以生成一虛擬環境;S4,通過所述處理器處理所述導航數據及虛擬環境以生成至少一導航指令;及S5,通過電性連接至所述機器人系統的一使用者介面呈現所述虛擬環境及/或所述導航指令給使用者以給所述使用者提供手術參考。
進一步地,步驟S1進一步包括:S1-1,接收至少一組解剖數據。
進一步地,步驟S1-1包括:從一電性連接至所述機器人系統的內視鏡影像感測系統處接收至少一組內視鏡影像數據;及步驟S5包括:顯示內視鏡影像數據,所述內視鏡影像數據與所述虛擬環境中的虛擬解剖部位在空間與時間上具有一致性。
進一步地,所述虛擬活動區包括第一虛擬活動區和第二虛擬活動區,其中所述第一虛擬活動區、第二虛擬活動區具有不同的尺寸或形狀。
進一步地,其中所述機器人系統電性連接至一器械系統,所述器械系統具有一操作部或一作業部,所述第一虛擬活動區與啟動所述操作部或作業部的功能相關聯,所述第二虛擬活動區與停止所述操作部或作業部的功能相關聯。
進一步地,步驟S4包括:確定所述虛擬環境中的至少兩個虛擬對象之間的空間關係。
進一步地,所述至少兩個虛擬對象中的第一個虛擬對象為虛擬器械數據中的虛擬工作區或虛擬活動區,所述至少兩個虛擬對象中的第二個虛擬對象是所述醫療手術計劃數據中的虛擬計劃對象。
進一步地,所述空間關係包括至少一補償率,所述補償率通過所述醫療手術計劃數據與所述虛擬工作區計算,或者通過所述手術計劃數據與所
述虛擬活動區計算。
進一步地,步驟S4包括:處理所述醫療手術計劃數據中的至少一虛擬計劃對象屬性來生成至少一導航指令。
進一步地,所述導航方法還包括以下步驟:生成至少一控制訊號以控制所述機器人系統的至少一功能。
進一步地,所述控制訊號包括第一控制訊號與第二控制訊號,所述第一控制訊號根據計算所述導航數據的第一計算結果生成,所述第二控制訊號根據計算所述導航數據的第二計算結果生成。
進一步地,步驟S5包括:在電性連接至所述處理器的顯示裝置上表現三維圖形;其中所述三維圖形包括虛擬環境及/或導航指令。
進一步地,所述表現中的一個視角與一電性連接至所述機器人系統的器械的方位對齊。
進一步地,步驟S5包括以下步驟:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述多個二維圖標代表一電性連接至所述機器人系統的器械的位置與方位、所述導航指令以及所述器械的有效方位範圍。
進一步地,所述導航指令通過指示燈或聲音裝置來呈現,其中所述指示燈或聲音裝置電性連接至所述機器人系統。
進一步地,所述導航指令通過一作業部的方位來呈現,其中所述作業部連接至一操作部,所述操作部電性連接至所述機器人系統。
進一步地,所述步驟S5包括:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述二維圖標呈現一作業進度條。
進一步地,所述機器人系統進一步包括一器械系統,所述器械系統包括一作業部以及連接至所述作業部的操作部,所述器械系統電性連接至所述電腦系統。
本發明的各種實施方式提供的機器人系統,利用與手持器械的操作部的工作區關聯的數據來提供導航指令。通過參考導航指令,使用者可獲知手持器械糾正作業部偏離預定手術計劃的能力。進一步地,導航指令還可告知使用者如何手動操作手持器械到一最優位置或方位以提高手持器械的糾偏能力。
1000:機器人系統
1100:器械系統
1500:空間感測系統
1800:電腦系統
1800:使用者介面
1910:醫學影像儀
1200:手持器械
1450:支撐臂
1250:作業部
1260:安裝基座
1210:操作部
1280:器械外殼
1265:作業適配部
1270:電機
1235:力感測器
1220:基座
1230:機器人控制平臺
1245a、1245b:接合部
1240:致動部
1246:萬向關節
1247:球關節
1282:控制模組
1284:操縱杆
1300:校準裝置
1400:套管針
1510:空間感測器
1550:空間標記框
1555:標記
1560:適配部
4100:微創影像感測系統
4110:內視鏡裝置
4120:內視鏡影像處理器
1710:處理器
3600:虛擬環境
3604:虛擬器械
2110:虛擬解剖部位
3601:虛擬醫療手術計劃
3603:虛擬工作區
1965:目標操作點
3701、1960:解剖部位
3602:導航指令
3000:導航方法
3105:導航數據
3113:解剖數據來源
1255:探頭
1310:作業引導部
1320:操作引導部
1330:充電模組
1340:基座
1475:假體
2275:器械數據
3173:註冊數據來源
3193:醫療手術計劃數據來源
2359:計劃對象屬性
3503:GUI應用
1813:顯示裝置
3501:表現
3505:圓環圖標
3507:圓點圖標
3509:圓餅圖標
3511:有效方位
S3100、S3300、S3500、S3110、S3130、S3150、S3170、S3190、S3310、S3330、S3350、S3370、S3331、S3333、S3335、S3390:步驟
以下結合附圖進一步闡述本發明的一或多個實施方式。附圖中相同或類似元件採用相同標號來標記。
圖1是本發明一實施方式中的機器人系統的方框圖。
圖2是本發明一實施方式中的機器人系統的示意圖。
圖3是本發明一實施方式的機器人系統的手持器械的立體示意圖。
圖4是本發明一實施方式中的機器人系統的手持器械的側視圖。
圖5是本發明一實施方式中的機器人系統的手持器械的操作部的側視圖。
圖6是本發明一實施方式中的機器人系統的手持器械的另一操作部的側視圖。
圖7是本發明一實施方式中的機器人系統的作業狀態的示意圖。
圖8是本發明一實施方式中的機器人系統的空間感測系統的作業狀態的示意圖。
圖9是本發明一實施方式中的機器人系統的作業狀態的示意圖。
圖10是本發明一實施方式中的機器人系統的導航方法的流程圖。
圖11是本發明一實施方式中的導航方法的接收導航數據步驟的示意性框圖。
圖12是本發明一實施方式中的導航方法的生成虛擬環境及導航指令步驟的示意性框圖。
圖13是本發明一實施方式中的導航方法的生成虛擬環境步驟的示意性框圖。
圖14是本發明一實施方式中的導航方法的呈現虛擬環境及導航指令步驟的示意圖。
圖15是本發明一實施方式中的機器人系統的使用者介面的示意圖。
圖16是本發明一實施方式中的機器人系統的使用者介面生成的二維圖標的示意圖。
圖17是本發明一實施方式中的機器人系統的使用者介面生成的二維圖標的另一示意圖。
如下具體實施方式將結合上述附圖進一步說明本發明。
下面將結合本發明實施例中的附圖,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒有做出創造性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的範圍。
需要說明的是,當元件被稱為“裝設於”另一個元件,它可以直接在另一個元件上或者也可以存在居中的元件。當一個元件被認為是“設置於”另一個元件,它可以是直接設置在另一個元件上或者可能同時存在居中元件。
除非另有定義,本文所使用的所有的技術和科學術語與屬於本發明的技術領域的技術人員通常理解的含義相同。本文中在本發明的說明書中所使用的術語只是為了描述具體的實施例的目的,不是旨在於限制本發明。本文所使用的術語“或/及”及“至少一”包括一個或多個相關的所列項目的任意的和所有的組合。本文在元件、零部件、區域及/或片段之前增加的第一、第二、第三或類似的表述僅是用於將一元件、零部件、區域及/或片段與另一元件、零部件、區域及/或片段進行區分,第一元件、零部件、區域及/或片段的表述也可以替換成例如第二元件、零部件、區域及/或片段或類似的表述。
本文所用術語“醫療手術”指的是為特定醫療目的施加於患者身上的一種程序或該程序的一部分。例如,一個醫療手術可以是一個電腦輔助外科手術,也可以是電腦輔助外科手術的其中一個註冊過程。
本文所用術語“虛擬對象”指的是存於存儲媒介中的一組電腦可讀數據。一個虛擬對象可為真實物體或空間概念的體現或模擬。
本文所用術語“對象屬性”指的是虛擬對象的至少一個屬性。換句話說,對象屬性指的是以數據檔案形式存於數據結構或存儲配置中的虛擬對象的內容。
本文所用術語“虛擬環境”指的是模擬或體現真實環境的一組數據。一虛擬環境包括至少一明確定義的坐標系統以及至少一個虛擬對象。虛擬對象在所述坐標系統中的空間屬性亦具有明確定義。
本文所用術語“空間屬性”指的是一物體的位置或方位。本文所用術語“空間位置關係”指的是兩物體之間的相對位置關係或相對方位關係。
本文對數據結構的範例性描述僅是用於解釋數據屬性。換句話說,用數據編碼的必要內容或對應的處理步驟採用範例進行描述。需說明的是,這種範例描述方式不應被解釋為將這些數據編碼的必要內容的數據結構、存儲方法、讀取方法、處理方法、測量方法及描述方法限制在這些範例上。同樣可以理解,這種範例描述方式也不應被解釋為限制對應處理常式、計算程式、測量程式或其他應用的程式設計方法或程式設計語言。
請參閱圖1與圖2所示,根據本發明的一實施方式,機器人系統1000用於手術前與手術中,包括手術硬體及與手術硬體配合的電子模組以及處理器可執行的指令。機器人系統1000包括一器械系統1100、一空間感測系統1500、一使用者介面1800、以及一電性連接至器械系統1100、空間感測系統1500及使用者介面1800的電腦系統1700。在本實施方式中,機器人系統1000允許使用者(如外科醫生)參考使用者介面1800上的內容,利用器械系統1100在一對象(如患者)上實施外科手術。至少一醫學影像儀1910與機器人系統1000通信,用於獲取醫學影像並將獲取的醫學影像提供給機器人系統1000。空間感測系統1500用於生成對象與環境的空間資訊。電腦系統1700用於根據醫學影像生成一虛擬解剖模型及根據該虛擬解剖模型生成手術計劃,及用於根據從空間感測系統1500感測的空間資訊追蹤手術環境,以及用於控制操作部1210的作動或作動狀態。使用者介面1800顯示該虛擬解剖模型並允許使用者根據手術計劃導航於手術部位。
如圖2所示,器械系統1100包括一用於實施手術的手持器械1200,器械系統1100還可包括一連接至手持器械1200的支撐臂1450,以減輕使用者手部承受的重量並可選地提升操作的穩定性。
請參閱圖3與圖4,根據一實施方式,手持器械1200包括一作業部1250、一安裝作業部1250的安裝基座1260、一操作部1210以及一器械外殼1280。作業部1250被配置成接觸或重塑對象身體部位的解剖表面。安裝基座1260連接作業部1250的一端以及操作部1210,以便作業部1250穩固地連接至操作部1210。操作部1210為受電腦系統1700控制的機械部件,電腦系統1700通過操縱操作部1210來操縱作業部1250的位置和方位。器
械外殼1280連接至操作部1210並容置操作部1210的至少一部分。器械外殼1280還提供一或多個操縱杆1284供使用者握持和操縱手持器械1200。
在本實施方式中,作業部1250可以為一探頭或一指示器,用於接觸或評估目標對象的解剖部位以及偵測解剖部位的結構或狀態。作業部1250也可為一鑽頭、銼刀、刮刀、鋸子、螺絲刀或其他通常用於外科手術中,通過鑽孔、打磨、切除或刮除等方式來修復或移除解剖部位的部分組織的工具。在一些實施例中,作業部1250為一機械、光學或超聲波探頭,用於實施表面配準。作業部1250可以是但不限於剛性探頭、壓力感測器、壓電感測器、彈性感測器、光學攝像頭、鐳射或超聲掃描器。
在本實施方式中,安裝基座1260連接至作業部1250以及操作部1210的機器人控制平臺1230的一第一側。安裝基座1260包括一作業適配部1265以及連接至作業適配部1265的電機1270。作業適配部1265可以為一夾具或其他固定結構用於固定作業部1250的一端,避免手術過程中作業部1250的偏移。電機1270可以是直流電機或交流電機,電機將電能轉換成機械能並輸出線性或旋轉作用力驅動作業部1250作動。在另一可選實施方式中,電機1270可以設置於手持器械1200的後端以減輕操作過程中操作部1210的承重、以及從人因工程的角度合理化手持器械1200的重量分佈。此外,如圖5與圖6所示,安裝基座1260可進一步包括一力感測器1235。力感測器1235連接於機器人控制平臺1230的第一側,用於感測作業部1250在手術過程中所承受的作用力或扭矩。在其他實施方式中,力感測器1235也可設置於探頭或作業部1250上;可選地,手持器械1200還可進一步包括另一設置於探頭或作業部1250上的力感測器(圖中未示),力感測器可以但不限於是應變儀、壓力感測器、壓力感測器、壓電感測器、導電活性聚合物或者光纖彎曲感測器。
在本實施方式中,作業部1210包括一基座1220,機器人控制平臺1230連接至安裝基座1260,多個接合部1245a、1245b安裝於機器人控制平臺1230遠離作業部1250的第二側以及基座1220面向機器人控制平臺1230的第一側。多個致動部1240連接至基座1220遠離機器人控制平臺1230的第二側。如圖4所示,基座1220可固定於器械外殼1280上或收容於器械外殼1280中。操作部1210可以為平行作業器,例如具有6個自由度的斯圖
爾特操縱器,以獲取更好的空間性能和操作性能。此外,操作部1210優選使用不銹鋼或碳化纖維材料製成,並被設置成特定的機械結構、以允許操作部1210能夠持久對抗作業部1250在手術過程中接觸目標對象時產生的作用力或扭矩。
在本實施方式中,操作部1210的接合部可以但不限於是轉動關節、滑動關節、球關節、萬向關節、筒關節或其任意組合,以獲得所需的自由度。如圖5與圖6所示,作業部1210具有一通用6自由度的斯圖爾特操縱器,操作部1210可包括萬向關節1246和球關節1247以使操作部1210具有寬廣的作動範圍以及多種作動狀態。操作部1210還可進一步包括多個作動連接部,每個作動連接部連接一個接合部1245a和一個接合部1245b,以使操作部1210具有更廣的作動範圍。
在本實施方式中,致動部1240連接至基座1220上與萬向關節1246和球關節1247位置相對的一側,用於根據電腦系統1700傳送的控制訊號,驅動萬向關節1246、球關節1247及作動連接部。在一可選實施方式中,致動部1240與接合部可以設置於基座1220的同一側,如圖6所示,致動器1240設置於基座1220與機器人控制平臺1230之間,每一致動部1240和萬向關節1246及球關節1247結合。每一致動部1240可以是具有較高精度與較強持久性的線性致動器。
繼續參閱圖3與圖4,在本實施方式中,除了收容操作部1210與提供操縱杆1284外,器械外殼1280可進一步包括一控制模組1282,以供使用者觸發、停止或調節作業部1250的作動或者執行手持器械1200的其他功能。
在本實施方式中,手持器械1200可搭配一校準裝置1300一起使用,校準裝置1300被配置成校準操作部1210的作動狀態以保證手持器械的幾何精度。
參閱圖7所示,手持器械1200可搭配一套管針1400一起使用,尤其是在微創外科手術中,為作業部1250提供接觸解剖部位的物理入口。在一可選實施方式中,套管針1400可卸式連接至機器人控制平臺1230以使套管針1400與作業部1250同時進入解剖部位。
參閱圖8所示,在一實施方式中,空間感測系統1500用於偵測並因此
追蹤至少一目標對象的空間資訊(例如位置、方位)。空間感測系統1500包括至少一可卸式固定至目標對象的空間標記框1550和具有至少一攝像頭的空間感測器1510。空間感測器1510用於接收從空間標記框1550傳送的訊號。
如圖7與圖8所示,目標對象可以是手持器械1200、套管針1400、或一選擇的解剖部位。在本實施方式中,空間標記框1550包括多個用於發射電磁訊號、聲波、熱能或其他可被感知的訊號的標記1555和一可卸式固定至目標對象的適配部1560。適配部1560用於夾持標記1555以使目標對象可被空間感測器1510追蹤。在另一實施方式中,空間感測系統1500可進一步包括一訊號產生器(圖中未示),訊號產生器設置於空間感測器1510或一預定位置。標記1555傳送的訊號可以是有源訊號或無源訊號;換句話說,標記1555發射的訊號可以是標記1555自行產生的訊號,或者,標記1555也可覆蓋反射性材料,用於反射訊號產生器產生的訊號至空間感測器1510。
在本實施方式中,機器人系統1000可進一步包括一微創影像感測系統4100。微創影像感測系統被配置成感測、處理以及輸出患者解剖部位1960的光學影像。微創影像感測系統4100可包括一內視鏡裝置4110,一內視鏡影像處理器4120以及其他附件,例如但不限於是內視鏡固定裝置、內視鏡引導裝置、及內視鏡位置偵測單元等。
微創影像感測系統4100點連接至處理器1710以進行數據交換。內視鏡裝置4110的位置和方位可被空間感測系統1500追蹤。
在一些實施方式中,內視鏡裝置4110可機械耦合至手持器械1200,以便內視鏡裝置4110的攝像角度平行於手持器械1200的縱軸(即操作部1210位於初始姿態或初始作動狀態時作業部1250的旋轉軸)。
參閱圖9所示,使用者介面1800也可用於呈現電腦生成的導航指令及/或電腦生成的虛擬環境3600給使用者(例如外科醫生),以便方便使用者操作手持器械1200。
虛擬環境3600包括一明確定義的坐標系統以及至少一虛擬對象。在一實施方式中,虛擬對象可以包括虛擬器械3604、虛擬解剖部位2110、虛擬醫療手術計劃3601以及手持器械1200的操作部1210的虛擬工作區3603。
在虛擬環境3600中,每一虛擬對象與坐標系統之間的空間關係被明確定義,以模擬真實外殼手術環境。空間感測系統1500被配置成提供真實對象的空間屬性給電腦系統1700。所述空間屬性可以是位置參數或方位參數。
通過參考呈現的導航指令及虛擬環境中虛擬對象之間的空間關係,使用者可以容易理解操作部1210狀態與虛擬對象的空間屬性之間的複雜關係。
如圖9所示,虛擬環境3600包括對應一目標操作點1965的虛擬醫療手術計劃3601。目標操作點1965受手持器械1200的作業部1250影響。通過參考虛擬工作區3603與虛擬醫療計劃3601之間的位置/方位,使用者可將手持器械1200置於作業部1250可接觸解剖部位3701的目標操作點1965的空間區域內。此外,使用者介面1800也可呈現一導航指令3602以提供使用者作動建議,如提供作業部1250作動的方位。
參考圖10所示,為根據本發明實施方式提供的輔助醫療手術的導航方法3000的流程圖。在本實施方式中,所述導航方法3000由機器人系統1000執行,包括以下步驟:S3100,從各種數據來源接收導航數據;S3300,生成虛擬環境3600與導航指令3602;以及S3500,在使用者介面1800上呈現虛擬環境3600與導航指令3602。所述導航方法3000允許使用者參考使用者介面1800上的虛擬環境3600與導航指令3602來利用器械系統1100實施醫療手術。
在一些實施方式中,導航方法3000可被重複多次實施。在其他實施方式中,步驟S3100、S3300、S3500的順序可以更改。例如,在一醫療手術(例如外科手術)中,為了提供即時的患者與手持器械1200的位置/方位給外科醫生,導航方法3600可通過重複執行步驟S3100、S3300、S3500來更新患者/手持器械1200的位置/方位。
在步驟S3100中,處理器1710從各種數據來源接收導航數據。導航數據可以包括各種虛擬對象,每一虛擬對象可包括一組對象屬性。例如,一組對象屬性可以包括標識、空間屬性或者輪廓形狀。
一虛擬對象的標識對應於虛擬對象代表的真實對象。例如,一包括手持器械1200標誌的虛擬對象就代表手持器械1200。虛擬對象的標誌也可對應於虛擬對象所代表的空間概念,所述空間概念可以用於生成電腦圖譜或
者用於計算空間關係。例如,一虛擬對象的標誌可對應手持器械1200的工作區。再如,一虛擬對象的標誌可對應手持器械1200的預定軌跡。
虛擬對象的空間屬性可包括虛擬對象的位置、方位或者尺寸等。對每一虛擬對象來說,空間屬性還可以是在其在參考坐標系統中的相對數值。
虛擬對象的形狀界定了虛擬對象的空間邊界。虛擬對象的形狀用於建立三維模型。虛擬對象的形狀可採用各種三維建模數據結構來構建,如點雲、線框模型、邊界表示、二元空間分割數或其他建模數據結構。
在一實施方式中,導航數據3105可以是相容醫學數位成像與通信標準或其他醫學影像標準的影像數據。在另一實施方式中,導航數據可以是代表一對象方位的向量數據、以矩陣形式提供的一組影像數據、或者代表對象位置和方位的四元數。
參考圖11所示,在一實施方式中,步驟S3100可進一步包括以下步驟:S3110,接收解剖數據;S3130,接收器械數據;S3150,接收空間感測器數據;S3170,接收註冊數據;以及S3190,接收醫療手術計劃數據。可以理解,上述步驟S3110、S3130、S3150、S3170、S3190並無特定順序,換句話說,這些步驟S3110、S3130、S3150、S3170、S3190可以分開執行、同時執行或者採用一種預設順序來執行。
在步驟S3110中,處理器1710從一解剖數據來源3113接收至少一組解剖數據。所述解剖數據來源3113可以是機器人系統1000的存儲單元、其他外面存儲裝置或其他外部處理裝置。解剖數據可以包括代表解剖部位3701(例如,患者脊柱)的虛擬對象。解剖數據中的虛擬對象可包括對象屬性,例如解剖部位3701的標誌、尺寸、形狀、機械特徵或者生理特徵等。其中,術語“虛擬解剖部位”指的是代表一解剖部位的一虛擬對象。虛擬解剖部位包括解剖部位的標誌。解剖數據可以是手術前產生或者手術中產生。例如,解剖數據可以是在手術前或手術中生成的解剖部位的醫學斷層影像,例如脊柱的電腦斷層影像、腦部的核磁共振影像或者肌肉部位的超聲影像。
在一實施方式中,解剖數據可包括內視鏡影像(即,由微創影像感測系統4100輸出的影像數據及/或視頻數據)。例如,解剖數據可以是由內視鏡裝置4110獲取的患者脊柱的視頻數據。
在步驟S3130中,處理器1710從器械數據來源3133接收至少一組器械數據。器械數據來源可以是機器人系統1000的存儲單元、其他外面存儲裝置或其他外部處理裝置。器械數據可包括至少一代表器械系統1100或器械系統1100內的元器件的虛擬對象,以下用術語“器械虛擬對象”來指代(即指代器械數據的虛擬對象)。一器械虛擬對象可包括對象屬性,例如器械系統1100的標誌、尺寸、形狀、機械特徵等。
如圖2-6所示,一器械虛擬對象的標誌可包括手持器械1200、操作部1210、基座1220、機器人控制平臺1230、致動部1240、接合部1245、作業部1250、探頭1255、安裝基座1260、作業適配部1265、電機1270、器械外殼1280、校準裝置1300、作業引導部1310、操作引導部1320、充電模組1330、校準裝置1300的基座1340、套管針1400、懸臂1450、空間感測器1510、空間標記框1550、假體1475以及內視鏡裝置4110。器械虛擬對象的標誌還可以是手持器械1200的操作部1210的工作區及手持器械1210的活動區。
在本發明中,術語“虛擬工作區”指代代表工作區的虛擬對象。手持器械1200的操作部1210的工作區為操作部1210的基座保持靜止狀態時,操作部1210的末端作業部位(例如作業部1250)的一組可到達的可及點。在一實施方式中,操作部1210的工作區為作業部1250的所有可及點(例如,鑽頭尖的可及點)。此外,操作部1210的工作區的形狀與尺寸也可因為操作部1210的自由度的數量不同而改變。例如,具有六個自由度的操作部的工作區可以是一三維空間。再如,只有一個自由度的操作部的工作區可能是一個點、或是一維的曲線或直線形狀。
一虛擬工作區可包括對應手持器械1200的一個工作區的對象屬性,例如,對象屬性可能包括代表一特定工作區的標誌、該特定工作區的形狀/尺寸、以及該特定工作區的空間屬性。
手持器械1200的操作部1210的活動區可以是工作區中的一個子集,換句話說,活動區可以是操作部1210的基座保持靜止時、操作部1210的末端作業部位所有可到達的可及點的一部分。在本發明中,術語“虛擬活動區”或者“虛擬工作區”指代的是代表一活動區的虛擬對象,虛擬活動區包括一對應活動區的標誌。
虛擬工作區(或虛擬活動區)可能與其他虛擬對象具有交集,虛擬工作區3603與其他虛擬對象之間的交集可由計算它們的空間關係來定義。基於虛擬工作區3603與其他虛擬對象之間的交集,處理器1710可以生成控制機器人系統1000的控制訊號。例如,手持器械1200的自動操作功能可能由一虛擬對象進入一虛擬工作區3603(或虛擬活動區)內來觸發。再如,將虛擬工作區3603(或虛擬活動區)不含有目標虛擬對象的情況定為不觸發手持器械1200的自動操作功能的一個條件。
器械虛擬對象的尺寸、形狀與機械特徵可對應於器械虛擬對象的標誌。例如,代表一特定器械的器械虛擬對象可包括該特定器械的尺寸特性和形狀特性。器械數據2275可包括一系列的電腦生成的操作部1210的設計圖。
在一實施方式中,活動區可由使用者來定義。在另一實施方式中,活動區包括一第一活動區和一第二活動區。第一活動區設定第一條件來觸發/啟動操作部1210的至少一個功能。第二活動區設定第二條件來停止操作部1210的至少一個功能。第一活動區與第二活動區的形狀可以相同或不同。
器械數據可被編碼並以各種文檔格式存儲。例如,器械虛擬對象可為包括形狀、尺寸或其他對象屬性的電腦輔助設計文檔。
再參閱圖11所示,在步驟S3150中,處理器1710從空間感測數據來源3153接收至少一組空間感測數據。空間感測數據來源3153可以是空間感測系統1500、機器人系統1000的存儲單元、其他外部存儲裝置或其他外部處理裝置。空間感測數據可包括代表空間標記框的虛擬對象。在本發明中,術語“虛擬空間標記框”指代代表一空間標記框的一虛擬對象。
虛擬空間標記框可包括例如標誌、形狀、尺寸及空間屬性等對象屬性。一虛擬空間感測器的標誌可以為至少一空間標記框。空間屬性可以為位置或方位。位置或方位可以由各種數據結構例如:一維陣列結構或二維陣列結構來表達。虛擬空間感測器的形狀代表空間標記框的形狀。因此,在一範例中,空間感測數據可以為代表一包括對象位置與方位的四元數之二維陣列。
在步驟S3170中,處理器1710從註冊數據來源3173接收註冊數據。註冊數據來源3173可以是機器人系統1000的存儲單元、其他外部存儲裝
置或其他外部處理裝置。註冊數據用於定義兩個不同的坐標系統的轉換關係。註冊數據可包括兩或多個不同坐標系統中的參考點的空間屬性。例如,通過定義一參考點於兩個不同坐標系統中的座標,可以得到兩坐標系統的轉換矩陣。通過引入註冊數據,一虛擬對象在一第一坐標系統中的空間屬性可以轉換至一第二坐標系統,以另一種形式來表示。
註冊數據可被配置成定義各種坐標系統的轉換關係。例如,註冊數據可定義一虛擬空間標記框的坐標系統和一虛擬器械的坐標系統之間的轉換關係。因此虛擬器械的空間屬性可被轉換成虛擬空間標記框的空間屬性。
在另一範例中,註冊數據可定義一虛擬解剖部位的坐標系統和一虛擬環境的坐標系統之間的轉換關係。因此,虛擬解剖部位的空間屬性可被轉換成虛擬環境的空間屬性。通過坐標系統轉換,虛擬解剖部位可與虛擬環境位於同一坐標系統,因此允許將虛擬解剖部位置於虛擬環境中。
在步驟S3190中,處理器1710從一醫療手術計劃數據來源3193接收至少一組醫療手術計劃數據。醫療手術計劃數據來源3193可以是機器人系統1000的存儲單元、其他外部存儲裝置或其他外部處理裝置。醫療手術計劃數據被配置為代表機器人系統1000實施的預定醫療手術計劃。醫療手術計劃數據可包括代表解剖部位與代表預定醫療手術的虛擬對象。醫療手術計劃數據的虛擬對象可包括標誌、空間屬性(如位置或方位)、形狀、尺寸或其他對象屬性。醫療手術計劃數據的虛擬對象的標誌可以是計劃對象、器械、解剖部位或其他標的物。
計劃對象是代表與手持器械1200或解剖部位1960具有預定交互作用的一種空間概念。計劃對象可包括一計劃對象邊界和一計劃對象屬性。計劃對象邊界為計劃對象的空間邊界。計劃對象屬性用於定義計劃對象與器械之間的交互特性。
醫療手術計劃可由機器人系統1000的電腦系統的計劃模組生成。計劃模組通過使用者給定計劃對象邊界與計劃對象屬性來生成醫療手術計劃以及以一組醫療手術計劃數據的形式輸出所述醫療手術計劃。
在本發明中,術語“虛擬計劃對象”指代代表計劃對象的虛擬對象。虛擬解剖部位包括解剖部位的標誌。虛擬計劃對象可包括各種對象屬性,例如標誌、空間屬性(例如位置或方位)、三維圖形屬性(例如形狀與尺寸)以
及虛擬計劃對象屬性。
虛擬計劃對象的標誌可以是使用者及/或機器人系統1000定義的計劃對象,例如,虛擬計劃對象的標誌可以是一脊柱手術中人為定義的鑽孔軌跡,再如,虛擬計劃對象的標誌可以是生成註冊數據的註冊過程中,由電腦生成的採樣路徑。
虛擬計劃對象的空間屬性(例如位置及/或方位)可由使用者定義。通常,虛擬計劃對象的位置/方位跟虛擬解剖部位具有固定的空間關係。例如,在一虛擬解剖部位與一虛擬計劃軌跡之間可存在一轉換矩陣來表示他們之間的空間關係。
虛擬計劃對象的形狀可包括虛擬計劃對象邊界,虛擬計劃對象邊界用於定義虛擬計劃對象的空間範圍。虛擬計劃對象邊界可以是各種幾何空間系統中的邊界。例如,虛擬計劃對象邊界可以是一維空間中的點、二維空間中的閉合曲線、或者三維空間中的閉合曲面。虛擬計劃對象邊界可以構成各種形狀,例如,虛擬計劃對象邊界可為閉合的球形曲面或者任意形狀的曲面。
虛擬計劃對象屬性用於定義至少被一虛擬計劃對象邊界包圍的一區域的特徵。該特徵可從一列的計劃對象屬性中選取。所述一列計劃對象屬性包括手持器械1200與解剖部位之間的相互作用,例如鑽、磨、切、註冊取樣等。例如,一計劃對象屬性可在計劃對象邊界內定義一曲線區域作為鑽孔軌跡。所述一列計劃對象屬性還可包括一特徵用於指示某一器械不能出現在某一區域或指示不能受作業部1250影響的被限區域。在上述範例中,虛擬計劃對象屬性可定義虛擬計劃對象邊界內的某部分為不瘦作業部1250影響的被限區域。此外,所述一列計劃對象屬性還可包括一組代表作業部1250有效作動方向的向量數據。
所述一列計劃對象屬性可進一步包括用於指示機器人系統1000的某一功能應啟動或停止的特徵。例如,一計劃對象屬性2359可定義計劃對象邊界內的每一部分為器械自動作動的區域。所述自動作動區域指的是在該區域操作部1210可能自動控制作業部1250的位置和方位。
參考圖12所示,在一實施方式中,生成虛擬環境和導航指令的步驟S3300可包括:S3310,準備一三維模型;S3330,生成虛擬環境;S3350,
確定一虛擬工作區或一虛擬活動區的空間關係;S3370,生成導航指令。可以理解,步驟S3310、S3330、S3350、S3370的執行並未有特定順序。換句話說,這些步驟S3310、S3330、S3350、S3370可以分開執行、同時執行或者採用一種預設順序來執行。
在步驟S3310中,獲取至少一虛擬對象及其形狀。例如,機器人系統1000可執行一三維電腦圖形處理來定義至少一虛擬對象的形狀。再如,機器人系統1000可通過使用者輸入或從導航數據中載入具有明確形狀的虛擬對象。
在一實施方式中,機器人系統1000執行一三維電腦圖形處理來定義至少一虛擬解剖部位的形狀。三維電腦圖形處理可包括層析重建和分割。在層析重建中,機器人系統1000利用一組解剖影像來生成三維模型。所述一組解剖影像可以是一組CT切片。在另一方面,在層析分割中,機器人系統1000可將一解剖的三維模型根據生理資訊分成至少兩部分。例如,在一虛擬解剖部位中,脊柱可被分為多個虛擬椎骨。
在另一實施方式中,機器人系統1000可執行一三維電腦圖形處理程序以定義一虛擬解剖部位的一部分形狀。例如,三維網格模型可僅定義一虛擬解剖部位的一組特定邊界。所述一組特定邊界包括虛擬解剖部位的外表面或由使用者或機器人系統1000指定的任意邊界。再如,三維網格模型可僅定義一簡單模型來代表一虛擬對象的空間屬性,如用箭頭圖標來代表虛擬對象的方位。
請參閱圖13所示,在一實施方式中,機器人系統1000在步驟S3330中生成一虛擬環境來代表醫療手術環境。步驟S3330可包括:S3331,明確定義一坐標系統;S3333,註冊虛擬對象;及S3335,更新虛擬對象的空間屬性。可以理解,步驟S3331、S3333、S3335的執行並未有特定順序。換句話說,這些步驟S3331、S3333、S3335可以分開執行、同時執行或者採用一種預設順序來執行。
在步驟S3331中,機器人系統1000可通過明確定義一坐標系統3332來生成一虛擬空間。在該虛擬空間中,原點與坐標軸/座標的單位均具有明確定義。例如,該坐標系統可以由空間感測系統1500的感測坐標系統來定義。例如,坐標系統的原點可由位於解剖部位的空間標記框的位置來定義。
在步驟S3333中,機器人系統1000可定義虛擬對象與虛擬空間之間的空間關係。換句話說,機器人系統1000明確定義了至少一虛擬對象在虛擬空間的坐標系統中的空間屬性。例如,基於一組註冊數據,機器人系統1000可定義虛擬解剖部位2110和虛擬器械3604在虛擬空間中的位置。再如,機器人系統1000根據對應的註冊數據,可定義一內視鏡影像數據的位置和方位。通過將內視鏡影像數據註冊進虛擬環境,內視鏡影像數據中的影像/視頻可顯示於虛擬解剖部位上,以使內視鏡影像數據與虛擬環境中的虛擬解剖部位在空間上和時間上具有一致性。
步驟S3335中,機器人系統1000可通過更新空間感測數據自動修改虛擬空間中每一虛擬對象的空間屬性。例如,在醫療手術過程中,虛擬解剖部位2110和虛擬器械3604的位置/方位可能會變化,因此機器人系統1000可持續接收空間感測數據並更新虛擬對象的位置/方位。因而虛擬空間中的虛擬對象可動態模仿真實手術環境。
請再參閱圖12所示,在步驟S3350中,機器人系統1000根據步驟S3330中生成的虛擬環境3600確定虛擬對象的空間關係。空間關係基於計算虛擬對象的對象屬性來確定。例如,為確定虛擬手術對象和虛擬活動區的空間關係,可計算例如空間屬性(例如位置或方位)、形狀、以及虛擬計劃對象邊界等對象屬性。在該範例中,機器人系統1000可確定虛擬計劃對象是否與虛擬活動區重疊。此外,既然虛擬環境3600是動態變化的,步驟S3350中確定的空間關係亦根據虛擬環境3600中虛擬對象動態改變的對象屬性來動態更新。
在一些實施方式中,空間關係可用數字確定。例如,機器人系統1000可獲取手持器械1200的補償率。補償率是一些獨立變數的一個參數,獨立變數包括對應手持器械1200的虛擬器械的空間屬性(如位置和方位)、手持器械1200的虛擬工作區或虛擬活動區的形狀(或空間邊界)、至少一虛擬計劃對象的空間屬性、以及至少一虛擬計劃對象的形狀。補償率的值代表根據手持器械1200目前的空間屬性,操作部1250操作作業部糾正偏離預定醫療手術計劃的能力。
例如,當虛擬器械3604的位置及/或方位不在某一區域內,即虛擬器械3604的虛擬工作區未覆蓋虛擬計劃目標,補償率的值可以設為最小,如按
0-10分級時為0,以禁止手持器械1200根據預定醫療手術計劃利用操作部1210作動作業部1500。再如,當虛擬器械3604的位置及/或方位在某一區域內,此時虛擬器械3604的虛擬工作區覆蓋虛擬計劃目標,補償率的值可以設為最大,如按0-10分級時為10,以允許手持器械1200根據預定醫療手術計劃有效利用操作部1210作動作業部1500。
參考圖12所示,在步驟S3370中,機器人系統1000生成導航指令3602及/或輸出導航指令3602。導航指令3602可通過使用者介面1800呈現給使用者。
在步驟S3370中,機器人系統1000生成至少一個導航指令3602並將導航指令呈現給使用者。導航指令3602是根據步驟S3350中確定的空間關係生成的對手動操作手持器械1200的建議。例如,在步驟S3370中,機器人系統1000可生成一導航指令3602以建議使用者手動移動手持器械1200至一特定位置或繼續保持手持器械1200在一特定方位範圍內。
在一些實施方式中,使用者可先觀察空間關係並採取對應的操作。例如,在一醫療手術中,一導航指令指出手持器械1200的工作區沒在目標解剖部位,使用者收到該導航指令後,可相應手動調節手持器械1200的位置/方位。再如,在一醫療手術中,使用者收到一基於手持器械1200當前位置/方位的補償率,便可知曉根據醫療計劃手持器械1200在當前位置/方位的補償能力;因此,使用者便可相應手動調節手持器械1200的位置/方位。
在一些實施方式中,機器人系統1000根據虛擬環境中虛擬對象之間的位置關係或方位關係生成導航指令3602。例如,導航指令可告知使用者變更手持器械1200的位置/方位。再如,機器人系統1000可根據虛擬計劃對象中的虛擬計劃屬性以及根據虛擬器械和虛擬計劃對象之間的位置關係生成導航指令3602。
在一些實施方式中,機器人系統1000可生成一導航指令告知使用者機器人系統1000處於安全狀態,所述的安全狀態是指機器人系統1000遵循預定手術計劃在運行的狀態。例如,安全狀態是指手持器械1200不在超出計劃範圍的位置。
在一些實施方式中,機器人系統1000可生成一導航指令告知使用者機器人系統1000處於不安全狀態,所述的不安全狀態是指機器人系統1000
未遵循預定手術計劃在運行的狀態。例如,不安全狀態是指手持器械1200於超出計劃範圍的位置。
在一些實施方式中,步驟S3300可進一步包括一步驟:S3390,生成控制訊號(未顯示於圖中)。在步驟S3390中,機器人系統1000可根據步驟S3350中確定的至少一個空間關係生成至少一控制指令。例如,根據步驟S3350中確定的空間關係,機器人系統1000可生成一控制訊號,以啟動或停止手持器械1200的至少一功能。
在步驟S3500中,虛擬環境及/或導航指令經由使用者介面1800呈現給使用者。呈現方式可以是視覺、聲音或其他方式。
參考圖14所示,根據本發明的一個實施方式,步驟S3500包括以下步驟:S3510,表現虛擬環境3600及/或導航指令3602。在本實施方式中,虛擬環境3600以及導航指令3602通過視覺顯示方式呈現。其中虛擬環境3600通過三維圖像表現和顯示。步驟S3510中生成的產生3501可顯示於一顯示裝置1813上。
在步驟S3510中,處理器1710從一特定視覺點生成虛擬環境的影像。例如,通常,位於特定位置的虛擬攝像頭用於擷取虛擬環境。由虛擬攝像頭擷取的影像或視頻顯示於一顯示裝置上。而由表現過程生成的影像即稱之為表現3501。
步驟S3501涉及的表現過程為三維電腦圖形領域的技術人員所熟知。電腦圖形流水線中經常涉及表現過程。應用程式設計介面(API),例如視覺化工具包(VTK)系統、Direct3D系統、或者OpenGL系統統一了各種三維圖形處理硬體的圖形流水線的步驟。因此在顯示裝置1813上顯示圖像的佈局,可執行一圖形流水線。其中顯示裝置1813可以是電視機、電腦監視器、面板或頭戴式顯示器。
在一些實施方式中,通過表現過程生成的表現可與圖形使用者介面(GUI)應用3503整合。機器人系統1000的GUI應用3503可包括顯示三維表現的區域。另一些區域可提供其他功能,例如顯示術前解剖影像、操作部控制的功能或其他功能。
在一些實施方式中,除了表現,機器人系統1000的GUI應用可利用導航數據、虛擬環境3600以及導航方法3000生成的導航指令3601生成圖形。
請參閱圖14所示,圖14顯示了一種實施方式中顯示於顯示裝置1813的GUI應用1815的範例。GUI應用1815包括虛擬環境表現3501。表現3501包括虛擬解剖部位2110以及虛擬計劃對象3603。在本實施方式中,表現通過採用與手持器械1200方位平行的視角來進行。
在本實施方式中,GUI應用1815亦顯示一組GUI應用1815生成的二維圖標。該組二維圖標與表現3501交疊。該組二維圖標可包括圓環圖標3505、圓點圖標3507、以及圓餅圖標3509。圓環圖標3505的位置代表對應器械在真實環境中的活動區的位置。圓點圖標3507的位置代表手持器械1200的作業部1250的末端的位置。
在本實施方式中,GUI應用1815可顯示導航指令3602以提供手持器械1200作動方向的建議。導航指令3602可以是三維模型表現或二維圖標。
在本實施方式中,圓餅圖標3509可相對圓環圖標3505移動。圓餅圖標3509相對圓環圖標3505的位置代表手持器械1200的方位。如圖15、圖16及圖17所示,手持器械1200的方位可從手持器械1200的空間感測數據中獲得,然後通過採用圓餅圖標3509與圓環圖標3505之間的相對位置來呈現。在圖15中,手持器械沿平行z軸方向放置,因此圓餅圖標3509位於圓環圖標3505的中心位置。在圖16中,手持器械1200位於x軸且與z軸成一定角度,因此圓餅圖標3509在x軸方向偏離圓環圖標3505的中心位置。在圖17中,手持器械1200位於x軸且與z軸成一定角度,且該角度超出了有效方位3511的預定範圍。在一些實施方式中,手持器械1200有效方位3511的預定範圍可由虛擬計劃對象中的虛擬計劃對象屬性或者器械數據來界定,以代表一醫療手術中、例如在脊椎上鑽孔的手術中手持器械1200的允許角度範圍。在另一些實施方式中,不管虛擬器械3604與虛擬計劃對象之間的相對位置,手持器械1200有效方位3511的預定範圍可根據虛擬器械3604的方位、設定為虛擬工作區或者虛擬活動區是否完全覆蓋虛擬計劃對象的一個範圍。當手持器械1200的方位超出有效方位3511的預定範圍時,圓餅圖標3509的顏色可變換以知會使用者。
在其他一些實施方式中,虛擬環境或二維圖標可充當醫療手術的作業進度條。例如,可根據一預定的鑽孔手術路線中,手持器械1200工作區/活動區距離終點位置的百分比生成進度條。通過參考作業進度條,使用者
可感知在手持器械當前位置/方位上手術能否完成,或者是否需手動移動手持器械1200到一更優位置以完成預定手術。
在一些實施方式中,作業進度條可為在圓環圖標3505圓周方位上疊加的顏色進度條。在另一些方式中,作業進度條可顯示為三維模型表現。
根據本發明的一個實施方式,呈現虛擬環境和導航指令的步驟S3500可進一步包括以下步驟:顯示內視鏡影像數據。內視鏡影像數據可顯示於虛擬環境中的虛擬內視鏡顯示平面上。或者,內視鏡影像數據可顯示在通過GUI方式疊加於虛擬環境上的區域內。既然內視鏡影像數據是由內視鏡裝置4110在一特定攝像角度獲取的數據,使用者介面可提供一控制台以允許使用者操作虛擬環境的視角。使用者可由此觀察疊加在虛擬環境上的內視鏡影像數據。換句話說,內視鏡影像數據跟虛擬環境中的虛擬解剖部位在空間上和時間上具有一致性。
根據本發明一個實施方式中的導航方法3000,呈現虛擬環境和導航指令的步驟S3500可進一步包括以下步驟:S3520,用另一種呈現方式呈現虛擬環境和導航指令。
在一實施方式中,機器人系統1000可用操作部1210來指示朝向一個特定目標的方位,以便使用者可參考指示方位來移動手持器械1200。在另一實施方式中,機器人系統1000可包括一指示燈。指示燈可包括至少一組指示元件用於指示特定方位,以便使用者參考指示的方位來移動手持器械1200。例如,指示燈可為一列LED。在再一實施方式中,機器人系統1000可通過聲音模組發出聲音訊號來知會使用者導航指令。例如,機器人系統1000可通過提示音來提供導航指令。
綜上所述,根據本發明的各種實施方式,機器人系統1000利用與手持器械1200的操作部1210的工作區關聯的數據來提供導航指令3602。通過參考導航指令3602,使用者可獲知手持器械1200糾正作業部1250偏離預定手術計劃的能力。進一步地,導航指令還可告知使用者如何手動操作手持器械到一最優位置或方位以提高手持器械1200的糾偏能力。
最後應說明的是,以上實施例僅用以說明本發明的技術方案而非限制,儘管參照較佳實施例對本發明進行了詳細說明,本領域的普通技術人員應當理解,可以對本發明的技術方案進行修改或等同替換,而不脫離本
發明技術方案的精神和範圍。
以上該僅為本發明的較佳實施例而已,並不用以限制本發明,凡在本發明的精神和原则之內所作的任何修改、等同替換和改進等,均應包含在本發明的保護範圍之內。
1000:機器人系統
1100:器械系統
1500:空間感測系統
1800:電腦系統
1800:使用者介面
1910:醫學影像儀
Claims (29)
- 一種由機器人系統執行的醫療手術導航方法,包括以下步驟:S1,通過機器人系統的處理器接收至少一組導航數據,包括以下步驟:接收至少一組註冊數據,接收至少一組器械數據,接收至少一組空間感測數據,及接收至少一組醫療手術計劃數據,其中所述器械數據包括所述機器人系統的虛擬工作區或虛擬活動區,所述虛擬工作區包括一器械系統所對應的一手持器械的一個工作區的對象屬性,所述手持器械包括一操作部和一作業部,所述導航數據包括至少一虛擬對象;S2,通過所述處理器接收或生成所述虛擬對象的三維模型;S3,通過所述處理器處理所述導航數據以生成一虛擬環境;S4,通過所述處理器處理所述導航數據及虛擬環境以生成至少一導航指令,確定所述虛擬環境中的至少兩個虛擬對象之間的空間關係,所述至少兩個虛擬對象中的第一個虛擬對象為虛擬器械數據中的虛擬工作區或虛擬活動區,所述至少兩個虛擬對象中的第二個虛擬對象是所述醫療手術計劃數據中的虛擬計劃對象,所述空間關係包括一補償率,而根據所述手持器械的虛擬工作區對於一虛擬計劃目標的覆蓋程度設定所述補償率的值的大小,以根據所述補償率的值控制所述手持器械根據一預定醫療手術計劃利用所述操作部作動所述作業部的作動程度;及S5,通過電性連接至所述機器人系統的一使用者介面呈現所述虛擬環境及/或所述導航指令給使用者以給所述使用者提供手術參考,所述機器人系統係獲取有所述手持器械的所述補償率。
- 根據申請專利範圍第1項所述的導航方法,其中,步驟S1包括:S1-1,接收至少一組解剖數據。
- 根據申請專利範圍第2項所述的導航方法,其中,步驟S1-1包括:從一電性連接至所述機器人系統的內視鏡影像感測系統處接收至少一組內視鏡影像數據;及步驟S5包括:顯示內視鏡影像數據,所述內視鏡影像數據與所述虛擬環境中的虛擬解剖部位在空間與時間上具有一致性。
- 根據申請專利範圍第1項所述的導航方法,其中,所述機器人系統的虛擬活動區包括第一虛擬活動區和第二虛擬活動區,其中所述第一虛擬活動區、第二虛擬活動區具有不同的尺寸或形狀。
- 根據申請專利範圍第4項所述的導航方法,其中,所述機器人系統電性連接至所述器械系統,所述第一虛擬活動區與啟動所述操作部或作業部的功能相關聯,所述第二虛擬活動區與停止所述操作部或作業部的功能相關聯。
- 根據申請專利範圍第1項所述的導航方法,其中,步驟S4更包括:處理所述醫療手術計劃數據中的所述虛擬計劃對象屬性來生成至少一導航指令。
- 根據申請專利範圍第1項所述的導航方法,其中,還包括以下步驟:生成至少一控制訊號以控制所述機器人系統的至少一功能。
- 根據申請專利範圍第7項所述的導航方法,其中,所述控制訊號根據所述空間關係生成,以啟動或停止所述手持器械的至少一功能。
- 根據申請專利範圍第1項所述的導航方法,其中,步驟S5更包括:在電性連接至所述處理器的顯示裝置上表現三維圖形;其中所述三維圖形包括虛擬環境及/或導航指令。
- 根據申請專利範圍第9項所述的導航方法,其中,所述表現中的一個視角與一電性連接至所述機器人系統的所述手持器械的方位對齊。
- 根據申請專利範圍第1項所述的導航方法,其中,步驟S5更包括以下步驟:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述多個二維圖標代表一電性連接至所述機器人系統的所述手持器械的位置與方位、所述導航指令以及所述手持器械的有效方位範圍。
- 根據申請專利範圍第1項所述的導航方法,其中,所述導航指令通過指示燈或聲音裝置來呈現,其中所述指示燈或聲音裝置電性連接至所述機器人系統。
- 根據申請專利範圍第1項所述的導航方法,其中,所述導航指令通過所述作業部的方位來呈現,其中所述作業部連接至所述操作部,所述操作部電性連接至所述機器人系統。
- 根據申請專利範圍第1項所述的導航方法,其中,所述步驟S5更包括:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述二維圖標呈現一作業進度條。
- 一種輔助手術操作的機器人系統,包括:使用者介面;及電性連接至所述使用者介面的電腦系統;一器械系統,包括和所述器械系統對應的一手持器械,所述手持器械包括一操作部和一作業部;其中,所述電腦系統包括非暫存性電腦可讀存儲媒介,所述非暫存性電腦可讀存儲媒介存儲一導航醫療手術的程式,所述電腦系統的至少一處理器運行所述程式來執行下述導航方法:S1,通過機器人系統的處理器接收至少一組導航數據,包括以下步驟:接收至少一組註冊數據,接收至少一組器械數據,接收至少一組空間感測數據,及接收至少一組醫療手術計劃數據,其中所述器械數據包括所述機器人系統的虛擬工作區或虛擬活動區,所述虛擬工作區包括所述手持器械的一個工作區的對象屬性,所述導航數據包括至少一虛擬對象;S2,通過所述處理器接收或生成所述虛擬對象的三維模型;S3,通過所述處理器處理所述導航數據以生成一虛擬環境;S4,通過所述處理器處理所述導航數據及虛擬環境以生成至少一導航指令,確定所述虛擬環境中的至少兩個虛擬對象之間的空間關係,所述至少兩個虛擬對象中的第一個虛擬對象為虛擬器械數據中的虛擬工作區或虛擬活動區,所述至少兩個虛擬對象中的第二個虛擬對象是所述醫療手術計劃數據中的虛擬計劃對象,所述空間關係包括一補償率,而根據所述手持器械的虛擬工作區對於一虛擬計劃目標的覆蓋程度設定所述補償率的值的大小,以根據所述補償率的值控制所述手持器械根據一預定醫療手術計劃利用所述操作部作動所述作業部的作動程度;及S5,通過電性連接至所述機器人系統的一使用者介面呈現所述虛擬環境及/或所述導航指令給使用者以給所述使用者提供手術參考,所述機器人系統係獲取有所述手持器械的所述補償率。
- 根據申請專利範圍第15項所述的機器人系統,其中,步驟S1進一步包括:S1-1,接收至少一組解剖數據。
- 根據申請專利範圍第16項所述的機器人系統,其中,步驟S1-1包括:從一電性連接至所述機器人系統的內視鏡影像感測系統處接收至少一組內 視鏡影像數據;及步驟S5包括:顯示內視鏡影像數據,所述內視鏡影像數據與所述虛擬環境中的虛擬解剖部位在空間與時間上具有一致性。
- 根據申請專利範圍第15項所述的機器人系統,其中,所述機器人系統的虛擬活動區包括第一虛擬活動區和第二虛擬活動區,其中所述第一虛擬活動區、第二虛擬活動區具有不同的尺寸或形狀。
- 根據申請專利範圍第18項所述的機器人系統,所述第一虛擬活動區與啟動所述操作部或作業部的功能相關聯,所述第二虛擬活動區與停止所述操作部或作業部的功能相關聯。
- 根據申請專利範圍第15項所述的機器人系統,其中,步驟S4更包括:處理所述醫療手術計劃數據中的所述虛擬計劃對象屬性來生成至少一導航指令。
- 根據申請專利範圍第15項所述的機器人系統,其中,所述導航方法還包括以下步驟:生成至少一控制訊號以控制所述機器人系統的至少一功能。
- 根據申請專利範圍第21項所述的機器人系統,其中,所述控制訊號根據所述空間關係生成,以啟動或停止所述手持器械的至少一功能。
- 根據申請專利範圍第15項所述的機器人系統,其中,步驟S5更包括:在電性連接至所述處理器的顯示裝置上表現三維圖形;其中所述三維圖形包括虛擬環境及/或導航指令。
- 根據申請專利範圍第23項所述的機器人系統,其中,所述表現中的一個視角與一電性連接至所述機器人系統的所述手持器械的方位對齊。
- 根據申請專利範圍第15項所述的機器人系統,其中,步驟S5更包括以下步驟:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述多個二維圖標代表一電性連接至所述機器人系統的所述手持器械的位置與方位、所述導航指令以及所述手持器械的有效方位範圍。
- 根據申請專利範圍第15項所述的機器人系統,其中,所述導航指令通過指示燈或聲音裝置來呈現,其中所述指示燈或聲音裝置電性連接至所述機器人系統。
- 根據申請專利範圍第15項所述的機器人系統,其中,所述導航指令通過所述作業部的方位來呈現,其中所述作業部連接至所述操作部,所述操 作部電性連接至所述機器人系統。
- 根據申請專利範圍第15項所述的機器人系統,其中,所述步驟S5包括:根據所述導航數據與所述虛擬環境,通過一圖形使用者介面應用生成及顯示多個二維圖標,其中所述二維圖標呈現一作業進度條。
- 根據申請專利範圍第15項所述的機器人系統,其中,所述器械系統電性連接至所述電腦系統。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/122861 | 2018-09-05 | ||
US16/122,861 US11612438B2 (en) | 2018-09-05 | 2018-09-05 | Navigation system and method for medical operation by a robotic system using a tool |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202010477A TW202010477A (zh) | 2020-03-16 |
TWI693923B true TWI693923B (zh) | 2020-05-21 |
Family
ID=69639484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108111088A TWI693923B (zh) | 2018-09-05 | 2019-03-28 | 醫療手術導航方法及機器人系統 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11612438B2 (zh) |
EP (1) | EP3846726A4 (zh) |
JP (1) | JP7454863B2 (zh) |
CN (1) | CN110876643B (zh) |
TW (1) | TWI693923B (zh) |
WO (1) | WO2020048511A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3067299A1 (en) | 2011-09-02 | 2013-03-07 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
US11209954B2 (en) * | 2015-12-10 | 2021-12-28 | Cmr Surgical Limited | Surgical robotic system using dynamically generated icons to represent orientations of instruments |
EP3328308B1 (en) * | 2016-09-27 | 2019-05-29 | Brainlab AG | Efficient positioning of a mechatronic arm |
KR102274167B1 (ko) * | 2019-09-05 | 2021-07-12 | 큐렉소 주식회사 | 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템 |
EP4044951A4 (en) * | 2019-10-18 | 2023-11-15 | Alphatec Spine, Inc. | SURGICAL NAVIGATION SYSTEM |
JP7439603B2 (ja) | 2020-03-23 | 2024-02-28 | Toppanホールディングス株式会社 | 可視化装置、可視化方法、およびプログラム |
TWI727725B (zh) * | 2020-03-27 | 2021-05-11 | 台灣骨王生技股份有限公司 | 手術導航系統及其成像方法 |
TWI808336B (zh) * | 2020-07-30 | 2023-07-11 | 杰悉科技股份有限公司 | 影像顯示方法與影像監控系統 |
CN112826458B (zh) * | 2021-01-08 | 2022-11-01 | 广州中医药大学(广州中医药研究院) | 脉诊系统和脉诊方法 |
WO2022172697A1 (ja) * | 2021-02-12 | 2022-08-18 | オリンパス株式会社 | マニピュレータシステムおよびマニピュレータの制御装置 |
EP4088681A1 (en) * | 2021-05-11 | 2022-11-16 | DePuy Ireland Unlimited Company | System for guiding a surgical tool comprising an operative axis with respect to an anatomical structure |
WO2023052881A1 (en) * | 2021-09-28 | 2023-04-06 | Auris Health, Inc. | Real-time 3d robotic status |
WO2023060198A1 (en) * | 2021-10-08 | 2023-04-13 | Intuitive Surgical Operations, Inc. | Medical instrument guidance systems, including guidance systems for percutaneous nephrolithotomy procedures, and associated devices and methods |
US20230149082A1 (en) * | 2021-11-16 | 2023-05-18 | Mazor Robotics Ltd. | Systems, methods, and devices for performing a surgical procedure using a virtual guide |
CN115227463B (zh) * | 2022-07-22 | 2023-04-07 | 北京长木谷医疗科技有限公司 | 手术器械的磨锉装置、手术器械及手术机器人 |
CN116919596B (zh) * | 2023-09-14 | 2024-01-09 | 武汉联影智融医疗科技有限公司 | 器械导航方法、系统、装置、设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201336469A (zh) * | 2012-03-03 | 2013-09-16 | Univ China Medical | 手術影像導引定位裝置及其系統 |
TW201717837A (zh) * | 2015-10-14 | 2017-06-01 | 外科劇院有限責任公司 | 強化實境之外科導航 |
TWI618036B (zh) * | 2017-01-13 | 2018-03-11 | China Medical University | 以斷層影像為基礎之手術探針導航模擬方法及其系統 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8004229B2 (en) * | 2005-05-19 | 2011-08-23 | Intuitive Surgical Operations, Inc. | Software center and highly configurable robotic systems for surgery and other uses |
US7831292B2 (en) | 2002-03-06 | 2010-11-09 | Mako Surgical Corp. | Guidance system and method for surgical procedures with improved feedback |
CA2826925C (en) | 2005-02-22 | 2017-01-24 | Mako Surgical Corp. | Haptic guidance system and method |
US8073528B2 (en) * | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
CN101448467B (zh) * | 2006-05-19 | 2014-07-09 | 马科外科公司 | 用于控制触觉设备的方法和装置 |
US9399298B2 (en) * | 2006-12-27 | 2016-07-26 | Mako Surgical Corp. | Apparatus and method for providing an adjustable positive stop in space |
US7950306B2 (en) * | 2007-02-23 | 2011-05-31 | Microdexterity Systems, Inc. | Manipulator |
WO2011123669A1 (en) | 2010-03-31 | 2011-10-06 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intuitive user interface control for remote catheter navigation and 3d mapping and visualization systems |
WO2011021192A1 (en) | 2009-08-17 | 2011-02-24 | Mazor Surgical Technologies Ltd. | Device for improving the accuracy of manual operations |
US8603089B2 (en) * | 2011-01-19 | 2013-12-10 | Covidien Lp | Surgical instrument including inductively coupled accessory |
CA3067299A1 (en) * | 2011-09-02 | 2013-03-07 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
US9060794B2 (en) | 2011-10-18 | 2015-06-23 | Mako Surgical Corp. | System and method for robotic surgery |
CA2854505C (en) * | 2011-11-04 | 2020-03-24 | The Johns Hopkins University | Steady hand micromanipulation robot |
US9289264B2 (en) | 2011-12-29 | 2016-03-22 | Mako Surgical Corp. | Systems and methods for guiding an instrument using haptic object with collapsing geometry |
CN103040525B (zh) * | 2012-12-27 | 2016-08-03 | 深圳先进技术研究院 | 一种多模医学影像手术导航方法及系统 |
JP6442472B2 (ja) | 2013-03-13 | 2018-12-19 | ストライカー・コーポレイション | 外科処置に備えて手術室内で複数の対象物を手配するためのシステム |
EP2996611B1 (en) | 2013-03-13 | 2019-06-26 | Stryker Corporation | Systems and software for establishing virtual constraint boundaries |
US9901356B2 (en) | 2013-03-14 | 2018-02-27 | Think Surgical, Inc. | Systems and methods for monitoring a surgical procedure with critical regions |
US9014851B2 (en) * | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US9600138B2 (en) | 2013-03-15 | 2017-03-21 | Synaptive Medical (Barbados) Inc. | Planning, navigation and simulation systems and methods for minimally invasive therapy |
EP3033132B1 (en) * | 2013-08-15 | 2021-01-06 | Intuitive Surgical Operations, Inc. | Graphical user interface for catheter positioning and insertion |
US10045826B2 (en) | 2015-01-20 | 2018-08-14 | Mako Surgical Corporation | Systems and methods for repairing bone with multiple tools |
KR102005751B1 (ko) * | 2015-01-22 | 2019-07-31 | 네오시스, 인크. | 환자-상호작용 장치를 포함하는 치아 이식 시스템 |
EP3297563B1 (en) * | 2015-05-19 | 2021-08-18 | MAKO Surgical Corp. | System for manipulating an anatomy |
WO2017020081A1 (en) * | 2015-08-03 | 2017-02-09 | Deakin University | Apparatus, system and method for controlling motion of a robotic manipulator |
EP3349649B1 (en) | 2015-09-18 | 2022-03-09 | Auris Health, Inc. | Navigation of tubular networks |
EP3397185A1 (en) | 2015-12-29 | 2018-11-07 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
WO2017114855A1 (en) * | 2015-12-29 | 2017-07-06 | Koninklijke Philips N.V. | System, control unit and method for control of a surgical robot |
CN108778179A (zh) | 2016-02-26 | 2018-11-09 | 思想外科有限公司 | 用于指导用户定位机器人的方法和系统 |
US10413366B2 (en) | 2016-03-16 | 2019-09-17 | Synaptive Medical (Bardbados) Inc. | Trajectory guidance alignment system and methods |
CN105943161A (zh) * | 2016-06-04 | 2016-09-21 | 深圳市前海康启源科技有限公司 | 基于医疗机器人的手术导航系统及方法 |
CN107970060A (zh) | 2018-01-11 | 2018-05-01 | 上海联影医疗科技有限公司 | 手术机器人系统及其控制方法 |
US10058396B1 (en) | 2018-04-24 | 2018-08-28 | Titan Medical Inc. | System and apparatus for insertion of an instrument into a body cavity for performing a surgical procedure |
-
2018
- 2018-09-05 US US16/122,861 patent/US11612438B2/en active Active
-
2019
- 2019-03-28 CN CN201910245689.7A patent/CN110876643B/zh active Active
- 2019-03-28 TW TW108111088A patent/TWI693923B/zh active
- 2019-09-05 WO PCT/CN2019/104567 patent/WO2020048511A1/en unknown
- 2019-09-05 EP EP19856615.0A patent/EP3846726A4/en active Pending
- 2019-09-05 JP JP2021537457A patent/JP7454863B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201336469A (zh) * | 2012-03-03 | 2013-09-16 | Univ China Medical | 手術影像導引定位裝置及其系統 |
TW201717837A (zh) * | 2015-10-14 | 2017-06-01 | 外科劇院有限責任公司 | 強化實境之外科導航 |
TWI618036B (zh) * | 2017-01-13 | 2018-03-11 | China Medical University | 以斷層影像為基礎之手術探針導航模擬方法及其系統 |
Also Published As
Publication number | Publication date |
---|---|
CN110876643B (zh) | 2021-12-24 |
US11612438B2 (en) | 2023-03-28 |
WO2020048511A1 (en) | 2020-03-12 |
JP2022500204A (ja) | 2022-01-04 |
US20200069373A1 (en) | 2020-03-05 |
TW202010477A (zh) | 2020-03-16 |
EP3846726A4 (en) | 2021-11-17 |
EP3846726A1 (en) | 2021-07-14 |
CN110876643A (zh) | 2020-03-13 |
JP7454863B2 (ja) | 2024-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI693923B (zh) | 醫療手術導航方法及機器人系統 | |
US11844574B2 (en) | Patient-specific preoperative planning simulation techniques | |
US11707330B2 (en) | Systems and methods for surgical navigation | |
US10660716B2 (en) | Systems and methods for rendering onscreen identification of instruments in a teleoperational medical system | |
US11357581B2 (en) | Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product | |
JP7233841B2 (ja) | ロボット外科手術システムのロボットナビゲーション | |
US20220047343A1 (en) | Systems and methods for onscreen identification of instruments in a teleoperational medical system | |
US9082319B2 (en) | Method, apparatus, and system for computer-aided tracking, navigation and motion teaching | |
CN107405180B (zh) | 用于外科手术机器人系统的交互式引导和操纵检测安排、以及相关联方法 | |
JP2003265500A (ja) | 手術支援装置 | |
TWI688367B (zh) | 手術輔助系統及應用該手術輔助系統獲取表面資訊的方法 | |
TW202005614A (zh) | 手術儀器校準裝置及方法 | |
WO2019177711A1 (en) | Methods of guiding manual movement of medical systems | |
EP4142610A1 (en) | Collaborative surgical robotic platform for autonomous task execution | |
JP2023530652A (ja) | コンピュータ支援インターベンション用の空間認識ディスプレイ | |
KR20200084025A (ko) | 엔드 이펙터 공구 경로 외부에서 뼈에 하드웨어를 장착하기 위한 시스템 및 방법 | |
Šuligoj et al. | Medical applicability of a low-cost industrial robot arm guided with an optical tracking system | |
JP2021122743A (ja) | ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン | |
KR20220024055A (ko) | 추적 시스템 시야 위치설정 시스템 및 방법 | |
CN116269812A (zh) | 主从操作的穿刺系统和规划方法 | |
CN115211962A (zh) | 用于外科手术期间的计算机辅助导航的外科系统 | |
WO2023018684A1 (en) | Systems and methods for depth-based measurement in a three-dimensional view | |
WO2023150449A1 (en) | Systems and methods for remote mentoring in a robot assisted medical system |