JP2024514637A - 外科用情報を表示する頻度間隔を予測するための1つ以上の外科用デバイスのコンテキストパラメータの利用 - Google Patents
外科用情報を表示する頻度間隔を予測するための1つ以上の外科用デバイスのコンテキストパラメータの利用 Download PDFInfo
- Publication number
- JP2024514637A JP2024514637A JP2023563024A JP2023563024A JP2024514637A JP 2024514637 A JP2024514637 A JP 2024514637A JP 2023563024 A JP2023563024 A JP 2023563024A JP 2023563024 A JP2023563024 A JP 2023563024A JP 2024514637 A JP2024514637 A JP 2024514637A
- Authority
- JP
- Japan
- Prior art keywords
- surgical
- hub
- procedure
- determining
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 160
- 230000003190 augmentative effect Effects 0.000 claims abstract description 63
- 238000004891 communication Methods 0.000 claims description 112
- 238000001356 surgical procedure Methods 0.000 claims description 99
- 230000015654 memory Effects 0.000 claims description 36
- 230000004044 response Effects 0.000 claims description 30
- 230000004913 activation Effects 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 21
- 230000003213 activating effect Effects 0.000 claims description 19
- 238000011282 treatment Methods 0.000 claims description 15
- 230000003466 anti-cipated effect Effects 0.000 claims description 14
- 230000000977 initiatory effect Effects 0.000 claims description 13
- 238000012544 monitoring process Methods 0.000 claims description 11
- 230000003993 interaction Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000036541 health Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 description 33
- 230000000007 visual effect Effects 0.000 description 33
- 238000001994 activation Methods 0.000 description 25
- 230000002452 interceptive effect Effects 0.000 description 24
- 238000003860 storage Methods 0.000 description 21
- 238000012800 visualization Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 238000002059 diagnostic imaging Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 239000012636 effector Substances 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000002604 ultrasonography Methods 0.000 description 9
- 210000004072 lung Anatomy 0.000 description 8
- 238000013538 segmental resection Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012806 monitoring device Methods 0.000 description 7
- 208000025247 virus-associated trichodysplasia spinulosa Diseases 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000001953 sensory effect Effects 0.000 description 6
- 238000002679 ablation Methods 0.000 description 5
- 230000001934 delay Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000012978 minimally invasive surgical procedure Methods 0.000 description 5
- 210000000056 organ Anatomy 0.000 description 5
- 230000003238 somatosensory effect Effects 0.000 description 5
- 210000000115 thoracic cavity Anatomy 0.000 description 5
- 206010002091 Anaesthesia Diseases 0.000 description 4
- 230000037005 anaesthesia Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 238000002355 open surgical procedure Methods 0.000 description 4
- 238000002271 resection Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 3
- 230000007123 defense Effects 0.000 description 3
- 238000010304 firing Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000000779 smoke Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000000701 chemical imaging Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000002224 dissection Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 230000002262 irrigation Effects 0.000 description 2
- 238000003973 irrigation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000002980 postoperative effect Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001225 therapeutic effect Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 241000475481 Nebula Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 230000009133 cooperative interaction Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000002682 general surgery Methods 0.000 description 1
- 230000023597 hemostasis Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003601 intercostal effect Effects 0.000 description 1
- 238000012977 invasive surgical procedure Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 210000001147 pulmonary artery Anatomy 0.000 description 1
- 210000003492 pulmonary vein Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000000451 tissue damage Effects 0.000 description 1
- 231100000827 tissue damage Toxicity 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/068—Surgical staplers, e.g. containing multiple staples or clamps
- A61B17/072—Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
- A61B17/07207—Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously the staples being applied sequentially
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/32—Surgical robots operating autonomously
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/182—Level alarms, e.g. alarms responsive to variables exceeding a threshold
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/10—Network architectures or network communication protocols for network security for controlling access to devices or network resources
- H04L63/105—Multiple levels of security
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/40—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/50—Secure pairing of devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/10—Scheduling measurement reports ; Arrangements for measurement reports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W76/00—Connection management
- H04W76/10—Connection setup
- H04W76/14—Direct-mode setup
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/068—Surgical staplers, e.g. containing multiple staples or clamps
- A61B17/072—Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
- A61B17/07292—Reinforcements for staple line, e.g. pledgets
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/11—Surgical instruments, devices or methods, e.g. tourniquets for performing anastomosis; Buttons for anastomosis
- A61B17/115—Staplers for performing anastomosis in a single operation
- A61B17/1155—Circular staplers comprising a plurality of staples
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00026—Conductivity or impedance, e.g. of tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00084—Temperature
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00106—Sensing or detecting at the treatment site ultrasonic
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00128—Electrical control of surgical instruments with audible or visual output related to intensity or progress of surgical action
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00809—Lung operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00818—Treatment of the gastro-intestinal system
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/068—Surgical staplers, e.g. containing multiple staples or clamps
- A61B17/072—Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
- A61B2017/07214—Stapler heads
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/068—Surgical staplers, e.g. containing multiple staples or clamps
- A61B17/072—Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
- A61B2017/07214—Stapler heads
- A61B2017/07271—Stapler heads characterised by its cartridge
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/11—Surgical instruments, devices or methods, e.g. tourniquets for performing anastomosis; Buttons for anastomosis
- A61B2017/1132—End-to-end connections
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/42—Gynaecological or obstetrical instruments or methods
- A61B2017/4216—Operations on uterus, e.g. endometrium
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B2018/00636—Sensing and controlling the application of energy
- A61B2018/00898—Alarms or notifications created in response to an abnormal condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/258—User interfaces for surgical systems providing specific settings for specific users
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/064—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0807—Indication means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/397—Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
- A61B2090/3975—Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2217/00—General characteristics of surgical instruments
- A61B2217/002—Auxiliary appliance
- A61B2217/005—Auxiliary appliance with suction drainage system
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2217/00—General characteristics of surgical instruments
- A61B2217/002—Auxiliary appliance
- A61B2217/007—Auxiliary appliance with irrigation system
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/98—Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/034—Recognition of patterns in medical or anatomical images of medical instruments
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/08—Biomedical applications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H70/00—ICT specially adapted for the handling or processing of medical references
- G16H70/20—ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/18—Self-organising networks, e.g. ad-hoc networks or sensor networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Radiology & Medical Imaging (AREA)
- General Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Urology & Nephrology (AREA)
- Gynecology & Obstetrics (AREA)
- Emergency Management (AREA)
- Quality & Reliability (AREA)
- Social Psychology (AREA)
Abstract
拡張ディスプレイを仮想要素で過飽和にすることなく、関連する拡張現実(AR)コンテンツを外科職員に表示するためのシステム、方法、及びデバイス。外科職員(例えば、医師、看護師、外科医、技術者等)は、外科医の注意をそらすことなく有用な情報を表示することの間で微妙にバランスのとれたARコンテンツを必要とする。外科用ハブは、外科的環境に関する複数の入力を受信し、判定されたトリガイベントに基づいて、外科医が患者に効果的なケアを提供することを可能にするために必要な情報のみを表示する。
Description
(関連出願の相互参照)
本出願は、米国特許法第119条(e)の下で、2021年4月14日に出願された「HEADS UP DISPLAY」と題する米国仮特許出願第63/174,674号、及び2021年11月30日に出願された「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国仮特許出願第63/284,326号に対する利益を主張するものであり、これらの各々の開示は、その全体が参照により本明細書に組み込まれる。
本出願は、米国特許法第119条(e)の下で、2021年4月14日に出願された「HEADS UP DISPLAY」と題する米国仮特許出願第63/174,674号、及び2021年11月30日に出願された「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国仮特許出願第63/284,326号に対する利益を主張するものであり、これらの各々の開示は、その全体が参照により本明細書に組み込まれる。
本開示は、外科的処置中に拡張現実インタラクティブ体験を提供するための装置、システム、及び方法に関する。外科的処置中に、実世界に存在するオブジェクトが、時には視覚、聴覚、触覚、体性感覚、及び嗅覚を含む複数の感覚モダリティにわたって、コンピュータ生成された知覚情報をオーバーレイすることによって強化される、実世界環境の拡張現実インタラクティブ体験を提供することが望ましいであろう。本開示の文脈では、術野並びに術野に現れる外科用器具及び他のオブジェクトの画像は、コンピュータ生成された視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚情報を、術野並びに術野に現れる器具又は他のオブジェクトの実世界画像上にオーバーレイすることによって強化される。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。
実世界の外科用器具は、エネルギー、ステープラ、又はエネルギーとステープラとの組み合わせを含む、種々の外科用デバイスを含む。エネルギーベースの医療デバイスは、限定ではないが、とりわけ、無線周波数(RF)ベースの単極及び双極電気外科用器具、超音波外科用器具、RF電気外科用器具と超音波器具との組み合わせ、RF電気外科用ステープラと機械的ステープラとの組み合わせを含む。外科用ステープラデバイスは、肥満、胸部、結腸直腸、産婦人科、泌尿器科、及び一般外科を含む、種々の外科的処置において組織を切断及びステープル留めするために使用される外科用器具である。
様々な例において、本開示は、外科用システムであって、遠隔サーバと、拡張現実(AR)出力デバイスと、1つ以上の外科用デバイスと、遠隔サーバ、1つ以上の外科用デバイス、及びAR出力デバイスに通信可能に連結された外科用ハブであって、メモリに連結された制御回路を備える外科用ハブと、を備え、制御回路は、外科的環境からコンテキストパラメータを判定することと、コンテキストパラメータから、手術室で実行されている特定の外科的処置を判定することと、遠隔サーバから、処置データを受信することであって、処置データが、特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、処置データ及びコンテキストパラメータに基づいて、トリガイベントが予想されると判定することと、外科用器具及び処置データに従って、予想されるトリガイベントに対する応答を開始することと、を行うように構成されている、外科用システムを提供する。
様々な例において、本開示は、外科的処置中の外科用デバイスの相互作用を管理するための方法であって、外科用ハブによって、外科的環境からコンテキストパラメータを判定することと、外科用ハブによって、コンテキストパラメータに基づいて手術室内で行われている特定の外科的処置を判定することと、外科用ハブによって、遠隔サーバから処置データを受信することであって、処置データが、特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、外科用ハブによって、処置データ及びコンテキストパラメータに基づいてトリガイベントが予想されると判定することと、外科用ハブによって、外科用器具及び処置データに従って応答を開始することと、を含む方法を提供する。
構成及び操作方法の両方に関して本明細書で説明する様々な態様は、それらの更なる目的及び利点とともに、以下の説明を以下の添付図面と併せて参照することで最良に理解され得る。
本開示の一態様による、コンピュータ実装インタラクティブ外科用システムのブロック図である。
本開示の一態様による、手術室内で外科的処置を実行するために使用される外科用システムの図である。
本開示の一態様による、可視化システム、ロボットシステム、及びインテリジェント器具とペアリングされた外科用ハブである。
本開示の一態様による、医療施設の1つ以上の手術現場、又は外科手術のための専門設備を備えた医療施設内の任意の部屋に位置しているモジュール式デバイスをクラウドに接続するように構成されたモジュール式通信ハブを含む外科用データネットワークを示す図である。
本開示の一態様による、コンピュータ実装インタラクティブ外科用システムを示す図である。
本開示の一態様による、モジュール式制御タワーに連結された複数のモジュールを含む外科用ハブを示す図である。
本開示の一態様による、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す図である。
本開示の一態様による、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す図である。
本開示の一態様による、外科用ハブにデータを通信するために外科医によって装着される拡張現実(AR)デバイスを示す図である。
本開示の一態様による、拡張現実ディスプレイを使用して外科用器具情報を拡張するためのシステムを示す図である。
本開示の一態様による、状況認識外科的処置のタイムラインを示す図である。
本開示の一態様による、予想される信号干渉に対する外科用ハブによる周波数シフト応答のグラフィカル表現を示す図である。
本開示の一態様による、外科用ハブによってスケジュールされたデバイス起動及び通信送信のタイムラインを示す図である。
本開示の一態様による、複数のファクタを評価し、通信及びデバイス起動の階層を判定するためのフロー図である。
本開示の一態様による、エンドエフェクタが組織をクランプし、発射の過程にあるときのエンドエフェクタ信号及び雑音のグラフィカル表現を示す図である。
本開示の一態様による、トリガイベントの予測又は検出に基づく外科用ハブの応答のフロー図である。
本開示の一態様による、外科的処置中の外科用デバイス相互作用を管理するためのシステムを示す図である。
本開示の一態様による、外科的処置中の外科用デバイス相互作用を管理するための方法の論理図である。
複数の図面を通して、対応する参照符号は対応する部分を示す。本明細書に記載された例示は、様々な開示された実施形態を一形態で示しており、そのような例示は、その範囲を限定するものとして決して解釈されるべきではない。
本出願の出願人は、各開示の全体が参照により本明細書に組み込まれる、同時に出願された以下の米国特許出願を所有する。
●「METHOD FOR INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP1/210120-1M、
●「Utilization of surgical data values and situational awareness to control the overlay in surgical field view」と題する米国特許出願;代理人整理番号END9352USNP2/210120-2、
●「SELECTIVE AND ADJUSTABLE MIXED REALITY OVERLAY IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP3/210120-3、
●「RISK BASED PRIORITIZATION OF DISPLAY ASPECTS IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP4/210120-4、
●「SYSTEMS AND METHODS FOR CONTROLLING SURGICAL DATA OVERLAY」と題する米国特許出願;代理人整理番号END9352USNP5/210120-5、
●「SYSTEMS AND METHODS FOR CHANGING DISPLAY OVERLAY OF SURGICAL FIELD VIEW BASED ON TRIGGERING EVENTS」と題する米国特許出願;代理人整理番号END9352USNP6/210120-6、
●「CUSTOMIZATION OF OVERLAID DATA AND CONFIGURATION」と題する米国特許出願;代理人整理番号END9352USNP7/210120-7、
●「INDICATION OF THE COUPLE PAIR OF REMOTE CONTROLS WITH REMOTE DEVICES FUNCTIONS」と題する米国特許出願;代理人整理番号END9352USNP8/210120-8、
●「COOPERATIVE OVERLAYS OF INTERACTING INSTRUMENTS WHICH RESULT IN BOTH OVERLAYS BEING EFFECTED」と題する米国特許出願;代理人整理番号END9352USNP9/210120-9、
●「ANTICIPATION OF INTERACTIVE UTILIZATION OF COMMON DATA OVERLAYS BY DIFFERENT USERS」と題する米国特許出願;代理人整理番号END9352USNP10/210120-10、
●「MIXING DIRECTLY VISUALIZED WITH RENDERED ELEMENTS TO DISPLAY BLENDED ELEMENTS AND ACTIONS HAPPENING ON-SCREEN AND OFF-SCREEN」と題する米国特許出願;代理人整理番号END9352USNP11/210120-11、
●「SYSTEM AND METHOD FOR TRACKING A PORTION OF THE USER AS A PROXY FOR NON-MONITORED INSTRUMENT」と題する米国特許出願;代理人整理番号END9352USNP12/210120-12、
●「COOPERATION AMONG MULTIPLE DISPLAY SYSTEMS TO PROVIDE A HEALTHCARE USER CUSTOMIZED INFORMATION」と題する米国特許出願;代理人整理番号END9352USNP14/210120-14、
●「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP15/210120-15、
●「ADAPTATION AND ADJUSTABILITY OR OVERLAID INSTRUMENT INFORMATION FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP16/210120-16、及び、
●「MIXED REALITY FEEDBACK SYSTEMS THAT COOPERATE TO INCREASE EFFICIENT PERCEPTION OF COMPLEX DATA FEEDS」と題する米国特許出願;代理人整理番号END9352USNP17/210120-17。
●「METHOD FOR INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP1/210120-1M、
●「Utilization of surgical data values and situational awareness to control the overlay in surgical field view」と題する米国特許出願;代理人整理番号END9352USNP2/210120-2、
●「SELECTIVE AND ADJUSTABLE MIXED REALITY OVERLAY IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP3/210120-3、
●「RISK BASED PRIORITIZATION OF DISPLAY ASPECTS IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP4/210120-4、
●「SYSTEMS AND METHODS FOR CONTROLLING SURGICAL DATA OVERLAY」と題する米国特許出願;代理人整理番号END9352USNP5/210120-5、
●「SYSTEMS AND METHODS FOR CHANGING DISPLAY OVERLAY OF SURGICAL FIELD VIEW BASED ON TRIGGERING EVENTS」と題する米国特許出願;代理人整理番号END9352USNP6/210120-6、
●「CUSTOMIZATION OF OVERLAID DATA AND CONFIGURATION」と題する米国特許出願;代理人整理番号END9352USNP7/210120-7、
●「INDICATION OF THE COUPLE PAIR OF REMOTE CONTROLS WITH REMOTE DEVICES FUNCTIONS」と題する米国特許出願;代理人整理番号END9352USNP8/210120-8、
●「COOPERATIVE OVERLAYS OF INTERACTING INSTRUMENTS WHICH RESULT IN BOTH OVERLAYS BEING EFFECTED」と題する米国特許出願;代理人整理番号END9352USNP9/210120-9、
●「ANTICIPATION OF INTERACTIVE UTILIZATION OF COMMON DATA OVERLAYS BY DIFFERENT USERS」と題する米国特許出願;代理人整理番号END9352USNP10/210120-10、
●「MIXING DIRECTLY VISUALIZED WITH RENDERED ELEMENTS TO DISPLAY BLENDED ELEMENTS AND ACTIONS HAPPENING ON-SCREEN AND OFF-SCREEN」と題する米国特許出願;代理人整理番号END9352USNP11/210120-11、
●「SYSTEM AND METHOD FOR TRACKING A PORTION OF THE USER AS A PROXY FOR NON-MONITORED INSTRUMENT」と題する米国特許出願;代理人整理番号END9352USNP12/210120-12、
●「COOPERATION AMONG MULTIPLE DISPLAY SYSTEMS TO PROVIDE A HEALTHCARE USER CUSTOMIZED INFORMATION」と題する米国特許出願;代理人整理番号END9352USNP14/210120-14、
●「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP15/210120-15、
●「ADAPTATION AND ADJUSTABILITY OR OVERLAID INSTRUMENT INFORMATION FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP16/210120-16、及び、
●「MIXED REALITY FEEDBACK SYSTEMS THAT COOPERATE TO INCREASE EFFICIENT PERCEPTION OF COMPLEX DATA FEEDS」と題する米国特許出願;代理人整理番号END9352USNP17/210120-17。
本出願の出願人は、各開示の全体が参照により本明細書に組み込まれる、以下の米国特許出願を所有する。
●「METHOD OF COMPRESSING TISSUE WITHIN A STAPLING DEVICE AND SIMULTANEOUSLY DISPLAYING THE LOCATION OF THE TISSUE WITHIN THE JAWS」と題する米国特許出願第16/209,423号(現在は、米国特許出願公開第2019/0200981(A1)号)、
●「METHOD FOR CONTROLLING SMART ENERGY DEVICES」と題する米国特許出願第16/209,453号(現在は、米国特許出願公開第2019/0201046(A1)号)。
●「METHOD OF COMPRESSING TISSUE WITHIN A STAPLING DEVICE AND SIMULTANEOUSLY DISPLAYING THE LOCATION OF THE TISSUE WITHIN THE JAWS」と題する米国特許出願第16/209,423号(現在は、米国特許出願公開第2019/0200981(A1)号)、
●「METHOD FOR CONTROLLING SMART ENERGY DEVICES」と題する米国特許出願第16/209,453号(現在は、米国特許出願公開第2019/0201046(A1)号)。
外科用装置及び発生器の様々な態様を詳細に説明する前に、例解的な実施例は、適用又は用途において、添付の図面及び説明において例解される部品の構造及び配置の詳細に限定されないことに留意されたい。例示の実施例は、他の態様、変形形態、及び修正形態で実装されるか、又はそれらに組み込まれてもよく、様々な方法で実施又は実行されてもよい。更に、特に明記しない限り、本明細書で用いられる用語及び表現は、読者の便宜のために例示の実施例を説明する目的で選択されたものであり、それらを限定するためのものではない。更に、以下に記述される態様、態様の表現、及び/又は実施例のうち1つ以上を、以下に記述される他の態様、態様の表現、及び/又は実施例のうち任意の1つ以上と組み合わせることができるものと理解されたい。
様々な態様は、様々なエネルギー及び外科用ステープラベースの医療デバイスのための外科用システムのための画面上表示を対象とする。エネルギーベースの医療デバイスは、限定ではないが、とりわけ、無線周波数(RF)ベースの単極及び双極電気外科用器具、超音波外科用器具、RF電気外科用器具と超音波器具との組み合わせ、RF電気外科用ステープラと機械的ステープラとの組み合わせを含む。外科用ステープラデバイスは、電気外科用デバイス及び/又は超音波デバイスと組み合わされた外科用ステープラを含む。超音波外科用デバイスの態様は、例えば、外科的処置中に組織を横切開及び/又は凝固するように構成され得る。電気外科用デバイスの態様は、例えば、外科的処置中に、組織を横切開、凝固、封止、溶接及び/又は乾燥させるように構成され得る。外科用ステープラデバイスの態様は、外科的処置中に組織を横切開してステープル留めするように構成することができ、いくつかの態様では、外科用ステープラデバイスは、外科的処置中に組織にRFエネルギーを送達するように構成することができる。電気外科用デバイスは、治療用及び/又は非治療用RFエネルギーを組織に送達するように構成されている。外科用ステープラ、電気外科用デバイス、及び超音波デバイスの要素は、単一の外科用器具において組み合わせて使用され得る。
様々な態様では、本開示は、外科的処置中にORチームにリアルタイム情報の画面上表示を提供する。本開示の様々な態様によれば、様々な視覚情報フィードバックを画面上でORチームに表示するために、多くの新しい固有の画面上表示が提供される。本開示によれば、視覚情報は、音を伴う又は伴わない様々な視覚媒体のうちの1つ以上を含むことができる。一般に、視覚情報は、静止写真、動画写真、ビデオ又はオーディオ記録、グラフィックアート、視覚補助、モデル、表示、視覚表現サービス、及びサポートプロセスを含む。視覚情報は、例えば、とりわけ、一次ORスクリーン、エネルギー又は外科用ステープラデバイス自体、タブレット、拡張現実眼鏡等の任意の数の表示オプション上で通信することができる。
様々な態様では、本開示は、ORチームをあまりに多くの視覚情報で圧倒することなく、視覚情報をリアルタイムでORチームに通信するための潜在的オプションの多くのリストを提供する。例えば、種々の態様では、本開示は、外科医、又はORチームの他のメンバーが、豊富な視覚情報を管理するために、画面オプションを取り囲むアイコン等の画面上表示を選択的に起動することを可能にする、視覚情報の画面上表示を提供する。要因のうちの1つ又は組み合わせが、アクティブ表示を決定するために使用することができ、これらは、とりわけ、使用中のエネルギーベース(例えば、電気外科、超音波)又は機械ベース(例えば、ステープラ)外科用デバイス、所与の表示と関連付けられる推定リスク、外科医の経験レベル、及び外科医の選択を含んでもよい。他の態様では、視覚情報は、視覚情報を管理するために手術視野にオーバーレイ又は重畳された豊富なデータを含んでもよい。以下に説明する様々な態様では、データを適切にオーバーレイするためにビデオ解析及び追跡を必要とする重畳画像を含む。このように通信された視覚情報データは、静的アイコンとは対照的に、ORチームに対してより簡潔で理解しやすい方法で追加の有用な視覚情報を提供することができる。
様々な態様では、本開示は、外科的処置中に視覚情報を管理するために、スクリーンを取り囲むアイコン等の画面上表示を選択的に起動するための技術を提供する。他の態様では、本開示は、要因のうちの1つ又は組み合わせを使用してアクティブ表示を決定するための技術を提供する。様々な態様では、本開示による技術は、とりわけ、アクティブ表示として使用中のエネルギーベース又は機械ベースの外科用デバイスを選択すること、所与の表示に関連付けられたリスクを推定すること、選択を行う外科医又はORチームの経験レベルを利用することを含み得る。
他の態様では、本開示による技術は、視覚情報を管理するために、豊富なデータを手術視野上にオーバーレイ又は重畳することを含んでもよい。本開示によって説明されるいくつかの表示配置は、術野のライブストリーム上に外科用データの種々の視覚表現をオーバーレイすることを伴う。本明細書で使用される場合、オーバーレイという用語は、半透明オーバーレイ、部分的オーバーレイ、及び/又は移動オーバーレイを含む。グラフィカルオーバーレイは、透明グラフィック、半透明グラフィック、又は不透明グラフィック、あるいは透明、半透明、及び不透明の要素又は効果の組み合わせの形態であってもよい。更に、オーバーレイは、例えば、エンドエフェクタ及び/又は重要な外科用構造等の、術野におけるオブジェクト上に、又は少なくとも部分的にその上に、又はその近くに配置され得る。特定の表示配置は、表示優先度値の変化に基づいて、色、サイズ、形状、表示時間、表示場所、表示頻度、強調表示、又はそれらの組み合わせの変化を含む、オーバーレイの1つ以上の表示要素の変化を含み得る。グラフィカルオーバーレイは、アクティブ表示モニタの上にレンダリングされ、重要な情報を迅速かつ効率的にORチームに伝達する。
他の態様では、本開示による技術は、視覚情報データを適切にオーバーレイするためにビデオ解析及び追跡することを必要とする画像を重畳することを含み得る。他の態様では、本開示による技術は、単純な静的アイコンとは対照的に、豊富な視覚情報を通信して、より簡潔で理解しやすい方法で追加の視覚情報をORチームに提供することを含むことができる。他の態様では、視覚オーバーレイは、聴覚及び/又は体性感覚オーバーレイ、例えば、熱的、化学的、及び機械的デバイス、並びにそれらの組み合わせと組み合わせて使用することができる。
以下の説明は、概して、外科的処置中に拡張現実(AR)インタラクティブ体験を提供する装置、システム、及び方法に関する。この文脈では、術野並びに術野に現れる外科用器具及び他のオブジェクトの画像は、コンピュータ生成された視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚情報を、術野、術野に現れる器具及び/又は他のオブジェクトの実世界画像上にオーバーレイすることによって強化される。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。拡張現実は、実環境上にオーバーレイされる仮想又は「拡張」仮想オブジェクト、データ、又は視覚効果をレンダリング及び表示するための技術である。実環境は、術野を含んでもよい。実環境上にオーバーレイされた仮想オブジェクトは、実環境の1つ以上の態様に対して固定された位置、又は設定された位置で表され得る。非限定的な例では、実世界オブジェクトが実環境の視野から出る場合、実世界オブジェクトに固定された仮想オブジェクトも拡張現実の視野から出る。
本開示によって説明されるいくつかの表示配置は、術野のライブストリーム上に外科用データの種々の視覚表現をオーバーレイすることを伴う。本明細書で使用される場合、オーバーレイという用語は、半透明オーバーレイ、部分的オーバーレイ、及び/又は移動オーバーレイを含む。更に、オーバーレイは、例えば、エンドエフェクタ及び/又は重要な外科用構造等の、術野におけるオブジェクト上に、又は少なくとも部分的にその上に、又はその近くに配置され得る。特定の表示配置は、表示優先度値の変化に基づいて、色、サイズ、形状、表示時間、表示場所、表示頻度、強調表示、又はそれらの組み合わせの変化を含む、オーバーレイの1つ以上の表示要素の変化を含み得る。
本明細書で説明されるように、ARは、技術を介して送達されるデジタル視覚要素、音、又は他の感覚刺激の使用を通して達成される、現実の物理世界の拡張バージョンである。仮想現実(VR)は、現実であるように見えるシーン及びオブジェクトを有するコンピュータ生成環境であり、ユーザがそれらの周囲に没入しているように感じさせる。この環境は、仮想現実ヘッドセット又はヘルメットとして知られるデバイスを通して知覚される。複合現実(MR)及びARは両方とも没入型技術と考えられているが、それらは同じではない。MRは、現実及び仮想要素が環境内で相互作用することを可能にする複合現実の拡張である。ARは、多くの場合、カメラを使用することによってライブビューにデジタル要素を追加するが、MR体験は、実世界及びデジタルオブジェクトが相互作用するAR及びVRの両方の要素を組み合わせる。
AR環境では、1つ以上のコンピュータ生成仮想オブジェクトが、1つ以上の現実(すなわち、いわゆる「実世界」)要素とともに表示されてもよい。例えば、周囲環境のリアルタイム画像又はビデオは、1つ以上のオーバーレイ仮想オブジェクトとともにコンピュータスクリーンディスプレイ上に示されてもよい。そのような仮想オブジェクトは、環境に関する補足的な情報を提供することができ、又は一般に、ユーザの知覚及び環境との関与を向上させることができる。逆に、周囲環境のリアルタイム画像又はビデオは、加えて又は代替的に、ディスプレイ上に示される仮想オブジェクトとのユーザの関与を向上させることができる。
本開示の文脈における装置、システム、及び方法は、外科的処置中に1つ以上の撮像デバイスから受信された画像を向上させる。撮像デバイスは、非侵襲性及び低侵襲性外科的処置中に使用される種々のスコープ、ARデバイス、及び/又は切開外科的処置中に画像を提供するカメラを含んでもよい。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。装置、システム、及び方法は、仮想オブジェクト又はデータ及び/又は現実オブジェクトの表現を現実外科的環境上にオーバーレイすることによって、実世界外科的環境の画像を向上させることによって、拡張現実インタラクティブ体験を提供する。拡張現実体験は、ユーザが実世界外科的環境上にオーバーレイされた仮想オブジェクトを視認することを可能にする、ディスプレイ及び/又はARデバイス上で視認されてもよい。ディスプレイは、手術室内に配置されてもよいし、手術室から離れてもよい。ARデバイスは、外科医又は他の手術室人員の頭部に装着され、典型的には、ユーザの各目に対して1つを含む、2つの立体ディスプレイレンズ又はスクリーンを含む。自然光は、ARデバイスのユーザに仮想オブジェクトを可視にするために光を投影しながら、実環境の態様が可視であるように、2つの透明又は半透明ディスプレイレンズを通過することができる。
2つ以上のディスプレイ及びARデバイスは、例えば、定義された役割を有するシステム内の1つ以上の追加のディスプレイ又はARデバイスを制御する第1のディスプレイ又はARデバイスと協調して使用されてもよい。例えば、ディスプレイ又はARデバイスを起動するとき、ユーザは、役割(例えば、外科的処置中の外科医、外科助手、看護師等)を選択してもよく、ディスプレイ又はARデバイスは、その役割に関連する情報を表示してもよい。例えば、外科助手は、外科医が外科的処置の次のステップのために行う必要がある器具の仮想表現を表示させてもよい。現在のステップに対する外科医の焦点は、手術助手とは異なる表示された情報を見る場合がある。
多くの既知の画面上表示及びアラートが存在するが、本開示は、外科的処置中に多くの新規かつ固有の拡張現実インタラクティブ体験を提供する。そのような拡張現実インタラクティブ体験は、手術室の内側又は外側の手術チームへの視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚フィードバック情報を含む。実世界外科的環境上にオーバーレイされる仮想フィードバック情報は、例えば、限定ではないが、とりわけ、手術外科医、外科医の助手、スクラブ着衣者、麻酔医、及び外回り看護師を含む、OR内の人員を含む、手術室(OR)チームに提供されてもよい。仮想フィードバック情報は、一次ORスクリーンディスプレイ、ARデバイス、エネルギー又は外科用ステープラ器具、タブレット、拡張現実眼鏡、デバイス等の任意の数の表示オプション上で通信することができる。
図1は、1つ以上の外科用システム2及びクラウドベースのシステム4を含むコンピュータ実装インタラクティブ外科用システム1を示す。クラウドベースシステム4は、ストレージデバイス5に連結された遠隔サーバ13を含み得る。各外科用システム2は、クラウド4と通信する少なくとも1つの外科用ハブ6を備える。例えば、外科用システム2は、可視化システム8と、ロボットシステム10と、手持ち式インテリジェント外科用器具12とを備えてもよく、それぞれが、互いに、及び/又はハブ6と通信するように構成されている。いくつかの態様では、外科用システム2は、M個のハブ6と、N個の可視化システム8と、O個のロボットシステム10と、P個の手持ち式インテリジェント外科用器具12とを備えてもよく、M、N、O及びPは1以上の整数である。コンピュータ実装インタラクティブ外科用システム1は、本明細書で説明されるように、外科的処置中に拡張現実インタラクティブ体験を提供するように構成されてもよい。
図2は、外科手術室16内の手術台14上に横たわっている患者に対して外科的処置を実行するための外科用システム2の例を示す。ロボットシステム10は、外科的処置において外科用システム2の一部として使用される。ロボットシステム10は、外科医のコンソール18と、患者側カート20(外科用ロボット)と、外科用ロボットハブ22とを含む。患者側カート20は、外科医が外科医のコンソール18又は外科医によって装着された拡張現実(AR)デバイス66を通して手術部位を視認しながら、患者の身体の低侵襲切開を通じて、少なくとも1つの着脱可能に連結された外科用ツール17を操作することができる。低侵襲処置中の手術部位の画像(例えば、リアルタイムでストリーミングされる静止画像又はライブ画像)は、医療用撮像デバイス24によって取得することができる。患者側カート20は、撮像デバイス24を操作して、撮像デバイス24を配向することができる。切開外科的処置の画像は、医療用撮像デバイス96によって取得することができる。ロボットハブ22は、外科医のコンソール18、又は外科医若しくは外科手術室16内の他の人によって装着されたARデバイス66上にその後表示するために手術部位の画像を処理する。
撮像デバイス24、96又はARデバイス66の光学構成要素は、1つ以上の照明源、及び/又は1つ以上のレンズを含み得る。1つ以上の照明源は、術野の一部分を照明するように方向付けられ得る。1つ以上の画像センサは、術野内の組織及び器具から反射又は屈折された光を受信し得る。
様々な態様では、撮像デバイス24は、低侵襲外科的処置において使用するように構成されている。本開示とともに使用するために適切な撮像デバイスの例としては、関節鏡、血管鏡、気管支鏡、胆道鏡、結腸鏡、膀胱鏡、十二指腸鏡、腸鏡、食道胃十二指腸鏡(胃カメラ)、内視鏡、喉頭鏡、鼻咽喉-腎盂鏡、S状結腸鏡、胸腔鏡、及び尿管鏡が挙げられるが、これらに限定されない。様々な態様では、撮像デバイス96は、切開(侵襲)外科的処置において使用するように構成されている。
様々な態様では、可視化システム8は、滅菌野に対して戦略的に配置される1つ以上の撮像センサと、1つ以上の画像処理装置と、1つ以上のストレージアレイと、1つ以上のディスプレイとを備える。一態様では、可視化システム8は、HL7、PACS及びEMR用のインターフェースを備える。一態様では、撮像デバイス24は、トポグラフィと下にある構造とを区別するためにマルチスペクトルモニタリングを採用し得る。マルチスペクトル画像は、電磁スペクトルにおいて特定の波長範囲内の画像データを捕捉する。波長は、フィルタによって、又は可視光範囲を超える周波数、例えば、IR、及び紫外からの光を含む特定の波長に対する感度を有する器具によって分離される。スペクトル撮像は、人間の目には見えない情報を抽出することができる。マルチスペクトルモニタリングは、処置された組織に対して試験を実行するための外科用タスクが完了した後に術野を再配置することができる。
図2は、手術台14のオペレータに見えるように滅菌野に配置される一次ディスプレイ19を示す。可視化タワー11は、滅菌野の外側に配置され、互いに反対側を向いている第1の非滅菌ディスプレイ7及び第2の非滅菌ディスプレイ9を含む。ハブ6によって誘導される可視化システム8は、ディスプレイ7、9、19を利用して、滅菌野の内側及び外側のオペレータへの情報フローを調整するように構成されている。例えば、ハブ6は、可視化システム8に、一次ディスプレイ19又はARデバイス66上に手術部位のライブ映像を維持しながら、撮像デバイス24、96によって記録される手術部位のAR画像を非滅菌ディスプレイ7、9又はARデバイス66を通じて表示させることができる。非滅菌ディスプレイ7、9は、例えば、非滅菌オペレータが、外科的処置に関連する診断ステップを実行することを可能にすることできる。
図3は、可視化システム8、ロボットシステム10及び手持ち式インテリジェント外科用器具12と通信するハブ6を示す。ハブ6は、ハブディスプレイ35、撮像モジュール38、発電機モジュール40、通信モジュール30、プロセッサモジュール32、ストレージアレイ34、及び手術室マッピングモジュール33を含む。ハブ6は、排煙モジュール26及び/又は吸引/灌注モジュール28を更に含む。様々な態様では、撮像モジュール38は、ARデバイス66を含み、プロセッサモジュール32は統合ビデオプロセッサ及び拡張現実モデラ(例えば、図10に示すようなもの)を含む。モジュール式光源は、様々な撮像デバイスとともに使用するように適合され得る。様々な例では、複数の撮像デバイスを術野の異なる位置に配置して、複数のビューを提供することができる(例えば、非侵襲的、低侵襲的、侵襲的、又は切開外科的処置)。撮像モジュール38は、最適なビューを提供するために撮像デバイス間を切り替えるように構成することができる。種々の態様では、撮像モジュール38は、異なる撮像デバイスからの画像を統合し、本明細書に説明されるような外科的処置の間、拡張現実インタラクティブ体験を提供するように構成することができる。
図4は、医療施設の1つ以上の手術現場/部屋に位置するモジュール式デバイスをクラウドベースのシステムに接続するように構成されたモジュール式通信ハブ53を含む外科用データネットワーク51を示す。クラウド54は、ストレージデバイス55に連結された遠隔サーバ63(図5)を含むことができる。モジュール式通信ハブ53は、ネットワークルータ61と通信するネットワークハブ57及び/又はネットワークスイッチ59を含む。モジュール式通信ハブ53は、データを処理するためにローカルコンピュータシステム60に連結される。手術現場のモジュール式デバイス1a~1nは、モジュール式通信ハブ53に連結され得る。ネットワークハブ57及び/又はネットワークスイッチ59は、ネットワークルータ61に連結されて、デバイス1a~1nをクラウド54又はローカルコンピュータシステム60に接続することができる。デバイス1a~1nに関連付けられたデータは、リモートデータ処理及び操作のためにルータを介してクラウドベースのコンピュータに転送されてもよい。手術現場デバイス1a~1nは、有線チャネル又は無線チャネルを介してモジュール式通信ハブ53に接続され得る。外科用データネットワーク51環境は、本明細書で説明されるように、外科的処置中に拡張現実インタラクティブ体験を提供するために、特に、術野の拡張画像を1つ以上のリモートディスプレイ58に提供するために採用されてもよい。
図5は、コンピュータ実装インタラクティブ外科用システム50を示す。コンピュータ実装インタラクティブ外科用システム50は、多くの点で、コンピュータ実装インタラクティブ外科用システム1と類似している。コンピュータ実装インタラクティブ外科用システム50は、多くの点で外科用システム2と類似する1つ以上の外科用システム52を含む。各外科用システム52は、遠隔サーバ63を含み得るクラウド54と通信する少なくとも1つの外科用ハブ56を備える。一態様では、コンピュータ実装インタラクティブ外科用システム50は、例えば、インテリジェント外科用器具、ロボット及び手術現場内に位置する他のコンピュータ化デバイス等の複数の手術現場デバイスに接続されたモジュール式制御タワー23を備える。図6に示すように、モジュール式制御タワー23は、コンピュータシステム60に連結されたモジュール式通信ハブ53を含む。
図5に戻ると、モジュール式制御タワー23は、内視鏡98に連結された撮像モジュール38、エネルギーデバイス99に連結された発電機モジュール27、排煙器モジュール76、吸引/灌注モジュール78、通信モジュール13、プロセッサモジュール15、ストレージアレイ16、任意選択的にディスプレイ39に連結されたスマートデバイス/器具21及びセンサモジュール29に連結されている。手術現場デバイスは、モジュール式制御タワー23を介して、サーバ63、データストレージ55及びディスプレイ58等のクラウドコンピューティングリソースに連結されている。ロボットハブ72もまた、モジュール式制御タワー23、及びサーバ63、データストレージ55、並びにディスプレイ58に接続されてもよい。とりわけ、デバイス/器具21、可視化システム58が、本明細書に記載されるように、有線又は無線通信規格又はプロトコルを介して、モジュール式制御タワー23に連結されてもよい。モジュール式制御タワー23は、撮像モジュール38、デバイス/器具ディスプレイ39及び/又は他の可視化システム58から受信した、現実外科世界上のオーバーレイされた仮想オブジェクトを含む、受信された拡張画像を表示するためにハブディスプレイ65(例えば、モニタ、スクリーン)に連結されてもよい。ハブディスプレイ65はまた、画像及びオーバーレイ画像とともにモジュール式制御タワー23に接続されたデバイスから受信したデータを表示し得る。
図6は、モジュール式制御タワー23に連結された複数のモジュールを含む外科用ハブ56を示す。モジュール式制御タワー23は、例えばネットワーク接続デバイス等のモジュール式通信ハブ53と、例えば拡張外科用情報のローカルでの処理、可視化及び撮像を行うためのコンピュータシステム60とを含む。モジュール式通信ハブ53は、モジュール式通信ハブ53に接続されてもよいモジュール(例えば、デバイス)の数を拡張するために階層化構成で接続されて、モジュールに関連付けられたデータをコンピュータシステム60、クラウドコンピューティングリソース、又はその両方に転送してもよい。モジュール式通信ハブ53内のネットワークハブ/スイッチ57/59の各々は、3つの下流ポート及び1つの上流ポートを含み得る。上流のネットワークハブ/スイッチ57、59は、クラウドコンピューティングリソース及びローカルディスプレイ67への通信接続を提供するためにプロセッサ31に接続されている。クラウド54への通信は、有線通信チャネル又は無線通信チャネルのいずれかを介して行うことができる。
コンピュータシステム60は、プロセッサ31と、ネットワークインターフェース37とを含む。プロセッサ31は、システムバスを介して、通信モジュール41、ストレージ45、メモリ46、不揮発性メモリ47、及び入力/出力インターフェース48に連結される。システムバスは、様々な利用可能なバスアーキテクチャを使用した、メモリバス若しくはメモリコントローラ、周辺バス若しくは外部バス、及び/又はローカルバスを含む、いくつかのタイプのバス構造のいずれかであってもよい。
プロセッサ31は、拡張現実モデラ(例えば、図10に示されるような)を含み、Texas Instrumentsによる商標名ARM Cortexで知られているもの等のシングルコア又はマルチコアプロセッサとして実装されてもよい。一態様では、プロセッサは、例えば、Texas Instrumentsから入手可能なLM4F230H5QR ARM Cortex-M4Fプロセッサコアであってもよい。このプロセッサコアは、最大40MHzの256KBのシングルサイクルフラッシュメモリ若しくは他の不揮発性メモリのオンチップメモリ、性能を40MHz超に改善するためのプリフェッチバッファ、32KBのシングルサイクルシリアルランダムアクセスメモリ(SRAM)、StellarisWare(登録商標)ソフトウェアを搭載した内部読み出し専用メモリ(ROM)、2KBの電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)及び/又は、1つ以上のパルス幅変調(PWM)モジュール、1つ以上の直交エンコーダ入力(QEI)アナログ、12個のアナログ入力チャネルを備える1つ以上の12ビットアナログ-デジタル変換器(ADC)を含む。なお、その詳細は、製品データシートで入手可能である。
システムメモリとしては、揮発性メモリ及び不揮発性メモリが挙げられる。起動中などにコンピュータシステム内の要素間で情報を転送するための基本ルーチンを含む基本入出力システム(BIOS)は、不揮発性メモリに記憶される。例えば、不揮発性メモリとしては、ROM、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、EEPROM又はフラッシュメモリが挙げられ得る。揮発性メモリとしては、外部キャッシュメモリとして機能するランダムアクセスメモリ(RAM)が挙げられる。更に、RAMは、SRAM、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)、エンハンスドSDRAM(ESDRAM)、シンクリンクDRAM(SLDRAM)及びダイレクトランバスRAM(DRRAM)などの多くの形態で利用可能である。
コンピュータシステム60はまた、取り外し可能/取り外し不可能な揮発性/不揮発性のコンピュータストレージ媒体、例えばディスクストレージ等を含む。ディスク記憶装置としては、磁気ディスクドライブ、フロッピーディスクドライブ、テープドライブ、Jazドライブ、Zipドライブ、LS-60ドライブ、フラッシュメモリカード又はメモリスティックのような装置が挙げられるが、これらに限定されない。加えて、ディスク記憶装置は、上記の記憶媒体を、独立して、又は他の記憶媒体との組み合わせで含むことができる。他の記憶媒体としては、コンパクトディスクROM装置(CD-ROM)、コンパクトディスク記録可能ドライブ(CD-Rドライブ)、コンパクトディスク書き換え可能ドライブ(CD-RWドライブ)若しくはデジタル多用途ディスクROMドライブ(DVD-ROM)などの光ディスクドライブが挙げられるがこれらに限定されない。ディスク記憶装置のシステムバスへの接続を容易にするために、取り外し可能な又は取り外し不可能なインターフェースが用いられてもよい。
様々な態様では、図6のコンピュータシステム60、図4~図6の撮像モジュール38、及び/又は可視化システム58、及び/又はプロセッサモジュール15は、画像プロセッサ、画像処理エンジン、画像処理装置(GPU)、メディアプロセッサ、又はデジタル画像の処理に使用される任意の専用デジタル信号プロセッサ(DSP)を含んでもよい。画像プロセッサは、単一命令複数データ(SIMD)、又は複数命令複数データ(MIMD)技術を用いた並列コンピューティングを用いて速度及び効率を高めることができる。デジタル画像処理エンジンは、様々なタスクを実施することができる。画像プロセッサは、マルチコアプロセッサアーキテクチャを備えるチップ上のシステムであってもよい。
図7は、撮像モジュール38と外科用ハブディスプレイ67との間の通信経路内に配置された中間信号結合器64を含む拡張現実システム263を示す。信号結合器64は、撮像モジュール38及び/又はARデバイス66から受信された音声及び/又は画像データを組み合わせる。外科用ハブ56は、結合器64から組み合わされたデータを受信し、ディスプレイ67に提供されたデータをオーバーレイし、オーバーレイされたデータが表示される。撮像デバイス68はデジタルビデオカメラであってもよく、オーディオデバイス69はマイクロフォンであってもよい。信号結合器64は、外科用ハブ56がディスプレイ67上にデータをオーバーレイすることを可能にするコンソールへのディスプレイ67の通信経路内に配置されたARデバイス66に連結するための無線ヘッドアップディスプレイアダプタを含み得る。
図8は、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す。図8は、外科用ハブ56にデータを通信するために外科医73によって装着されるARデバイス66を示す。ARデバイス66の周辺情報は、アクティブ映像を含まない。むしろ、周辺情報は、デバイス設定、又はリフレッシュレートの同じ要求を有さない信号のみを含む。相互作用は、術前コンピュータ断層撮影(CT)又は外科用ハブ56内でリンクされた他のデータとのリンクに基づいて、外科医73の情報を拡張させ得る。ARデバイス66は、構造を識別することができ、例えば、器具が神経、血管、又は癒着に触れているかどうかを尋ねることができる。ARデバイス66は、術前スキャンデータ、光学ビュー、処置全体を通して取得される組織調査特性、及び/又は回答を提供するために使用される外科用ハブ56における処理を含み得る。外科医73は、報告又はフォローアップにおける後の使用のためにハブストレージ45内に患者データとともに保存されるように、ARデバイス66にメモを書き取ることができる。
外科医73によって装着されるARデバイス66は、オーバーレイの必要性を回避するために、聴覚及び視覚情報を用いて外科用ハブ56にリンクし、視野の周辺の周りに表示される情報のカスタマイズを可能にする。ARデバイス66は、デバイス(例えば、器具)からの信号を提供し、デバイス設定又は象限若しくは位置を識別するためにビデオとリンクされた位置情報に関するクエリに回答する。ARデバイス66は、ARデバイス66からの音声制御及び音声フィードバックを有する。ARデバイス66は、手術現場内の他のシステムと相互作用することができ、外科医73がどこを視認しても利用可能なフィードバック及び相互作用を有することができる。例えば、ARデバイス66は、外科医から音声又はジェスチャ開始コマンド及びクエリを受信してもよく、ARデバイス66は、音声、視覚、又は触覚タッチを含む1つ以上のモダリティの形態でフィードバックを提供してもよい。
図9は、ARデバイス66を装着している外科医73、患者74を示し、手術室75内にカメラ96を含んでもよい。外科医73によって装着されるARデバイス66は、拡張現実ディスプレイ89を通して、又はハブ接続ディスプレイ67を通して、術野のリアルタイム画像上にオーバーレイされる仮想オブジェクトを外科医73に提示するために使用されてもよい。リアルタイム画像は、外科用器具77の一部を含んでもよい。仮想オブジェクトは、手術室75内の他者(例えば、外科助手又は看護師)には可視でない場合があるが、彼らもまた、ARデバイス66を装着し得る。別の人がARデバイス66を用いて手術室75を視認している場合であっても、その人は、仮想オブジェクトを見ることができない場合があるか、又は外科医73と共有される拡張現実において仮想オブジェクトを見ることができる場合があるか、又は(例えば、外科医73に固有のカスタマイゼーションに従って)仮想オブジェクトの修正バージョンを見ることができる場合があるか、又は異なる仮想オブジェクトを見る場合がある。
仮想オブジェクト及び/又はデータは、外科用器具77の一部上に、又は撮像モジュール38、低侵襲外科的処置中の撮像デバイス68、及び/又は切開外科的処置中のカメラ96によって捕捉された手術視野内に現れるように構成され得る。図示の例では、撮像モジュール38は、低侵襲外科的処置中に外科領域のライブ映像を提供する腹腔鏡カメラである。ARシステムは、ARシステムの1人又は複数の視認者(例えば、外科医73)の視点に関係なく、実オブジェクトに固定される仮想オブジェクトを提示してもよい。例えば、仮想オブジェクトは、手術室75内のARシステムの視認者に可視であってもよく、手術室75外のARシステムの視認者に可視でなくてもよい。仮想オブジェクトは、視認者が手術室75に入ったときに、手術室75外の視認者に表示されてもよい。拡張画像は、外科用ハブディスプレイ67又は拡張現実ディスプレイ89に表示されてもよい。
ARデバイス66は、単一スクリーン又は2つのスクリーン(例えば、ユーザの目毎に1つ)等の1つ以上のスクリーン又はレンズを含んでもよい。スクリーンは、仮想オブジェクトを表示している間に実環境の態様が可視であるように、光がスクリーンを通過することを可能にし得る。仮想オブジェクトは、光を投影することによって外科医73に可視になり得る。仮想オブジェクトは、ある程度の透明度を有するように見えてもよく、又は不透明であってもよい(すなわち、実環境の態様を遮断する)。
ARシステムは、1人以上の視認者に可視であってもよく、ビュー間で共通のいくつかの態様を保持しながら、1人以上の視認者に利用可能なビュー間の差異を含んでもよい。例えば、ヘッドアップディスプレイは、2つのビューの間で変化し得るが、仮想オブジェクト及び/又はデータは、両方のビュー内の実オブジェクト又は領域に固定され得る。オブジェクトの色、照明、又は他の変更等の態様は、少なくとも1つの仮想オブジェクトの固定位置を変更することなくビュー間で行われ得る。
ユーザは、ARシステム内に提示される仮想オブジェクト及び/又はデータを、不透明として、又はあるレベルの透明度を含むものとして見ることができる。一例では、ユーザは、仮想オブジェクトを第1の位置から第2の位置に移動させること等によって、仮想オブジェクトと相互作用することができる。例えば、ユーザは、自身の手でオブジェクトを動かしてもよい。これは、(例えば、ARデバイスカメラ79又は別個の96等のARデバイス66上に搭載されてもよく、静的であってもよく、又は移動するように制御されてもよい、1つ以上のカメラを使用して)手がオブジェクトと一致又は隣接する位置に移動したことを判定し、それに応じてオブジェクトを移動させることによって、ARシステムにおいて仮想的に行われてもよい。仮想態様は、実世界オブジェクトの仮想表現を含んでもよく、又は照明効果等の視覚効果を含んでもよい。ARシステムは、仮想オブジェクトを重力又は摩擦に曝す等、仮想オブジェクトの挙動を支配するための規則を含んでもよく、又は実世界の物理的制約(例えば、浮遊オブジェクト、永久運動等)を否定する他の事前定義された規則を含んでもよい。ARデバイス66は、ARデバイス66上にカメラ79を含み得る(ARデバイス66とは別個のカメラ96と混同されるべきではない)。ARデバイスカメラ79又はカメラ96は、赤外線カメラ、赤外線フィルタ、可視光フィルタ、複数のカメラ、深度カメラ等を含み得る。ARデバイス66は、ユーザが視認することができる実環境の表現の上に仮想アイテムを投影し得る。
ARデバイス66は、例えば、外科医73によって患者74に対して行われる外科的処置中に手術室75内で使用され得る。ARデバイス66は、外科医の視覚を拡張するために、外科的処置中の仮想オブジェクト等の仮想オブジェクトを投影又は表示してもよい。外科医73は、ARデバイス66、ARデバイス66のためのリモートコントローラを使用して仮想オブジェクトを視認してもよく、又は、例えば、ARデバイス66のカメラ79によって認識される仮想オブジェクト又はジェスチャと「相互作用」するために手を使用して、仮想オブジェクトと相互作用してもよい。仮想オブジェクトは、外科用器具77等の外科用ツールを拡張することができる。例えば、仮想オブジェクトは、(ARデバイス66を通して仮想オブジェクトを視認する外科医73に対して)外科用器具77と連結されるように、又は外科用器具77から固定距離のままであるように見えてもよい。別の例では、仮想オブジェクトは、外科用器具77を案内するために使用されてもよく、患者74に固定されているように見えてもよい。特定の例では、仮想オブジェクトは、術野における他の仮想又は実世界のオブジェクトの動きに反応し得る。例えば、仮想オブジェクトは、外科医が仮想オブジェクトに近接して外科用器具を操作しているときに変更され得る。
拡張現実ディスプレイシステム撮像デバイス38は、外科的処置の間、外科領域の実画像を捕捉する。拡張現実ディスプレイ89、67は、外科領域の実画像上への外科用器具77の動作態様のオーバーレイを提示する。外科用器具77は、ARデバイス66上の通信回路233を介して外科用器具77からARデバイス66に動作態様及び機能データを通信するための通信回路231を含む。外科用器具77及びARデバイス66は、矢印B、Cによって示されるように、回路231、233の間のRF無線通信において示されているが、他の通信技術(例えば、有線、超音波、赤外線等)が採用されてもよい。オーバーレイは、アクティブに可視化されている外科用器具77の動作態様に関連する。オーバーレイは、外科領域における組織相互作用の態様を外科用器具77からの機能データと組み合わせる。ARデバイス66のプロセッサ部分は、外科用器具77から動作態様及び機能データを受信し、外科用器具77の動作に関連するオーバーレイを決定し、外科領域内の組織の態様を外科用器具77からの機能データと組み合わせるように構成される。拡張画像は、デバイス性能考慮事項に関するアラート、不適合な使用のアラート、不完全な捕捉に関するアラートを示す。不適合な使用には、範囲外の組織状態及びエンドエフェクタのジョー内で不正確にバランスされた組織が含まれる。追加の拡張画像は、組織張力のインジケーション及び異物検出のインジケーションを含む付随事象のインジケーションを提供する。他の拡張画像は、デバイス状況オーバーレイ及び器具インジケーションを示す。
図10は、本開示の少なくとも一態様による、ARディスプレイ89を使用して情報とともに術野の画像を拡張するためのシステム83を示す。システム83は、例えば、プロセッサ85を使用することによって、以下で説明される技術を実行するために使用され得る。システム83は、データベース93と通信することができるARデバイス66の一態様を含む。ARデバイス66は、プロセッサ85、メモリ87、ARディスプレイ89、及びカメラ79を含む。ARデバイス66は、センサ90、スピーカ91、及び/又は触覚コントローラ92を含んでもよい。データベース93は、画像ストレージ94又は術前計画ストレージ95を含んでもよい。
ARデバイス66のプロセッサ85は、拡張現実モデラ86を含む。拡張現実モデラ86は、拡張現実環境を作成するために、プロセッサ85によって使用され得る。例えば、拡張現実モデラ86は、カメラ79又はセンサ90等から、術野内の器具の画像を受信し、手術視野の表示画像内に収まるように拡張現実環境を作成してもよい。別の例では、物理的オブジェクト及び/又はデータは、手術視野及び/又は外科用器具画像上にオーバーレイされてもよく、拡張現実モデラ86は、物理的オブジェクト及びデータを使用して、仮想オブジェクト及び/又はデータの拡張現実ディスプレイを拡張現実環境内に提示してもよい。例えば、拡張現実モデラ86は、患者の手術部位で器具を使用又は検出し、外科用器具上の仮想オブジェクト及び/又はデータ、及び/又はカメラ79によって捕捉された手術視野内の手術部位の画像を提示してもよい。ARディスプレイ89は、実環境にオーバーレイされたAR環境を表示してもよい。ディスプレイ89は、AR環境内の固定位置等にあるARデバイス66を使用して、仮想オブジェクト及び/又はデータを示すことができる。
ARデバイス66は、赤外線センサ等のセンサ90を含むことができる。カメラ79又はセンサ90は、外科医又は他のユーザによるジェスチャ等の動きを検出するために使用されてもよく、動きは、プロセッサ85によって、ユーザによる仮想ターゲットとの試みられた又は意図された相互作用として解釈されてもよい。プロセッサ85は、カメラ79を使用して受信された情報を処理すること等によって、実環境内のオブジェクトを識別することができる。他の態様では、センサ90は、拡張環境を作成するために様々なデータフィードと組み合わされ得る対応する信号を生成するための触覚センサ、可聴センサ、化学センサ、又は熱センサであり得る。センサ90は、バイノーラルオーディオセンサ(空間音)、慣性測定(加速度計、ジャイロスコープ、磁力計)センサ、環境センサ、深度カメラセンサ、手及び視線追跡センサ、並びに音声コマンド認識機能を含み得る。
ARディスプレイ89は、例えば、外科的処置中に、術野がARディスプレイ89を通して視認されることを可能にしながら、術野内等に、患者の解剖学的態様によって隠される物理的特徴に対応する仮想特徴を提示してもよい。仮想特徴は、物理的特徴の第1の物理的位置又は配向に対応する仮想位置又は配向を有し得る。一例では、仮想特徴の仮想位置又は配向は、物理的特徴の第1の物理的位置又は配向からのオフセットを含み得る。オフセットは、拡張現実ディスプレイからの所定の距離、拡張現実ディスプレイから解剖学的態様までの相対距離等を含んでもよい。
一例では、ARデバイス66は、個々のARデバイスであり得る。一態様では、ARデバイス66は、ワシントン州レドモンドのMicrosoftによって製造されたHoloLens 2 ARデバイスであってもよい。このARデバイス66は、レンズ及びバイノーラルオーディオ特徴(空間音)を伴うバイザと、慣性測定(加速度計、ジャイロスコープ、磁力計)と、環境センサと、深度カメラと、ビデオカメラと、手及び視線追跡と、音声コマンド認識機能とを含む。それは、鏡を使用して導波路を着用者の目の前に向けることによって、高解像度で改善された視野を提供する。画像は、ミラーの角度を変えることによって拡大することができる。それはまた、ユーザを認識し、特定のユーザのためにレンズ幅を調整するための視線追跡を提供する。
別の例では、ARデバイス66は、Snapchat Spectacles 3 ARデバイスであり得る。このARデバイスは、ペア画像を捕捉し、3D深度マッピングを再作成し、仮想効果を追加し、3Dビデオを再生する能力を提供する。ARデバイスは、60fpsで3D写真及びビデオを捕捉するための2つのHDカメラを含み、一方、4つの内蔵マイクロフォンは、没入型高忠実度オーディオを記録する。両方のカメラからの画像を組み合わせて、ユーザの周りの実世界の幾何学的マップを構築し、奥行き知覚の新しい感覚を提供する。写真及びビデオは、外部ディスプレイデバイスに無線で同期され得る。
更に別の例では、ARデバイス66は、GoogleによるGlass 2 ARデバイスであり得る。このARデバイスは、情報を補足するためにレンズ(視野外)上にオーバーレイされた慣性測定(加速度計、ジャイロスコープ、磁力計)情報を提供する。
別の例では、ARデバイス66は、AmazonによるEcho Frames ARデバイスであり得る。このARデバイスは、カメラ/ディスプレイを有しない。マイクロフォン及びスピーカはAlexaにリンクされる。このARデバイスは、ヘッドアップディスプレイよりも機能が少ない。
更に別の例では、ARデバイス66は、North(Google)によるFocals ARデバイスであり得る。このARデバイスは、通知プッシャ/スマートウォッチアナログ、慣性測定、情報(天気、カレンダ、メッセージ)のスクリーンオーバーレイ、音声制御(Alexa)統合を提供する。このARデバイスは、基本的なヘッドアップディスプレイ機能を提供する。
別の例では、ARデバイス66は、Nreal ARデバイスであり得る。このARデバイスは、空間音、2つの環境カメラ、写真カメラ、IMU(加速度計、ジャイロスコープ)、周辺光センサ、近接センサ機能を含む。nebulaは、アプリケーション情報をレンズ上に投影する。
様々な他の例では、ARデバイス66は、以下の市販のARデバイス、すなわち、Magic Leap 1、Epson Moverio、Vuzix Blade AR、ZenFone AR、Microsoft AR眼鏡プロトタイプ、EyeTapのうちのいずれか1つであってもよく、これにより、環境の光と同一直線上の光を直接網膜に作成する。ビームスプリッタは、例えば、情報を処理しオーバーレイするために、コンピュータに目に見える同じ光を利用可能にする。AR可視化システムは、HUD、コンタクトレンズ、眼鏡、仮想現実(VR)ヘッドセット、仮想網膜ディスプレイ、手術室内ディスプレイ、及び/又はスマートコンタクトレンズ(バイオニックレンズ)を含む。
ARデバイス66のためのマルチユーザインターフェースは、目の前のスクリーン上ではなく網膜上に直接描画されるラスタディスプレイ等の仮想網膜ディスプレイ、スマートテレビ、スマートフォン、及び/又はSony空間ディスプレイシステム等の空間ディスプレイを含む。
他のAR技術は、例えば、AR捕捉デバイス及びソフトウェアアプリケーション、AR作成デバイス及びソフトウェアアプリケーション、並びにARクラウドデバイス及びソフトウェアアプリケーションを含んでもよい。AR捕捉デバイス及びソフトウェアアプリケーションは、例えば、Apple Polycam app、Ubiquity 6(Display.land appを使用するMirrorworld)を含み、ユーザは、(3Dモデルを作成するために)実世界の3d画像をスキャンし、取得することができる。AR作成デバイス及びソフトウェアアプリケーションは、例えば、Adobe Aero、Vuforia、ARToolKit、Google ARCore、Apple ARKit、MAXST、Aurasma、Zappar、Blipparを含む。ARクラウドデバイス及びソフトウェアアプリケーションは、例えば、Facebook、Google(world geometry、objection recognition、predictive data)、Amazon AR Cloud(commerce)、Microsoft Azure、Samsung Project Whare、Niantic、Magic Leapを含む。
状況認識は、データベース及び/又は器具から受信したデータから外科的処置に関連する情報を判定又は推測するための、外科用システムのいくつかの態様の能力である。情報は、実行されている処置のタイプ、手術されている組織のタイプ、又は処置の対象である体腔を含むことができる。外科的処置に関するコンテキスト情報によると、外科用システムは、例えば、外科用システムが、それに接続されるモジュール式デバイス(例えば、ロボットアーム及び/又はロボット外科用ツール)を制御し、外科的処置の過程で外科医にコンテキスト化された情報又は提案を提供する様式で改善し得る。
図11は、状況認識外科的処置のタイムラインを示す。図11は、例示的な外科的処置のタイムライン5200と、外科的処置の各ステップでデータソース5126から受信されたデータから外科用ハブ5104が導出することができるコンテキスト情報とを示す。タイムライン5200は、手術現場のセットアップで始まり、患者を術後回復室に移送することで終了する肺区域切除処置の過程中に、看護師、外科医及び他の医療従事者がとるであろう一般的なステップを示す。状況認識外科用ハブ5104は、外科的処置の過程全体にわたって、医療関係者が外科用ハブ5104とペアリングされたモジュール式デバイス5102を使用するたびに生成されるデータを含むデータを、データソース5126から受信する。外科用ハブ5104は、ペアリングされたモジュール式デバイス5102及び他のデータソース5126からこのデータを受信して、任意の所与の時間に処置のどのステップが行われているかなどの新しいデータが受信されると、進行中の処置に関する推定(すなわち、コンテキスト情報)を継続的に導出することができる。外科用ハブ5104の状況認識システムは、例えば、報告を生成するために処置に関するデータを記録すること、医療従事者によってとられているステップを検証すること、特定の処置ステップに関連し得るデータ又はプロンプトを(例えば、表示画面を介して)提供すること、コンテキストに基づいてモジュール式デバイス5102を調整する(例えば、モニタを起動する、医療用撮像デバイスのFOVを調整する、又は超音波外科用器具若しくはRF電気外科用器具のエネルギーレベルを変更する)こと、及び上述される任意の他のこうした動作を行うことが可能である。
第1の5202では、病院職員は、病院のEMRデータベースから、患者のEMRを取り出す。EMRにおいて選択された患者データに基づいて、外科用ハブ5104は、実施される処置が胸部手術であることを判定する。
第2の5204では、職員は、処置のために入来する医療用品をスキャンする。外科用ハブ5104は、スキャンされた物資を様々なタイプの処置において利用される物資のリストと相互参照し、物資の混合物が、胸部処置に対応することを確認する。更に、外科用ハブ5104はまた、処置が楔形切除術ではないと判定することができる(入来する用品が、胸部楔形切除術に必要な特定の用品を含まないか、又は別の点で胸部楔形切除術に対応していないかのいずれかであるため)。
第3の5206では、医療従事者は、外科用ハブ5104に通信可能に接続されたスキャナ5128を介して患者バンドをスキャンする。次いで、外科用ハブ5104は、スキャンされたデータに基づいて患者の身元を確認することができる。
第4の5208では、医療職員が補助装置をオンにする。利用されている補助機器は、外科的処置の種類、及び外科医が使用する技術に従って変動し得るが、この例示的なケースでは、排煙器、送気器及び医療用撮像デバイスが挙げられる。起動されると、モジュール式デバイス5102である補助装置は、その初期化プロセスの一部として、モジュール式デバイス5102の特定の近傍内に位置する外科用ハブ5104と自動的にペアリングすることができる。次いで、外科用ハブ5104は、この術前又は初期化段階中にそれとペアリングされるモジュール式デバイス5102の種類を検出することによって、外科的処置に関するコンテキスト情報を導出することができる。この特定の実施例では、外科用ハブ5104は、ペアリングされたモジュール式デバイス5102のこの特定の組み合わせに基づいて、外科的処置がVATS手術であると判定する。患者のEMRからのデータの組み合わせ、処置に用いられる医療用品のリスト、及びハブに接続するモジュール式デバイス5102の種類に基づいて、外科用ハブ5104は、外科チームが実施する特定の処置を概ね推定することができる。外科用ハブ5104が、何の特定の処置が行われているかを知ると、次いで外科用ハブ5104は、メモリから、又はクラウドからその処置のステップを読み出し、次いで接続されたデータソース5126(例えば、モジュール式デバイス5102及び患者モニタリングデバイス5124)からその後受信したデータを相互参照して、外科的処置のどのステップを外科チームが実行しているかを推定することができる。
第5の5210では、職員は、EKG電極及び他の患者モニタリングデバイス5124を患者に取り付ける。EKG電極及び他の患者モニタリングデバイス5124は、外科用ハブ5104とペアリングすることができる。外科用ハブ5104が患者モニタリングデバイス5124からデータの受信を開始すると、外科用ハブ5104は患者が手術現場にいることを確認する。
第6の5212では、医療関係者は患者において麻酔を誘発する。外科用ハブ5104は、例えば、EKGデータ、血圧データ、人工呼吸器データ又はこれらの組み合わせを含む、モジュール式デバイス5102、及び/又は患者モニタリングデバイス5124からのデータに基づいて、患者が麻酔下にあることを推測することができる。第6ステップ5212が完了すると、肺区域切除手術の術前部分が完了し、手術部が開始する。
第7の5214では、手術されている患者の肺が虚脱される(換気が対側肺に切り替えられる間に)。外科用ハブ5104は、患者の肺が虚脱されたことを人工呼吸器データから推測することができる。外科用ハブ5104は、患者の肺が虚脱したのを検出したことを、処置の予期されるステップ(事前にアクセス又は読み出すことができる)と比較することができるため、処置の手術部分が開始したことを推定して、それによって肺を虚脱させることがこの特定の処置における第1の手術ステップであると判定することができる。
第8の5216では、医療用撮像デバイス5108(例えば、スコープ)が挿入され、医療用撮像デバイスからのビデオ映像が開始される。外科用ハブ5104は、医療用撮像デバイスへの接続を通じて医療用撮像デバイスデータ(すなわち、静止画像データ又はリアルタイムのライブストリーミングビデオ)を受信する。医療用撮像デバイスデータを受信すると、外科用ハブ5104は、外科的処置の腹腔鏡部分が開始したことを判定することができる。更に、外科用ハブ5104は、行われている特定の処置が、肺葉切除術とは対照的に区域切除術であると判定することができる(処置の第2のステップ5204で受信したデータに基づいて、楔形切除術は外科用ハブ5104によって既に考慮に入れられていないことに留意されたい)。医療用撮像デバイス124(図2)からのデータを利用して、様々な方法で、例えば、患者の解剖学的構造の可視化に対して向けられている医療用撮像デバイスの角度を判定することによって、利用されている(すなわち、起動されており、外科用ハブ5104とペアリングされている)数又は医療用撮像デバイスを監視することによって、及び利用されている可視化装置の種類を監視することによって、行われている処置の種類に関するコンテキスト情報を判定することができる。
例えば、VATS肺葉切除術を実行するための1つの技術は、カメラを患者の胸腔の前下方角部の横隔膜上方に配置するが、他方、VATS区域切除術を実行するための1つの技術は、カメラを、区域裂に対して前方の肋間位置に配置する。状況認識システムは、例えば、パターン認識技術又は機械学習技術を使用して、患者の解剖学的構造の可視化に従って、医療用撮像デバイスの位置を認識するように訓練することができる。別の例として、VATS肺葉切除術を実行するための1つの技術は、単一の医療用撮像デバイスを利用するが、VATS区域切除術を実行するための別の技術は複数のカメラを利用する。更に別の例として、VATS区域切除術を実行するための1つの技術は、区域裂を可視化するために赤外線光源(可視化システムの一部として外科用ハブへと通信可能に連結できる)を利用するが、これはVATS肺葉切除術では利用されない。医療用撮像デバイス5108からのこのデータのいずれか又は全てを追跡することによって、外科用ハブ5104は、行われている特定の種類の外科的処置、及び/又は特定の種類の外科的処置に使用されている技術を判定することができる。
第9のステップ5218では、外科チームは、処置の切開ステップを開始する。外科用ハブ5104は、エネルギー器具が発射されていることを示すRF又は超音波発生器からのデータを受信するため、外科医が患者の肺を切開して分離するプロセスにあると推定することができる。外科用ハブ5104は、受信したデータを外科的処置の読み出しされたステップと相互参照して、プロセスのこの時点(すなわち、上述された処置のステップが完了した後)で発射されているエネルギー器具が切開ステップに対応していると判定することができる。
第10のステップ5220では、外科チームは、処置の結紮ステップに進む。外科用ハブ5104は、器具が発射されていることを示すデータを外科用ステープル留め及び切断器具から受信するため、外科医が動脈及び静脈を結紮していると推定することができる。前ステップと同様に、外科用ハブ5104は、外科用ステープル留め及び切断器具からのデータの受信を、読み出しされたプロセス内のステップと相互参照することによって、この推定を導出することができる。
第11のステップ5222では、処置の区域切除術の部分が行われる。外科用ハブ5104は、ステープルカートリッジからのデータを含む、外科用器具からのデータに基づいて、外科医が実質組織を横切開していると推定する。カートリッジデータは、例えば、器具によって発射されているステープルのサイズ又はタイプに対応し得る。カートリッジデータは、異なるタイプの組織に利用される異なるタイプのステープルに対して、ステープル留め及び/又は横切開されている組織のタイプを示し得る。発射されているステープルのタイプは実質組織又は他の同様の組織タイプに利用され、外科用ハブ5104は、区域切除処置が行われていると推定することができる。
続いて第12のステップ5224で、結節切開ステップが行われる。外科用ハブ5104は、RF又は超音波器具が発射されていることを示す、発生器から受信したデータに基づいて、外科チームが結節を切開し、漏れ試験を行っていると推定することができる。この特定の処置の場合、実質組織が横切開された後に利用されるRF又は超音波器具は結節切開ステップに対応しており、これにより外科用ハブ5104がこの推定を行うことができる。異なる器具が特定のタスクに対してより良好に適合するので、外科医が、処置中の特定のステップに応じて、手術用ステープリング/切断器具と手術用エネルギー(すなわち、RF又は超音波)器具とを、定期的に交互に切り替えることに留意されたい。したがって、ステープル留め器具/切断器具及び手術用エネルギー器具が使用される特定のシーケンスは、外科医が処置のどのステップを実行しているかを示すことができる。第12のステップ5224が完了すると、切開部が閉鎖され、処置の術後部分が開始する。
第13のステップ5226では、患者の麻酔を解く。外科用ハブ5104は、例えば、ベンチレータデータに基づいて(すなわち、患者の呼吸速度が増加し始める)、患者が麻酔から覚醒しつつあると推定することができる。
最後に、第14の5228では、医療従事者が患者から様々な患者モニタリングデバイス5124を除去する。したがって、外科用ハブ5104は、ハブがEKG、BP、及び患者モニタリングデバイス5124からの他のデータを喪失したとき、患者が回復室に移送されていると推定することができる。外科用ハブ5104と通信可能に連結された各種データソース5126から受信したデータに従って、外科用ハブ5104は、所与の外科的処置の各ステップが発生しているときを判定又は推定することができる。
図11に示されるタイムライン5200の第1のステップ5202に示されるように、EMRデータベース(複数の場合もある)からの患者データを利用して、行われる外科的処置のタイプを推定することに加えて、患者データはまた、状況認識外科用ハブ5104によって利用されて、ペアリングされたモジュール式デバイス5102の制御調整を生成することができる。
本開示は、拡張ディスプレイを仮想要素で過飽和にすることなく、関連する拡張現実(AR)コンテンツを外科職員に表示するためのシステム、方法、及びデバイスを提供する。外科職員(例えば、医師、看護師、外科医、技術者など)は、外科医の注意をそらすことなく有用な情報を表示することの間で微妙にバランスがとられたARコンテンツを必要とする。外科用ハブは、外科的環境に関連する複数の入力を受信し、外科医が患者に効果的なケアを提供することを可能にするために必要な情報のみを表示する。
様々な態様では、外科用ハブは、状況認識システムによって受信されたトリガイベント又はコンテキストパラメータの評価に応答して表示される仮想要素を生成する(図11)。外科用ハブは、現在の外科的処置、外科的処置における予想される次のステップ、及び/又はアクティブな外科用器具を含む外科的処置及び環境のコンテキスト情報を判定し得る。外科用ハブは、コンテキスト情報を評価し、情報が関連するかどうかを判定し、必要な又は緊急の情報を外科医に提供する。外科医に情報が殺到している場合、外科医は通知を無視し始めるか、又はモニタリングされている情報と緊急通知とを区別するのが困難な時間を有する可能性がある。
加えて、外科用ハブは、外科医にとって有用であるが、遅れ、ジッタ、又は遅延を生成しないリフレッシュレートで、情報を選択的に表示又は更新し得る。ARコンテンツの本質的な構成要素は、ユーザによってリアルタイムで消費されることである。緊急通知は、即座に表示されなければならず、したがって、処理の遅れ及び遅延は、外科的環境において容認できない。ネットワーク及び処理遅延を防止するために、あるトラフィック及び仮想要素が他のものよりも優先され得る。一態様では、特定のパラメータは、外科用ハブによって連続的にモニタリングされ得るが、所定の閾値又はトリガイベントに応答してのみ表示され得る。トリガイベントは、可聴雑音干渉、帯域幅の低又は高可用性、及び医療システムの起動、予期せぬ医療イベントなどを含み得る。
種々の態様では、トリガイベントは、単極又は双極エネルギーシステムなどの外科用システムの結果である、予想される信号中断を含み得る。トリガイベントに応答して、外科用ハブは、ARデバイス上に警告を自動的に表示するか、又は是正措置をとり、ARデバイスを通じて外科職員に通知するように構成され得る。
一態様では、外科用ハブは、高強靭性通信のために冗長通信プロトコルを使用することができる。冗長通信は、ユーザデータグラムプロトコル(UDP)のような低重みパケットよりも高いパケットペイロードを有するが、パケット受信を保証するために、チェックサムなどの内蔵冗長性を備える。外科用ハブは、外科用デバイスが干渉を受けやすい通信プロトコルを用いて外科用ハブに接続されていると判定してもよく、外科用デバイスが低通信スループットBluetooth(登録商標)などのより強靭な通信プロトコルに移動することを提案する。外科用デバイスが通信転送中に干渉を受ける場合、デバイスは、転送を開始し、外科用ハブによって受信されたデータが正確であったことを確認するために、処置後に再走査することができる。
様々な態様では、外科用ハブは、信号干渉を判定及び防止するために、外科的処置の間に存在する複数の外科用システム及び信号を評価する。図12は、予想される信号干渉に対する外科用ハブ6、56(図1~図3、図5~図8)による周波数シフト応答のグラフ表現17100を示す。第1の外科用デバイスによる信号17106の生成に先立って、外科用ハブは、第1の外科用デバイスの使用中に干渉又は信号中断を経験し得る第2の外科用デバイスが信号17104を生成することを外科職員に通知し得る。外科用ハブは、通信信号を第1の外科用デバイスの周波数スペクトル外の異なる周波数にシフトするように第2の外科用デバイスに促し得る。加えて、外科用ハブが、第2の外科用デバイスによる通信が重要な通信であるとみなす場合、外科用ハブは、信号17104の周波数を17102における周波数に自動的にシフトし得る。一例では、2.4GHz周波数帯域は、ワイヤレス通信のためにIEEE 802.11の下で一般に使用されるが、電気機械機器によっても使用される。バイオポーラ又はモノポーラエネルギーシステムは、高いパケット損失、したがって通信遅延をもたらす、2.4GHz周波数帯域内の信号雑音を生成する。信号干渉及び通信遅延を回避するために、外科用ハブは、5.0GHz周波数帯域などの別の周波数帯域を探す。次いで、第2の外科用デバイスは、外科用ハブによって送信されたトリガ通信に基づいて、動的にチャネルホップ又はチャネルホップすることを可能にされ得る。外科的処置の開始前に、外科用ハブは、2つのデバイス間の潜在的な通信干渉を認識することができ、手術の開始時にプロンプトを開始するか、又は予防措置としてチャネルホッピングを自動的に有効にすることができる。
外科用ハブは、実行される特定の処置、処置中に使用される外科用器具、外科用器具を起動しなければならない外科用器具であるときの状況、器具を起動し得るときの柔軟な時間間隔、器具作動による干渉の可能性、及び干渉のタイプを示すコンテキストデータを受信する。この情報に基づいて、外科用ハブは、予想される干渉を回避するために、外科用システムの起動及び通信を自動的にスケジュールすることができる。
図13は、外科用ハブ6、56(図1~図3、図5~図8)によってスケジュールされたデバイス起動及び通信送信のタイムライン17200を示す。外科用ハブは、17202aで外科用システムの起動後まで通信信号17204aを遅延し得る。外科用ハブは、17202bで外科用システムの起動後まで、信号17204bの通信を遅延させることによって、このシーケンスを繰り返す。外科手術は、通信及びデバイス起動の階層に基づいて、通信信号17204が重要な通信であり、他の全てのデバイスが非アクティブ化されることを判定する。典型的には、外科用システム17202は起動されるが、重要な通信のために遅延される。信号送信17204が完了すると、外科用システムは、17202cで起動を再開する。
図14は、複数の要因を評価し、通信及びデバイス起動の階層を判定するためのフロー図17300を示す。外科用ハブ6、56(図1~図3、図5~図8)は、外科的処置におけるデバイス起動のスケジュール及び予想される干渉に基づいて階層を判定し得る(17302)。外科用ハブはまた、重要な要因(例えば、生死の状況)に基づいて、リアルタイムで、特定の通信を優先し得る。外科用ハブは、デバイス又はシステムの有効性を阻害し得る干渉のタイプ、及び干渉が知覚可能である程度を判定する(17304)。例えば、外科用ハブ6、56は、デバイスが、潜在的な干渉を引き起こす信号によって生成され得る干渉/雑音のタイプの影響を受けやすいかどうかを判定する(17304b)。外科用ハブ6、56は、追跡及び位置情報を使用して、第1のデバイスが患者の体内に位置するか又は配置されているかどうかを判定する(17306)。例えば、外科用ハブ6、56は、デバイスが患者の体内に位置しているかどうかを判定する(17306a)。外科用デバイスは、患者及び他のデバイスに対するデバイスの種々の端部の場所を追跡システムが判定することを可能にする近接マーカを備え得る。患者への近接は、デバイスのアクティブな使用又は差し迫った使用を示すことができる。外科用ハブ6、56は、デバイスとシステムとの間の近接関係を判定して、干渉システムの可能性を評価するように構成され得る。外科用ハブ6、56は、潜在的な干渉を引き起こすデバイスに対する第1のデバイスの場所又は近接を判定する(17308)。例えば、外科用ハブ6、56は、デバイスが潜在的な干渉を引き起こすデバイスから所定の距離内に位置するかどうかを判定する(17308a)。更に、外科用ハブ6、56は、潜在的な干渉を引き起こすデバイスによって生成された干渉/雑音タイプに基づいて、影響を受けた近接を判定する(17308b)。外科用ハブ6、56は更に、干渉が伝播することができる所定の範囲を評価することができる。外科用ハブは、状況認識システムに基づいて、通信スケジュール又は起動スケジュールが柔軟であるかどうかを示すコンテキストパラメータを評価する。外科用ハブ6、56は、第1のデバイスがアクティブな使用状態にある/現在機能を実行しているかどうかを判定する(17310)。例えば、外科用ハブ6、56は、デバイスがアクティブ動作モードにあるかどうかを判定する(17310a)。更に、外科用ハブ6、56は、場所、位置、ユーザ入力、電力レベルの変化が、デバイスがアクティブ動作中であるか、又は非アクティブ動作になることを示すかどうかを判定する(17310b)。
第1の外科用デバイスの起動に先立って、第1の外科用デバイスは、潜在的な雑音/干渉誘発イベントが発生しようとしているという通信を外科用ハブに送信する。通信に応答して、外科用ハブは、予想される干渉を緩和するために1つ以上の設定を変更する。一例では、双極アブレーションシステム及び単極アブレーションシステムが、同じ外科的処置中に使用される。単極システムの起動は、双極システムのインピーダンス制御に干渉する。双極が既にサイクル内にあり、単極が起動されている場合、外科用ハブは、両方のデバイスの併用を禁止するのではなく、起動の直前の方法で動作し続けるように、双極制御ループを変更する。インターフェースが停止すると、双極は通常の閉ループ使用に戻る。
別の態様では、外科用ハブは、全ての外科用デバイスの設定又は現在の動作のスナップショットを撮るように構成される。設定のスナップショットは、外科用デバイスのうちの1つ以上が、外科用ハブを再設定し、外科用ハブに再接続するように要求される場合の予防措置として使用される。加えて、スナップショットは、ネットワーク通信設定(例えば、SSID、ネットワークドメイン、無線通信許可)及び潜在的なサブデバイス設定を(データをデバイスに再送信することによって)再確立するために使用され得る。
図15は、エンドエフェクタが組織をクランプし、発射プロセスにあるときのエンドエフェクタ信号及び雑音のグラフィカル表現17400を示す。単極又はマイクロ波アブレーションシステムが起動され、エンドエフェクタの閉ループ発射制御の内部機能に干渉する。信号17406は、干渉信号を表す。マイクロ波アブレーションシステムは、RF過負荷又は飽和イベントを生成し、エンドエフェクタの制御信号に干渉する可能性がある。単極アブレーションシステムは、RFエネルギーを生成し、このRFエネルギーは、雑音を金属シャフト上に伝播して接点に入り込み、同様のRF飽和イベントを引き起こす可能性がある。信号17402は、エンドエフェクタの所望の結果を示し、信号17404は、制御ループセンサの故障を示し、エンドエフェクタを停止させる。干渉イベントが終了すると、外科用ハブは、PWMの誤差項及びレートセルを再ポピュレートし、エンドエフェクタが、停止した場所を再開し、動作を終了することを可能にし得る。
様々な態様では、外科用ハブは、設定及び誤差項の再ポピュレーションが禁止されていると判定し得る。一例では、モータ制御のサブ機能だけでなく、ARMプロセッサ自体が干渉の影響を受ける場合があり、よって、外科用ハブは再ポピュレーションを禁止する。別の実施例では、外科用ハブは、インターフェースの開始から所定の時間量が経過したと判定し、次いで、システムは、再始動されるのではなく、リセットされ得る。他の場合には、外科用ハブは、再ポピュレーションプロセスの一部として追加のステップを開始する必要がある場合がある。肺動脈又は肺静脈切断の場合、システムは、エンドエフェクタが切断を完了することを可能にする前に、組織がクランプ解除され、チェックされ、増強され、又はレビューされることを必要とし得る。
様々な態様では、外科用ハブは、予想される干渉イベントによって直接影響を受ける可能性があるサブデバイスに通知する。警告は、サブデバイスが予想される干渉に対する内部防御を準備することを可能にする。内部防御は、信号干渉の期間を通してデバイスが動作し続けることを可能にする雑音フィルタを有効にすることを含み得る。信号雑音フィルタは、内部信号処理であってもよく、デバイスに組み込まれてもよい。
種々の態様では、外科用ハブは、外部雑音をモニタリングし、次いで、警告を1つ以上の外科用デバイスに通信する、雑音受信機を備える。外部雑音(例えば、可聴、インピーダンス、周波数、又は他の電気信号)が感知され、発生器/デバイス信号(すなわち、音量出力、周波数出力)は、補償するために特定の干渉に従って調整され得る。
様々な態様では、外科用ハブは、互いに競合するか又は潜在的に干渉すると識別されたシステムの組み合わされた起動又は利用を禁止する。外科用ハブは、警告を生成し、次いで、干渉の階層に従って、雑音イベントが有効である間に使用されている間に誤動作し得る任意のデバイスを阻止する(図14)。更に、階層要素は、重要な生命維持処置、デバイスに基づく通信の優先順位付け、及び患者の止血を維持することを含む(図14)。外科用ハブは、通信及びデバイス起動のスケジューリングが外科職員に感知されないように、システムの協調相互作用を優先する。したがって、重要な通信及び重要な生命維持処置が常に優先され得る。
図16は、トリガイベントの予測又は検出に基づく外科用ハブ応答のフロー図17500を示す。外科用ハブは、1つ以上のデバイスに、検出された又は予想された干渉を通知する(17502)。外科用ハブは、全てのデバイス設定のスナップショット17504をとり、デバイスが問題なくリセット及び再ポピュレートされ得るかどうかを判定する。デバイスが許可する場合、外科用ハブは、再ポピュレーションイベントを開始する(17508)。追加的又は代替的に、外科用ハブは、干渉のタイプを判定し(17510)、予想される干渉タイプをサブデバイスシステムに通知する(17512)。サブデバイスは、干渉に対する防御(例えば、チャネルホッピング)を開始する(17514)ことによって応答する。外科用ハブは、重要なシステムの階層に従って、システムの通信及び起動を評価及び判定し得る(17516)。外科用ハブは、システムが同時動作のために協働して相互作用し得るか、又はシステムが順次動作のために優先される必要があるかを判定する(17518)。システムの干渉タイプ及びスケジュールに応答して、外科用ハブは、1つ以上のシステムの動作を防止する(17520)。
様々な態様では、外科用ハブは、開創中に組織に及ぼされる力又は運動の変化に基づいてトリガイベントを判定する。それに応答して、外科用ハブは、AVディスプレイ上に、仮想要素として、組織張力又は開創のリアルタイム測定を提供する同様の測定基準を表示する先制の警告を生成する。加えて、外科用ハブは、患者又は地面に対する変位及び力の測定値を表示し得る。この情報は、外科医が、意図された重力、組織張力、及び把持力を、過度の付随的損傷、又は隣接する接続のために意図されなかった力を生成することなく均衡させるために有用である。
様々な態様では、外科用ハブは、組織上で外科用器具によって生成される力、方向、及び大きさを含む複数の外科用パラメータを連続的にモニタリングし得る。加えて、外科用ハブは、力が特定の場所において所定の閾値を満たすか又は超えることを判定し得る。これに応答して、外科用ハブは、仮想要素の表示を開始し得る。
外科用ハブは、外科的処置の一部として1つ以上の臓器に加えられる力を連続的にモニタリングするように構成され、臓器は、腹腔鏡処置において外科医の視力を補助するために開創させられる。器官を開創したままであることができない場合、外科医の視力が妨げられ得るか、又は器官に損傷がもたらされ得る。外科用ハブは、臓器の位置、動き、及び力の変化を評価するために予測アルゴリズムを使用し得る。予測アルゴリズムは、特定の場所で所定量を超える組織張力の増加の可能性を識別し、外科医に警告を自動的に表示し得る。
警告は、警報、通知、音声若しくは視覚キュー、又はディスプレイ上のメッセージの形態で提供され得る。外科用器具によって生成される組織張力は、ORディスプレイ上にリアルタイムで表示され得る。システムは、患者及び/又は地面に関連する力、張力、及び/又は力若しくは張力の変化を測定及びモニタリングするように構成される。システムは、力の開始、力が開始された時間を検出し、張力又は力の予想量と比較し得る。リアルタイムディスプレイは、組織張力が意図されるレベルを超えたときに警告を提供して、意図されない組織損傷及び過度の付随的結果を防止するように構成される。
ここで図17及び図18を参照して、本開示は、外科的処置中の外科用デバイス21の相互作用を管理するための方法17260の説明に移る。図18に示される方法17260は、図17に示されるシステム17250によって実施され得る。方法17260によれば、外科用ハブ56は、外科的環境からコンテキストパラメータを判定する(17262)。図17に示され、図6により詳細に示されるように、外科用ハブ56は、他の構成要素の中でも特に、メモリ45に連結された制御回路31(例えば、プロセッサ)を含むコンピュータ60を備える。外科用ハブ56は、コンテキストパラメータに基づいて、手術室で行われている特定の外科的処置を判定する(17264)。外科用ハブ56は、遠隔サーバ63から処置データを受信する(17266)。処置データは、特定の外科的処置に関連するステップ及び外科用器具21を示す。外科用ハブ56は、処置データ及びコンテキストパラメータに基づいて、トリガイベントが予想されることを判定する(17268)。外科用ハブ56は、外科用器具21及び処置データに従って応答を開始する(17270)。
方法17260の他の態様では、外科用ハブ56は、外科的処置の現在の処置ステップを更に判定し得る。現在の処置ステップは、第1の外科用デバイス21を起動させ、外科用ハブ56は、第1の外科用デバイス21が第2の外科用デバイス21の通信に干渉すると予想されることを判定する。したがって、外科用ハブ56は、予想される干渉を第2の外科用デバイス21に通知し、第2の外科用デバイス21に対する干渉防御を可能にする。一態様では、外科用ハブ56によって可能にされる干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである。
方法17260の他の態様では、外科用ハブ56は、外科的処置の現在の処置ステップを更に判定し得る。現在の処置ステップは、第1の外科用デバイス21を起動させる。外科用ハブ56は、第1の外科用デバイス21が第2の外科用デバイス21の通信に干渉することが予想されると判定する。外科用ハブ56は、第1の外科用デバイス21及び第2の外科用デバイス21が協調スケジュールで動作可能であると判定する。次いで、外科用ハブ56は、第1の外科用デバイス21を起動し、第1の外科用デバイスの起動を完了したことに応答して、外科用ハブは、第2の外科用デバイス21の通信を開始し得る。
方法17260の他の態様では、トリガイベントは、組織が開創されている間に組織上に呈される力の変化に関連付けられる。力の変化は、外科用デバイス21からの読み取り値に基づいて外科用ハブ56によって判定され、所定の組織張力を超えることに基づく。更に、方法17260によれば、外科用ハブ56は、拡張現実(AR)デバイス66上に表示する仮想要素を生成する。仮想要素は、開創された組織のモニタリング情報を提供する。
本明細書に記載される主題の様々な追加的態様は、以下の番号付けされた実施例において説明される。
実施例1:外科用システムであって、遠隔サーバと、拡張現実(AR)出力デバイスと、1つ以上の外科用デバイスと、遠隔サーバ、1つ以上の外科用デバイス、及びAR出力デバイスに通信可能に連結された外科用ハブであって、メモリに連結された制御回路を備える外科用ハブと、を備え、制御回路は、外科的環境からコンテキストパラメータを判定することと、コンテキストパラメータから、手術室で実行されている特定の外科的処置を判定することと、遠隔サーバから、処置データを受信することであって、処置データが、特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、処置データ及びコンテキストパラメータに基づいて、トリガイベントが予想されると判定することと、外科用器具及び処置データに従って、予想されるトリガイベントに対する応答を開始することと、を行うように構成されている、外科用システム。
実施例1:外科用システムであって、遠隔サーバと、拡張現実(AR)出力デバイスと、1つ以上の外科用デバイスと、遠隔サーバ、1つ以上の外科用デバイス、及びAR出力デバイスに通信可能に連結された外科用ハブであって、メモリに連結された制御回路を備える外科用ハブと、を備え、制御回路は、外科的環境からコンテキストパラメータを判定することと、コンテキストパラメータから、手術室で実行されている特定の外科的処置を判定することと、遠隔サーバから、処置データを受信することであって、処置データが、特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、処置データ及びコンテキストパラメータに基づいて、トリガイベントが予想されると判定することと、外科用器具及び処置データに従って、予想されるトリガイベントに対する応答を開始することと、を行うように構成されている、外科用システム。
実施例2:制御回路は、外科的処置の現在の処置ステップを判定することであって、現在の処置ステップが第1の外科用デバイスを起動させる、ことと、第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、予想される干渉を第2の外科用デバイスに通知することと、第2の外科用デバイスに対する干渉防御を可能にすることと、を行うように更に構成されている、実施例1に記載のシステム。
実施例3:干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、実施例2に記載のシステム。
実施例4:制御回路は、外科的処置の現在の処置ステップを判定することであって、現在の処置ステップが第1の外科用デバイスを起動させる、ことと、第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、第1の外科用デバイス及び第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を行うように更に構成されている、実施例1~3のいずれか1つに記載のシステム。
実施例5:制御回路は、第1の外科用デバイスを起動し、第1の外科用デバイスの起動が完了したことに応答して、第2の外科用デバイスの通信を開始するように更に構成されている、実施例4に記載のシステム。
実施例6:制御回路は、優先順位の階層に従って外科的処置に関連付けられた複数の外科用デバイスを評価し、優先順位の階層に基づいて協調スケジュールを判定するように更に構成されている、実施例1~5のいずれか1つに記載のシステム。
実施例7:制御回路は、第1の外科用デバイスが重大な健康機能に関連付けられていると判定し、第1の外科用デバイスからの通信送信中に他の全てのデバイスの起動を禁止するように更に構成されている、実施例1~6のいずれか1つに記載のシステム。
実施例8:トリガイベントは、組織上に呈される力の変化と関連付けられ、組織は開創されている、実施例1~7のいずれか1つに記載のシステム。
実施例9:応答は、ARデバイス上に表示する仮想要素を生成する、実施例1~8のいずれか1つに記載のシステム。
実施例10:力の変化は、所定の組織張力を超えることに基づいて判定される、実施例9に記載のシステム。
実施例11:外科用ハブは、ARデバイス上に表示する仮想要素を生成し、仮想要素は、開創された組織に関するモニタリング情報を提供する、実施例9に記載のシステム。
実施例12:仮想要素は、開創された組織に固定される、実施例11に記載のシステム。
実施例13:外科的処置中の外科用デバイスの相互作用を管理するための方法であって、外科用ハブによって、外科的環境からコンテキストパラメータを判定することと、外科用ハブによって、コンテキストパラメータに基づいて手術室内で行われている特定の外科的処置を判定することと、外科用ハブによって、遠隔サーバから処置データであって、処置データが、特定の外科的処置に関連付けられたステップ及び外科用器具を示す処置データを受信することと、外科用ハブによって、処置データ及びコンテキストパラメータに基づいてトリガイベントが予想されると判定することと、外科用ハブによって、外科用器具及び処置データに従って応答を開始することと、を含む方法。
実施例14:外科用ハブによって、外科的処置の現在の処置ステップを判定することであって、現在の処置ステップが第1の外科用デバイスを起動させる、ことと、外科用ハブによって、第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、外科用ハブによって、予想される干渉を第2の外科用デバイスに通知することと、外科用ハブによって、第2の外科用デバイスに対する干渉防御を可能にすることと、を更に含む、実施例13に記載の方法。
実施例15:干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、実施例14に記載の方法。
実施例16:外科用ハブによって、外科的処置の現在の処置ステップを判定することであって、現在の処置ステップが第1の外科用デバイスを起動させる、ことと、外科用ハブによって、第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、外科用ハブによって、第1の外科用デバイス及び第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を更に含む、実施例13~15のいずれか1つに記載の方法。
実施例17:外科用ハブによって、第1の外科用デバイスを起動することと、第1の外科用デバイスの起動を完了したことに応答して、外科用ハブによって、第2の外科用デバイスの通信を開始することと、を更に含む、実施例16に記載の方法。
実施例18:トリガイベントは、組織上に呈される力の変化と関連付けられ、組織は開創されている、実施例13~17のいずれか1つに記載の方法。
実施例19:力の変化は、所定の組織張力を超えることに基づいて判定される、実施例18に記載の方法。
実施例20:外科用ハブは、拡張現実(AR)デバイス上に表示する仮想要素を生成し、仮想要素は、開創された組織に関するモニタリング情報を提供する、実施例18に記載の方法。
いくつかの形態が示され説明されてきたが、添付の特許請求の範囲をそのような詳細に制限又は限定することは、本出願人が意図するところではない。多くの修正、変形、変更、置換、組み合わせ及びこれらの形態の等価物を実装することができ、本開示の範囲から逸脱することなく当業者により想到されるであろう。更に、記述する形態に関連した各要素の構造は、その要素によって実施される機能を提供するための手段として代替的に説明することができる。また、材料が特定の構成要素に関して開示されているが、他の材料が使用されてもよい。したがって、上記の説明文及び添付の特許請求の範囲は、全てのそのような修正、組み合わせ、及び変形を、開示される形態の範囲に含まれるものとして網羅することを意図としたものである点を理解されたい。添付の特許請求の範囲は、全てのそのような修正、変形、変更、置換、修正、及び等価物を網羅することを意図する。
上記の詳細な説明は、ブロック図、フロー図及び/又は実施例を用いて、装置及び/又はプロセスの様々な形態について記載してきた。そのようなブロック図、フロー図及び/又は実施例が1つ以上の機能及び/又は動作を含む限り、当業者に理解されたいこととして、そのようなブロック図、フロー図及び/又は実施例に含まれる各機能及び/又は動作は、多様なハードウェア、ソフトウェア、ファームウェア又はこれらの事実上の任意の組み合わせによって、個々にかつ/又は集合的に実装することができる。当業者には、本明細書で開示される形態のうちのいくつかの態様の全部又は一部が、1台以上のコンピュータ上で稼働する1つ以上のコンピュータプログラムとして(例えば、1台以上のコンピュータシステム上で稼働する1つ以上のプログラムとして)、1つ以上のプロセッサ上で稼働する1つ以上のプログラムとして(例えば、1つ以上のマイクロプロセッサ上で稼働する1つ以上のプログラムとして)、ファームウェアとして、又はこれらの実質的に任意の組み合わせとして集積回路上で等価に実装することができ、回路を設計すること、並びに/又はソフトウェア及び/若しくはファームウェアのコードを記述することは、本開示を鑑みれば当業者の技能の範囲内に含まれることが理解されよう。加えて、当業者には理解されることとして、本明細書に記載した主題の機構は、多様な形態で1つ以上のプログラム製品として配布されることが可能であり、本明細書に記載した主題の具体的な形態は、配布を実際に実行するために使用される信号搬送媒体の特定のタイプにかかわらず適用される。
様々な開示された態様を実施するように論理をプログラムするために使用される命令は、ダイナミックランダムアクセスメモリ(DRAM)、キャッシュ、フラッシュメモリ又は他のストレージなどのシステム内メモリに記憶され得る。更に、命令は、ネットワークを介して、又は他のコンピュータ可読媒体によって配布され得る。したがって、機械可読媒体としては、機械(例えば、コンピュータ)によって読み出し可能な形態で情報を記憶又は送信するための任意の機構が挙げられ得るが、フロッピーディスケット、光ディスク、コンパクトディスク、読み出し専用メモリ(CD-ROM)、並びに磁気光学ディスク、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、消去可能プログラマブル読み出し専用メモリ(EPROM)、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、磁気若しくは光カード、フラッシュメモリ又は、電気的、光学的、音響的、若しくは他の形態の伝播信号(例えば、搬送波、赤外線信号、デジタル信号など)を介してインターネットを介した情報の送信に使用される有形機械可読ストレージに限定されない。したがって、非一時的コンピュータ可読媒体としては、機械(例えば、コンピュータ)によって読み出し可能な形態で電子命令又は情報を記憶又は送信するのに好適な任意のタイプの有形機械可読媒体が挙げられる。
本明細書の任意の態様で使用されるとき、「制御回路」という用語は、例えば、ハードワイヤード回路、プログラマブル回路(例えば、1つ以上の個々の命令処理コアを含むコンピュータプロセッサ、処理ユニット、プロセッサ、マイクロコントローラ、マイクロコントローラユニット、コントローラ、デジタル信号プロセッサ(DSP)、プログラマブル論理装置(PLD)、プログラマブル論理アレイ(PLA)、又はフィールドプログラマブルゲートアレイ(FPGA))、状態機械回路、プログラマブル回路によって実行される命令を記憶するファームウェア、及びこれらの任意の組み合わせを指すことができる。制御回路は、集合的に又は個別に、例えば、集積回路(IC)、特定用途向け集積回路(ASIC)、システムオンチップ(SoC)、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、サーバ、スマートフォンなどの、より大きなシステムの一部を形成する回路として具現化され得る。したがって、本明細書で使用されるとき、「制御回路」は、少なくとも1つの個別の電気回路を有する電気回路、少なくとも1つの集積回路を有する電気回路、少なくとも1つの特定用途向け集積回路を有する電気回路、コンピュータプログラムによって構成された汎用コンピューティング装置(例えば、本明細書で説明したプロセス及び/若しくは装置を少なくとも部分的に実行するコンピュータプログラムによって構成された汎用コンピュータ、又は本明細書で説明したプロセス及び/若しくは装置を少なくとも部分的に実行するコンピュータプログラムによって構成されたマイクロプロセッサ)を形成する電気回路、メモリ装置(例えば、ランダムアクセスメモリの形態)を形成する電気回路及び/又は通信装置(例えばモデム、通信スイッチ、又は光-電気設備)を形成する電気回路を含むが、これらに限定されない。当業者は、本明細書で述べた主題が、アナログ形式若しくはデジタル形式、又はこれらのいくつかの組み合わせで実装されてもよいことを認識するであろう。
本明細書の任意の態様で使用されるとき、「論理」という用語は、前述の動作のいずれかを実施するように構成されたアプリケーション、ソフトウェア、ファームウェア、及び/又は回路を指し得る。ソフトウェアは、非一時的コンピュータ可読記憶媒体上に記録されたソフトウェアパッケージ、コード、命令、命令セット、及び/又はデータとして具現化されてもよい。ファームウェアは、メモリ装置内のコード、命令、若しくは命令セット、及び/又はハードコードされた(例えば、不揮発性の)データとして具現化されてもよい。
本明細書の任意の態様で使用されるとき、「構成要素」、「システム」、「モジュール」等という用語は、制御回路、コンピュータ関連エンティティ、ハードウェア、ハードウェアとソフトウェアとの組み合わせ、ソフトウェア、又は実行中のソフトウェアのいずれかを指すことができる。
本明細書の任意の態様で使用されるとき、「アルゴリズム」とは、所望の結果につながるステップの自己無撞着シーケンスを指し、「ステップ」とは、必ずしも必要ではないが、記憶、転送、組み合わせ、比較、及び別様に操作されることが可能な電気信号又は磁気信号の形態をとることができる物理量及び/又は論理状態の操作を指す。これらの信号を、ビット、値、要素、記号、文字、用語、番号などとして言及することが一般的な扱い方である。これらの及び類似の用語は、適切な物理量と関連付けられてもよく、また単に、これらの量及び/又は状態に適用される便利な標識である。
ネットワークとしては、パケット交換ネットワークが挙げられ得る。通信デバイスは、選択されたパケット交換ネットワーク通信プロトコルを使用して、互いに通信することができる。1つの例示的な通信プロトコルとしては、伝送制御プロトコル/インターネットプロトコル(TCP/IP)を使用して通信を可能にすることができるイーサネット通信プロトコルを挙げることができる。イーサネットプロトコルは、Institute of Electrical and Electronics Engineers(IEEE)によって発行された2008年12月発行の表題「IEEE802.3 Standard」、及び/又は本規格の後のバージョンのイーサネット規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、通信デバイスは、X.25通信プロトコルを使用して互いに通信することができる。X.25通信プロトコルは、International Telecommunication Union-Telecommunication Standardization Sector(ITU-T)によって公布された規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、通信デバイスは、フレームリレー通信プロトコルを使用して互いに通信することができる。フレームリレー通信プロトコルは、Consultative Committee for International Telegraph and Telephone(CCITT)及び/又はthe American National Standards Institute(ANSI)によって公布された規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、送受信機は、非同期転送モード(ATM)通信プロトコルを使用して互いに通信することが可能であり得る。ATM通信プロトコルは、ATM Forumによって「ATM-MPLS Network Interworking 2.0」という題で2001年8月に公開されたATM規格及び/又は本規格の後のバージョンに準拠するか、又は互換性があり得る。当然のことながら、異なる及び/又は後に開発されたコネクション型ネットワーク通信プロトコルは、本明細書で等しく企図される。
別段の明確な定めがない限り、前述の開示から明らかなように、前述の開示全体を通じて、「処理すること(processing)」、「計算すること(computing)」、「算出すること(calculating)」、「判定すること(determining)」、「表示すること(displaying)」などの用語を使用する考察は、コンピュータシステムのレジスタ及びメモリ内で物理(電子的)量として表現されるデータを、コンピュータシステムのメモリ若しくはレジスタ又は他のそのような情報記憶、伝送、若しくは表示装置内で物理量として同様に表現される他のデータへと操作し変換する、コンピュータシステム又は類似の電子計算装置のアクション及び処理を指していることが理解されよう。
1つ以上の構成要素が、本明細書中で、「ように構成されている(configured to)」、「ように構成可能である(configurable to)」、「動作可能である/ように動作する(operable/operative to)」、「適合される/適合可能である(adapted/adaptable)」、「ことが可能である(able to)」、「準拠可能である/準拠する(conformable/conformed to)」などと言及され得る。当業者は、「ように構成されている」は、一般に、文脈上他の意味に解釈すべき場合を除き、アクティブ状態の構成要素及び/又は非アクティブ状態の構成要素及び/又はスタンバイ状態の構成要素を包含し得ることを理解するであろう。
「近位」及び「遠位」という用語は、本明細書では、外科用器具のハンドル部分を操作する臨床医を基準として使用される。「近位」という用語は、臨床医に最も近い部分を指し、「遠位」という用語は、臨床医から離れた位置にある部分を指す。便宜上及び明確性のために、「垂直」、「水平」、「上」、及び「下」などの空間的用語が、本明細書において図面に対して使用され得ることが更に理解されよう。しかしながら、外科用器具は、多くの向き及び位置で使用されるものであり、これらの用語は限定的及び/又は絶対的であることを意図したものではない。
当業者は、一般に、本明細書で使用され、かつ特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本文)で使用される用語は、概して「オープンな」用語として意図されるものである(例えば、「含む(including)」という用語は、「~を含むが、それらに限定されない(including but not limited to)」と解釈されるべきであり、「有する(having)」という用語は「~を少なくとも有する(having at least)」と解釈されるべきであり、「含む(includes)」という用語は「~を含むが、それらに限定されない(includes but is not limited to)」と解釈されるべきであるなど)ことを理解するであろう。更に、導入された請求項記載(introduced claim recitation)において特定の数が意図される場合、かかる意図は当該請求項中に明確に記載され、またかかる記載がない場合は、かかる意図は存在しないことが、当業者には理解されるであろう。例えば、理解を助けるものとして、後続の添付の特許請求の範囲は、「少なくとも1つの(at least one)」及び「1つ以上の(one or more)」という導入句を、請求項記載を導入するために含むことがある。しかしながら、かかる句の使用は、「a」又は「an」という不定冠詞によって請求項記載を導入した場合に、たとえ同一の請求項内に「1つ以上の」又は「少なくとも1つの」といった導入句及び「a」又は「an」という不定冠詞が含まれる場合であっても、かかる導入された請求項記載を含むいかなる特定の請求項も、かかる記載事項を1つのみ含む請求項に限定されると示唆されるものと解釈されるべきではない(例えば、「a」及び/又は「an」は通常、「少なくとも1つの」又は「1つ以上の」を意味するものと解釈されるべきである)。定冠詞を使用して請求項記載を導入する場合にも、同様のことが当てはまる。
加えて、導入された請求項記載において特定の数が明示されている場合であっても、かかる記載は、典型的には、少なくとも記載された数を意味するものと解釈されるべきであることが、当業者には認識されるであろう(例えば、他に修飾語のない、単なる「2つの記載事項」という記載がある場合、一般的に、少なくとも2つの記載事項、又は2つ以上の記載事項を意味する)。更に、「A、B及びCなどのうちの少なくとも1つ」に類する表記が使用される場合、一般に、かかる構文は、当業者がその表記を理解するであろう意味で意図されている(例えば、「A、B及びCのうちの少なくとも1つを有するシステム」は、限定するものではないが、Aのみ、Bのみ、Cのみ、AとBの両方、AとCの両方、BとCの両方及び/又はAとBとCの全てなどを有するシステムを含む)。「A、B又はCなどのうちの少なくとも1つ」に類する表記が用いられる場合、一般に、かかる構文は、当業者がその表記を理解するであろう意味で意図されている(例えば、「A、B、又はCのうちの少なくとも1つを有するシステム」は、限定するものではないが、Aのみ、Bのみ、Cのみ、AとBの両方、AとCの両方、BとCの両方及び/又はAとBとCの全てなどを有するシステムを含む)。更に、典型的には、2つ以上の選択的な用語を表すあらゆる選言的な語及び/又は句は、文脈上他の意味に解釈すべき場合を除いて、明細書内であろうと、請求の範囲内であろうと、あるいは図面内であろうと、それら用語のうちの1つ、それらの用語のうちのいずれか、又はそれらの用語の両方を含む可能性を意図すると理解されるべきであることが、当業者には理解されよう。例えば、「A又はB」という句は、典型的には、「A」又は「B」又は「A及びB」の可能性を含むものと理解されよう。
添付の特許請求の範囲に関して、当業者は、本明細書における引用した動作は一般に、任意の順序で実施され得ることを理解するであろう。また、様々な動作のフロー図がシーケンス(複数可)で示されているが、様々な動作は、示されたもの以外の順序で実施されてもよく、又は同時に実施されてもよいことが理解されるべきである。かかる代替の順序付けの例は、文脈上他の意味に解釈すべき場合を除いて、重複、交互配置、割り込み、再順序付け、増加的、予備的、追加的、同時、逆又は他の異なる順序付けを含んでもよい。更に、「~に応答する(responsive to)」、「~に関連する(related to)」といった用語、又は他の過去時制の形容詞は、一般に、文脈上他の意味に解釈すべき場合を除き、かかる変化形を除外することが意図されるものではない。
「一態様」、「態様」、「例示」、「一例示」などへの任意の参照は、その態様に関連して記載される特定の特徴部、構造又は特性が少なくとも1つの態様に含まれると意味することは特記に値する。したがって、本明細書の全体を通じて様々な場所に見られる語句「一態様では」、「態様では」、「例示では」及び「一例示では」は、必ずしも全てが同じ態様を指すものではない。更に、特定の特徴、構造、又は特性は、1つ以上の態様において任意の好適な様態で組み合わせることができる。
本明細書で参照され、かつ/又は任意の出願データシートに列挙される任意の特許出願、特許、非特許刊行物、又は他の開示資料は、組み込まれる資料が本明細書と矛盾しない範囲で、参照により本明細書に組み込まれる。それ自体、また必要な範囲で、本明細書に明瞭に記載される開示は、参照により本明細書に組み込まれるあらゆる矛盾する記載に優先するものとする。参照により本明細書に組み込まれると言及されているが、現行の定義、見解、又は本明細書に記載される他の開示内容と矛盾するあらゆる内容、又はそれらの部分は、組み込まれた内容と現行の開示内容との間に矛盾が生じない範囲においてのみ、組み込まれるものとする。
要約すると、本明細書に記載した構想を用いる結果として得られる多くの利益が記載されてきた。1つ以上の形態の上述の記載は、例示及び説明を目的として提示されているものである。包括的であることも、開示された厳密な形態に限定することも意図されていない。上記の教示を鑑みて、修正又は変形が可能である。1つ以上の形態は、原理及び実際の応用について例示し、それによって、様々な形態を様々な修正例とともに、想到される特定の用途に適するものとして当業者が利用することを可能にするようにするために、選択及び記載されたものである。本明細書とともに提示される特許請求の範囲が全体的な範囲を定義することが意図される。
〔実施の態様〕
(1) 外科用システムであって、
遠隔サーバと、
拡張現実(AR)出力デバイスと、
1つ以上の外科用デバイスと、
前記遠隔サーバ、前記1つ以上の外科用デバイス、及び前記AR出力デバイスに通信可能に連結された外科用ハブであって、メモリに連結された制御回路を備える、外科用ハブと、を備え、前記制御回路は、
外科的環境からコンテキストパラメータを判定することと、
前記コンテキストパラメータから、手術室で実行されている特定の外科的処置を判定することと、
前記遠隔サーバから、処置データを受信することであって、前記処置データが、前記特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、
前記処置データ及び前記コンテキストパラメータに基づいて、トリガイベントが予想されると判定することと、
前記外科用器具及び前記処置データに従って、前記予想されるトリガイベントに対する応答を開始することと、を行うように構成されている、外科用システム。
(2) 前記制御回路は、
前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記予想される干渉を前記第2の外科用デバイスに通知することと、
前記第2の外科用デバイスに対する干渉防御を可能にすることと、を行うように更に構成されている、実施態様1に記載の外科用システム。
(3) 前記干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、実施態様2に記載の外科用システム。
(4) 前記制御回路は、
前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記第1の外科用デバイス及び前記第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を行うように更に構成されている、実施態様1に記載の外科用システム。
(5) 前記制御回路は、
前記第1の外科用デバイスを起動し、
第1の外科用デバイスの起動が完了したことに応答して、前記第2の外科用デバイスの前記通信を開始するように更に構成されている、実施態様4に記載の外科用システム。
(1) 外科用システムであって、
遠隔サーバと、
拡張現実(AR)出力デバイスと、
1つ以上の外科用デバイスと、
前記遠隔サーバ、前記1つ以上の外科用デバイス、及び前記AR出力デバイスに通信可能に連結された外科用ハブであって、メモリに連結された制御回路を備える、外科用ハブと、を備え、前記制御回路は、
外科的環境からコンテキストパラメータを判定することと、
前記コンテキストパラメータから、手術室で実行されている特定の外科的処置を判定することと、
前記遠隔サーバから、処置データを受信することであって、前記処置データが、前記特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、
前記処置データ及び前記コンテキストパラメータに基づいて、トリガイベントが予想されると判定することと、
前記外科用器具及び前記処置データに従って、前記予想されるトリガイベントに対する応答を開始することと、を行うように構成されている、外科用システム。
(2) 前記制御回路は、
前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記予想される干渉を前記第2の外科用デバイスに通知することと、
前記第2の外科用デバイスに対する干渉防御を可能にすることと、を行うように更に構成されている、実施態様1に記載の外科用システム。
(3) 前記干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、実施態様2に記載の外科用システム。
(4) 前記制御回路は、
前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記第1の外科用デバイス及び前記第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を行うように更に構成されている、実施態様1に記載の外科用システム。
(5) 前記制御回路は、
前記第1の外科用デバイスを起動し、
第1の外科用デバイスの起動が完了したことに応答して、前記第2の外科用デバイスの前記通信を開始するように更に構成されている、実施態様4に記載の外科用システム。
(6) 前記制御回路は、
優先順位の階層に従って、前記外科的処置に関連付けられた複数の外科用デバイスを評価し、
前記優先順位の階層に基づいて協調スケジュールを判定するように更に構成されている、実施態様1に記載の外科用システム。
(7) 前記制御回路は、
第1の外科用デバイスが重大な健康機能に関連付けられていると判定し、
前記第1の外科用デバイスからの通信送信中に他の全てのデバイスの起動を禁止するように更に構成されている、実施態様1に記載の外科用システム。
(8) 前記トリガイベントは、組織上に呈される力の変化と関連付けられ、前記組織は開創されている、実施態様1に記載の外科用システム。
(9) 前記応答は、前記ARデバイス上に表示する仮想要素を生成する、実施態様1に記載の外科用システム。
(10) 力の変化は、所定の組織張力を超えることに基づいて判定される、実施態様9に記載の外科用システム。
優先順位の階層に従って、前記外科的処置に関連付けられた複数の外科用デバイスを評価し、
前記優先順位の階層に基づいて協調スケジュールを判定するように更に構成されている、実施態様1に記載の外科用システム。
(7) 前記制御回路は、
第1の外科用デバイスが重大な健康機能に関連付けられていると判定し、
前記第1の外科用デバイスからの通信送信中に他の全てのデバイスの起動を禁止するように更に構成されている、実施態様1に記載の外科用システム。
(8) 前記トリガイベントは、組織上に呈される力の変化と関連付けられ、前記組織は開創されている、実施態様1に記載の外科用システム。
(9) 前記応答は、前記ARデバイス上に表示する仮想要素を生成する、実施態様1に記載の外科用システム。
(10) 力の変化は、所定の組織張力を超えることに基づいて判定される、実施態様9に記載の外科用システム。
(11) 前記外科用ハブは、前記ARデバイス上に表示する仮想要素を生成し、前記仮想要素は、開創された組織に関するモニタリング情報を提供する、実施態様9に記載の外科用システム。
(12) 前記仮想要素は、前記開創された組織に固定される、実施態様11に記載の外科用システム。
(13) 外科的処置中に外科用デバイスの相互作用を管理するための方法であって、
外科用ハブによって、外科的環境からコンテキストパラメータを判定することと、
前記外科用ハブによって、前記コンテキストパラメータに基づいて手術室内で行われている特定の外科的処置を判定することと、
前記外科用ハブによって、遠隔サーバから処置データを受信することであって、前記処置データが、前記特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、
前記外科用ハブによって、前記処置データ及び前記コンテキストパラメータに基づいてトリガイベントが予想されると判定することと、
前記外科用ハブによって、前記外科用器具及び前記処置データに従って応答を開始することと、を含む、方法。
(14) 前記外科用ハブによって、前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記外科用ハブによって、前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記外科用ハブによって、前記予想される干渉を前記第2の外科用デバイスに通知することと、
前記外科用ハブによって、前記第2の外科用デバイスに対する干渉防御を可能にすることと、を更に含む、実施態様13に記載の方法。
(15) 前記干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、実施態様14に記載の方法。
(12) 前記仮想要素は、前記開創された組織に固定される、実施態様11に記載の外科用システム。
(13) 外科的処置中に外科用デバイスの相互作用を管理するための方法であって、
外科用ハブによって、外科的環境からコンテキストパラメータを判定することと、
前記外科用ハブによって、前記コンテキストパラメータに基づいて手術室内で行われている特定の外科的処置を判定することと、
前記外科用ハブによって、遠隔サーバから処置データを受信することであって、前記処置データが、前記特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、
前記外科用ハブによって、前記処置データ及び前記コンテキストパラメータに基づいてトリガイベントが予想されると判定することと、
前記外科用ハブによって、前記外科用器具及び前記処置データに従って応答を開始することと、を含む、方法。
(14) 前記外科用ハブによって、前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記外科用ハブによって、前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記外科用ハブによって、前記予想される干渉を前記第2の外科用デバイスに通知することと、
前記外科用ハブによって、前記第2の外科用デバイスに対する干渉防御を可能にすることと、を更に含む、実施態様13に記載の方法。
(15) 前記干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、実施態様14に記載の方法。
(16) 前記外科用ハブによって、前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記外科用ハブによって、前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記外科用ハブによって、前記第1の外科用デバイス及び前記第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を更に含む、実施態様13に記載の方法。
(17) 前記外科用ハブによって、前記第1の外科用デバイスを起動することと、
第1の外科用デバイスの起動を完了したことに応答して、前記外科用ハブによって、前記第2の外科用デバイスの通信を開始することと、を更に含む、実施態様16に記載の方法。
(18) 前記トリガイベントは、組織上に呈される力の変化と関連付けられ、前記組織は開創されている、実施態様13に記載の方法。
(19) 前記力の変化は、所定の組織張力を超えることに基づいて判定される、実施態様18に記載の方法。
(20) 前記外科用ハブは、拡張現実(AR)デバイス上に表示する仮想要素を生成し、前記仮想要素は、開創された組織に関するモニタリング情報を提供する、実施態様18に記載の方法。
前記外科用ハブによって、前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記外科用ハブによって、前記第1の外科用デバイス及び前記第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を更に含む、実施態様13に記載の方法。
(17) 前記外科用ハブによって、前記第1の外科用デバイスを起動することと、
第1の外科用デバイスの起動を完了したことに応答して、前記外科用ハブによって、前記第2の外科用デバイスの通信を開始することと、を更に含む、実施態様16に記載の方法。
(18) 前記トリガイベントは、組織上に呈される力の変化と関連付けられ、前記組織は開創されている、実施態様13に記載の方法。
(19) 前記力の変化は、所定の組織張力を超えることに基づいて判定される、実施態様18に記載の方法。
(20) 前記外科用ハブは、拡張現実(AR)デバイス上に表示する仮想要素を生成し、前記仮想要素は、開創された組織に関するモニタリング情報を提供する、実施態様18に記載の方法。
Claims (20)
- 外科用システムであって、
遠隔サーバと、
拡張現実(AR)出力デバイスと、
1つ以上の外科用デバイスと、
前記遠隔サーバ、前記1つ以上の外科用デバイス、及び前記AR出力デバイスに通信可能に連結された外科用ハブであって、メモリに連結された制御回路を備える、外科用ハブと、を備え、前記制御回路は、
外科的環境からコンテキストパラメータを判定することと、
前記コンテキストパラメータから、手術室で実行されている特定の外科的処置を判定することと、
前記遠隔サーバから、処置データを受信することであって、前記処置データが、前記特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、
前記処置データ及び前記コンテキストパラメータに基づいて、トリガイベントが予想されると判定することと、
前記外科用器具及び前記処置データに従って、前記予想されるトリガイベントに対する応答を開始することと、を行うように構成されている、外科用システム。 - 前記制御回路は、
前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記予想される干渉を前記第2の外科用デバイスに通知することと、
前記第2の外科用デバイスに対する干渉防御を可能にすることと、を行うように更に構成されている、請求項1に記載の外科用システム。 - 前記干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、請求項2に記載の外科用システム。
- 前記制御回路は、
前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記第1の外科用デバイス及び前記第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を行うように更に構成されている、請求項1に記載の外科用システム。 - 前記制御回路は、
前記第1の外科用デバイスを起動し、
第1の外科用デバイスの起動が完了したことに応答して、前記第2の外科用デバイスの前記通信を開始するように更に構成されている、請求項4に記載の外科用システム。 - 前記制御回路は、
優先順位の階層に従って、前記外科的処置に関連付けられた複数の外科用デバイスを評価し、
前記優先順位の階層に基づいて協調スケジュールを判定するように更に構成されている、請求項1に記載の外科用システム。 - 前記制御回路は、
第1の外科用デバイスが重大な健康機能に関連付けられていると判定し、
前記第1の外科用デバイスからの通信送信中に他の全てのデバイスの起動を禁止するように更に構成されている、請求項1に記載の外科用システム。 - 前記トリガイベントは、組織上に呈される力の変化と関連付けられ、前記組織は開創されている、請求項1に記載の外科用システム。
- 前記応答は、前記ARデバイス上に表示する仮想要素を生成する、請求項1に記載の外科用システム。
- 力の変化は、所定の組織張力を超えることに基づいて判定される、請求項9に記載の外科用システム。
- 前記外科用ハブは、前記ARデバイス上に表示する仮想要素を生成し、前記仮想要素は、開創された組織に関するモニタリング情報を提供する、請求項9に記載の外科用システム。
- 前記仮想要素は、前記開創された組織に固定される、請求項11に記載の外科用システム。
- 外科的処置中に外科用デバイスの相互作用を管理するための方法であって、
外科用ハブによって、外科的環境からコンテキストパラメータを判定することと、
前記外科用ハブによって、前記コンテキストパラメータに基づいて手術室内で行われている特定の外科的処置を判定することと、
前記外科用ハブによって、遠隔サーバから処置データを受信することであって、前記処置データが、前記特定の外科的処置に関連付けられたステップ及び外科用器具を示す、ことと、
前記外科用ハブによって、前記処置データ及び前記コンテキストパラメータに基づいてトリガイベントが予想されると判定することと、
前記外科用ハブによって、前記外科用器具及び前記処置データに従って応答を開始することと、を含む、方法。 - 前記外科用ハブによって、前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記外科用ハブによって、前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記外科用ハブによって、前記予想される干渉を前記第2の外科用デバイスに通知することと、
前記外科用ハブによって、前記第2の外科用デバイスに対する干渉防御を可能にすることと、を更に含む、請求項13に記載の方法。 - 前記干渉防御は、予想される干渉周波数帯域の外側の通信信号からシフトするように構成された周波数シフトプロトコルである、請求項14に記載の方法。
- 前記外科用ハブによって、前記外科的処置の現在の処置ステップを判定することであって、前記現在の処置ステップが第1の外科用デバイスを起動させる、ことと、
前記外科用ハブによって、前記第1の外科用デバイスが第2の外科用デバイスの通信に干渉することが予想されると判定することと、
前記外科用ハブによって、前記第1の外科用デバイス及び前記第2の外科用デバイスが協調スケジュールで動作可能であると判定することと、を更に含む、請求項13に記載の方法。 - 前記外科用ハブによって、前記第1の外科用デバイスを起動することと、
第1の外科用デバイスの起動を完了したことに応答して、前記外科用ハブによって、前記第2の外科用デバイスの通信を開始することと、を更に含む、請求項16に記載の方法。 - 前記トリガイベントは、組織上に呈される力の変化と関連付けられ、前記組織は開創されている、請求項13に記載の方法。
- 前記力の変化は、所定の組織張力を超えることに基づいて判定される、請求項18に記載の方法。
- 前記外科用ハブは、拡張現実(AR)デバイス上に表示する仮想要素を生成し、前記仮想要素は、開創された組織に関するモニタリング情報を提供する、請求項18に記載の方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163174674P | 2021-04-14 | 2021-04-14 | |
US63/174,674 | 2021-04-14 | ||
US202163284326P | 2021-11-30 | 2021-11-30 | |
US63/284,326 | 2021-11-30 | ||
US17/688,656 US20220331051A1 (en) | 2021-04-14 | 2022-03-07 | Utilizing contextual parameters of one or more surgical devices to predict a frequency interval for displaying surgical information |
US17/688,656 | 2022-03-07 | ||
PCT/IB2022/053378 WO2022219503A1 (en) | 2021-04-14 | 2022-04-11 | Utilizing contextual parameters of one or more surgical devices to predict a frequency interval for displaying surgical information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024514637A true JP2024514637A (ja) | 2024-04-02 |
Family
ID=83601401
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023562917A Pending JP2024514882A (ja) | 2021-04-14 | 2022-04-11 | オーバーレイされたデータ及び構成のカスタマイズ |
JP2023563019A Pending JP2024514635A (ja) | 2021-04-14 | 2022-04-11 | 両方のオーバーレイが実行されることになる相互作用する器具の協調的オーバーレイ |
JP2023562919A Pending JP2024514883A (ja) | 2021-04-14 | 2022-04-11 | 遠隔デバイス機能を有する遠隔制御の組ペアのインジケーション |
JP2023562913A Pending JP2024514881A (ja) | 2021-04-14 | 2022-04-11 | 手術視野におけるオーバーレイを制御するための外科用データ値及び状況認識の利用 |
JP2023563024A Pending JP2024514637A (ja) | 2021-04-14 | 2022-04-11 | 外科用情報を表示する頻度間隔を予測するための1つ以上の外科用デバイスのコンテキストパラメータの利用 |
JP2023563015A Pending JP2024514634A (ja) | 2021-04-14 | 2022-04-11 | 外科用データオーバーレイを制御するためのシステム及び方法 |
JP2023563011A Pending JP2024514633A (ja) | 2021-04-14 | 2022-04-11 | 手術視野における表示態様のリスクベースの優先順位付け |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023562917A Pending JP2024514882A (ja) | 2021-04-14 | 2022-04-11 | オーバーレイされたデータ及び構成のカスタマイズ |
JP2023563019A Pending JP2024514635A (ja) | 2021-04-14 | 2022-04-11 | 両方のオーバーレイが実行されることになる相互作用する器具の協調的オーバーレイ |
JP2023562919A Pending JP2024514883A (ja) | 2021-04-14 | 2022-04-11 | 遠隔デバイス機能を有する遠隔制御の組ペアのインジケーション |
JP2023562913A Pending JP2024514881A (ja) | 2021-04-14 | 2022-04-11 | 手術視野におけるオーバーレイを制御するための外科用データ値及び状況認識の利用 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023563015A Pending JP2024514634A (ja) | 2021-04-14 | 2022-04-11 | 外科用データオーバーレイを制御するためのシステム及び方法 |
JP2023563011A Pending JP2024514633A (ja) | 2021-04-14 | 2022-04-11 | 手術視野における表示態様のリスクベースの優先順位付け |
Country Status (6)
Country | Link |
---|---|
US (17) | US20220331053A1 (ja) |
EP (7) | EP4136645A1 (ja) |
JP (7) | JP2024514882A (ja) |
CN (7) | CN117501378A (ja) |
BR (6) | BR112023021249A2 (ja) |
WO (4) | WO2022219499A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11250947B2 (en) * | 2017-02-24 | 2022-02-15 | General Electric Company | Providing auxiliary information regarding healthcare procedure and system performance using augmented reality |
US11350978B2 (en) | 2018-09-07 | 2022-06-07 | Cilag Gmbh International | Flexible neutral electrode |
US11804679B2 (en) | 2018-09-07 | 2023-10-31 | Cilag Gmbh International | Flexible hand-switch circuit |
US11696789B2 (en) | 2018-09-07 | 2023-07-11 | Cilag Gmbh International | Consolidated user interface for modular energy system |
US11923084B2 (en) | 2018-09-07 | 2024-03-05 | Cilag Gmbh International | First and second communication protocol arrangement for driving primary and secondary devices through a single port |
US11743665B2 (en) | 2019-03-29 | 2023-08-29 | Cilag Gmbh International | Modular surgical energy system with module positional awareness sensing with time counter |
USD939545S1 (en) | 2019-09-05 | 2021-12-28 | Cilag Gmbh International | Display panel or portion thereof with graphical user interface for energy module |
US20220294825A1 (en) * | 2021-03-12 | 2022-09-15 | Noviflow Inc. | Trusted dynamic server identification system and method |
US12040749B2 (en) | 2021-03-30 | 2024-07-16 | Cilag Gmbh International | Modular energy system with dual amplifiers and techniques for updating parameters thereof |
US11950860B2 (en) | 2021-03-30 | 2024-04-09 | Cilag Gmbh International | User interface mitigation techniques for modular energy systems |
US12004824B2 (en) | 2021-03-30 | 2024-06-11 | Cilag Gmbh International | Architecture for modular energy system |
US11978554B2 (en) | 2021-03-30 | 2024-05-07 | Cilag Gmbh International | Radio frequency identification token for wireless surgical instruments |
US11857252B2 (en) | 2021-03-30 | 2024-01-02 | Cilag Gmbh International | Bezel with light blocking features for modular energy system |
US11980411B2 (en) | 2021-03-30 | 2024-05-14 | Cilag Gmbh International | Header for modular energy system |
US11968776B2 (en) | 2021-03-30 | 2024-04-23 | Cilag Gmbh International | Method for mechanical packaging for modular energy system |
US11963727B2 (en) | 2021-03-30 | 2024-04-23 | Cilag Gmbh International | Method for system architecture for modular energy system |
US20220331053A1 (en) * | 2021-04-14 | 2022-10-20 | Cilag Gmbh International | Intraoperative display for surgical systems |
WO2022241123A1 (en) * | 2021-05-14 | 2022-11-17 | Snap Inc. | Reducing startup time of augmented reality experience |
USD1003915S1 (en) * | 2021-08-19 | 2023-11-07 | Covidien Lp | Surgeon display screen with a graphical user interface having electrosurgical buttons |
US20230059343A1 (en) * | 2021-08-21 | 2023-02-23 | Ix Innovation Llc | Telemetry-based control of robotic systems |
US20230055383A1 (en) * | 2021-08-23 | 2023-02-23 | Summate Technologies, Inc. | Integrated Data Capture of Sterile and Non-Sterile Surgical Supplies and Implantables |
US20230138204A1 (en) * | 2021-11-02 | 2023-05-04 | International Business Machines Corporation | Augmented reality object interaction and notification |
US20230156174A1 (en) * | 2021-11-17 | 2023-05-18 | 3Dintegrated Aps | Surgical visualization image enhancement |
US20230146255A1 (en) * | 2021-11-09 | 2023-05-11 | Aadg, Inc. | Attack resistant, energy harvesting, and adaptable interactive panel |
US12094031B2 (en) * | 2022-03-11 | 2024-09-17 | International Business Machines Corporation | Mixed reality based contextual evaluation of object dimensions |
US20230328494A1 (en) * | 2022-04-08 | 2023-10-12 | Shreyas Sen | Distributed body area network computing system, method and computer program products |
WO2023205059A1 (en) * | 2022-04-17 | 2023-10-26 | Korion Health, Inc. | Electronic stethoscope and diagnostic algorithm |
EP4356396A1 (en) * | 2022-06-02 | 2024-04-24 | Cilag GmbH International | Customization, troubleshooting, and wireless pairing techniques for surgical instruments |
US12079460B2 (en) | 2022-06-28 | 2024-09-03 | Cilag Gmbh International | Profiles for modular energy system |
US20240221924A1 (en) * | 2022-12-30 | 2024-07-04 | Cilag Gmbh International | Detection of knock-off or counterfeit surgical devices |
US12089906B1 (en) * | 2023-09-27 | 2024-09-17 | Sovato Health, Inc. | Systems and methods for remotely controlling robotic surgery |
US12064202B1 (en) | 2023-11-15 | 2024-08-20 | Sovato Health, Inc. | Systems and methods for allowing remote robotic surgery |
Family Cites Families (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7212208B2 (en) * | 2003-02-25 | 2007-05-01 | Bahram Khozai | System and method to present and display multiple data using enhanced box charts |
FR2855292B1 (fr) * | 2003-05-22 | 2005-12-09 | Inst Nat Rech Inf Automat | Dispositif et procede de recalage en temps reel de motifs sur des images, notamment pour le guidage par localisation |
US9789608B2 (en) * | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US20070211930A1 (en) * | 2006-03-09 | 2007-09-13 | Terry Dolwick | Attribute based image enhancement and display for medical imaging applications |
US8982195B2 (en) * | 2006-09-07 | 2015-03-17 | Abbott Medical Optics Inc. | Digital video capture system and method with customizable graphical overlay |
JP5357045B2 (ja) * | 2006-12-21 | 2013-12-04 | コーニンクレッカ フィリップス エヌ ヴェ | 電気的に絶縁される、ワイヤレスセンサを備えたカテーテル |
US8167793B2 (en) * | 2008-04-26 | 2012-05-01 | Intuitive Surgical Operations, Inc. | Augmented stereoscopic visualization for a surgical robot using time duplexing |
JP5203858B2 (ja) * | 2008-09-01 | 2013-06-05 | 富士フイルム株式会社 | 医用画像表示装置、医用画像表示方法、並びに医用画像表示プログラム |
EP2227063B1 (en) * | 2009-03-04 | 2012-03-14 | Fujitsu Limited | Improvements to wireless sensor networks |
US8521331B2 (en) * | 2009-11-13 | 2013-08-27 | Intuitive Surgical Operations, Inc. | Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument |
US8730251B2 (en) * | 2010-06-07 | 2014-05-20 | Apple Inc. | Switching video streams for a display without a visible interruption |
KR101840312B1 (ko) * | 2010-08-02 | 2018-03-20 | 더 존스 홉킨스 유니버시티 | 협동 로봇 제어 및 음향 피드백을 사용하여 힘 센서 정보를 나타내기 위한 방법 |
US8670816B2 (en) * | 2012-01-30 | 2014-03-11 | Inneroptic Technology, Inc. | Multiple medical device guidance |
US9055870B2 (en) * | 2012-04-05 | 2015-06-16 | Welch Allyn, Inc. | Physiological parameter measuring platform device supporting multiple workflows |
US11871901B2 (en) * | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US20150019259A1 (en) * | 2013-06-24 | 2015-01-15 | Acupera, Inc. | Systems and Methods for Establishing and Updating Clinical Care Pathways |
WO2015034535A1 (en) * | 2013-09-09 | 2015-03-12 | Empire Technology Development, Llc | Augmented reality alteration detector |
US9935794B1 (en) * | 2014-03-24 | 2018-04-03 | Marvell International Ltd. | Carrier frequency offset estimation |
KR102460203B1 (ko) * | 2014-10-27 | 2022-10-31 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 통합 수술 테이블 아이콘을 위한 시스템 및 방법 |
US11504192B2 (en) * | 2014-10-30 | 2022-11-22 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US10013808B2 (en) * | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
EP3258876B1 (en) * | 2015-02-20 | 2023-10-18 | Covidien LP | Operating room and surgical site awareness |
US20160287337A1 (en) * | 2015-03-31 | 2016-10-06 | Luke J. Aram | Orthopaedic surgical system and method for patient-specific surgical procedure |
EP3426179B1 (en) * | 2016-03-12 | 2023-03-22 | Philipp K. Lang | Devices for surgery |
CN110140335B (zh) * | 2016-11-10 | 2022-08-12 | 瑞典爱立信有限公司 | 用于改进递送性能的资源分段 |
US11487353B2 (en) * | 2016-11-14 | 2022-11-01 | Logitech Europe S.A. | Systems and methods for configuring a hub-centric virtual/augmented reality environment |
US10754416B2 (en) * | 2016-11-14 | 2020-08-25 | Logitech Europe S.A. | Systems and methods for a peripheral-centric augmented/virtual reality environment |
CN110199357B (zh) * | 2017-01-17 | 2023-07-14 | 皇家飞利浦有限公司 | 提供背景叠加的增强现实介入系统 |
US9788907B1 (en) * | 2017-02-28 | 2017-10-17 | Kinosis Ltd. | Automated provision of real-time custom procedural surgical guidance |
US9892564B1 (en) * | 2017-03-30 | 2018-02-13 | Novarad Corporation | Augmenting real-time views of a patient with three-dimensional data |
EP3622529A1 (en) * | 2017-05-08 | 2020-03-18 | Masimo Corporation | System for pairing a medical system to a network controller by use of a dongle |
US10242502B2 (en) * | 2017-07-27 | 2019-03-26 | Facebook, Inc. | Providing an augmented reality overlay for display over a view of a user |
US11432877B2 (en) * | 2017-08-02 | 2022-09-06 | Medtech S.A. | Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking |
US10610310B2 (en) * | 2017-10-02 | 2020-04-07 | Robin Elizabeth McKenzie TODD | User interface system and methods for overlaying surgical video output |
WO2019081350A1 (en) * | 2017-10-23 | 2019-05-02 | Koninklijke Philips N.V. | SERVICE INSTRUCTION LIBRARY BASED ON SELF-EXPANSION ENHANCED REALITY |
US11564756B2 (en) * | 2017-10-30 | 2023-01-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11071595B2 (en) * | 2017-12-14 | 2021-07-27 | Verb Surgical Inc. | Multi-panel graphical user interface for a robotic surgical system |
US11659023B2 (en) * | 2017-12-28 | 2023-05-23 | Cilag Gmbh International | Method of hub communication |
US11304699B2 (en) * | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11969142B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws |
US11056244B2 (en) * | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks |
US11937769B2 (en) * | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US11424027B2 (en) * | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Method for operating surgical instrument systems |
US11844579B2 (en) * | 2017-12-28 | 2023-12-19 | Cilag Gmbh International | Adjustments based on airborne particle properties |
US11589888B2 (en) | 2017-12-28 | 2023-02-28 | Cilag Gmbh International | Method for controlling smart energy devices |
US11969216B2 (en) * | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
US11266468B2 (en) * | 2017-12-28 | 2022-03-08 | Cilag Gmbh International | Cooperative utilization of data derived from secondary sources by intelligent surgical hubs |
US20230072423A1 (en) * | 2018-01-25 | 2023-03-09 | Meta Platforms Technologies, Llc | Wearable electronic devices and extended reality systems including neuromuscular sensors |
US11114199B2 (en) * | 2018-01-25 | 2021-09-07 | Mako Surgical Corp. | Workflow systems and methods for enhancing collaboration between participants in a surgical procedure |
CN110520932A (zh) * | 2018-01-26 | 2019-11-29 | 外科手术室公司 | 用于患者参与的系统和方法 |
WO2019148154A1 (en) * | 2018-01-29 | 2019-08-01 | Lang Philipp K | Augmented reality guidance for orthopedic and other surgical procedures |
US10825563B2 (en) * | 2018-05-14 | 2020-11-03 | Novarad Corporation | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient |
US11287874B2 (en) * | 2018-11-17 | 2022-03-29 | Novarad Corporation | Using optical codes with augmented reality displays |
US11103312B2 (en) * | 2019-04-02 | 2021-08-31 | Verb Surgical Inc. | Method and system for predicting current paths and evaluating electrical burn risks of a monopolar electrosurgery tool |
DE102019109189B3 (de) * | 2019-04-08 | 2020-08-13 | Schölly Fiberoptic GmbH | Vorrichtung und Verfahren zur Bearbeitung von Datenströmen |
US11272990B2 (en) * | 2019-10-29 | 2022-03-15 | Alcon Inc. | System and method of utilizing three-dimensional overlays with medical procedures |
EP4051331A4 (en) * | 2019-10-31 | 2022-12-28 | Terumo Cardiovascular Systems Corporation | HEART LUNG MACHINE WITH AUGMENTED REALITY DISPLAY |
EP4031050A4 (en) * | 2019-11-05 | 2024-01-10 | Vicarious Surgical Inc. | SURGICAL VIRTUAL REALITY USER INTERFACE |
US20210174956A1 (en) * | 2019-12-06 | 2021-06-10 | McGinley Engineered Solutions. LLC | Smart orthopedic instrument with ar display |
US11992373B2 (en) * | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
US11818413B2 (en) * | 2019-12-17 | 2023-11-14 | Infosys Limited | System and method for dynamic generation of charts in a personalized video |
US11896442B2 (en) * | 2019-12-30 | 2024-02-13 | Cilag Gmbh International | Surgical systems for proposing and corroborating organ portion removals |
US20220409300A1 (en) * | 2020-01-15 | 2022-12-29 | Intuitive Surgical Operations, Inc. | Systems and methods for providing surgical assistance based on operational context |
US11464581B2 (en) * | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) * | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11224485B2 (en) * | 2020-04-05 | 2022-01-18 | Theator inc. | Image analysis for detecting deviations from a surgical plane |
US11510750B2 (en) * | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11382700B2 (en) * | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US20230317248A1 (en) * | 2020-05-29 | 2023-10-05 | Medtronic, Inc. | Presentation of patient information for cardiac blood flow procedures |
US11748924B2 (en) * | 2020-10-02 | 2023-09-05 | Cilag Gmbh International | Tiered system display control based on capacity and user operation |
US20220104896A1 (en) * | 2020-10-02 | 2022-04-07 | Ethicon Llc | Interactive information overlay on multiple surgical displays |
US11992372B2 (en) * | 2020-10-02 | 2024-05-28 | Cilag Gmbh International | Cooperative surgical displays |
US11914835B2 (en) * | 2020-11-16 | 2024-02-27 | Samsung Electronics Co., Ltd. | Method for displaying user interface and electronic device therefor |
US20220188545A1 (en) * | 2020-12-10 | 2022-06-16 | International Business Machines Corporation | Augmented reality enhanced situational awareness |
US11461986B2 (en) * | 2021-01-27 | 2022-10-04 | Qualcomm Incorporated | Context-aware extended reality systems |
US11478327B2 (en) * | 2021-02-18 | 2022-10-25 | Xenco Medical, Inc. | Surgical display |
WO2022192585A1 (en) * | 2021-03-10 | 2022-09-15 | Onpoint Medical, Inc. | Augmented reality guidance for imaging systems and robotic surgery |
US20220331053A1 (en) * | 2021-04-14 | 2022-10-20 | Cilag Gmbh International | Intraoperative display for surgical systems |
US11838563B2 (en) * | 2021-04-15 | 2023-12-05 | Synamedia Limited | Switching between transmitting a preauthored video frame and a composited video frame |
KR20240089660A (ko) * | 2021-10-15 | 2024-06-20 | 버브 서지컬 인크. | 수술 중 시각화를 위한 장치, 시스템 및 방법 |
US20230157757A1 (en) * | 2021-11-23 | 2023-05-25 | Medtronic, Inc. | Extended Intelligence for Pulmonary Procedures |
US20230157762A1 (en) * | 2021-11-23 | 2023-05-25 | Medtronic, Inc. | Extended Intelligence Ecosystem for Soft Tissue Luminal Applications |
-
2022
- 2022-03-07 US US17/688,663 patent/US20220331053A1/en active Pending
- 2022-03-07 US US17/688,633 patent/US20220331050A1/en active Pending
- 2022-03-07 US US17/688,605 patent/US20220335660A1/en active Pending
- 2022-03-07 US US17/688,646 patent/US20220331056A1/en active Pending
- 2022-03-07 US US17/688,615 patent/US20220336097A1/en active Pending
- 2022-03-07 US US17/688,597 patent/US20220331048A1/en active Pending
- 2022-03-07 US US17/688,671 patent/US20220335696A1/en active Pending
- 2022-03-07 US US17/688,655 patent/US20220336078A1/en active Pending
- 2022-03-07 US US17/688,626 patent/US20220331049A1/en active Pending
- 2022-03-07 US US17/688,641 patent/US20220338049A1/en active Pending
- 2022-03-07 US US17/688,653 patent/US20220331013A1/en active Pending
- 2022-03-07 US US17/688,660 patent/US20220331052A1/en active Pending
- 2022-03-07 US US17/688,667 patent/US20220331054A1/en active Pending
- 2022-03-07 US US17/688,589 patent/US20220331047A1/en active Pending
- 2022-03-07 US US17/688,651 patent/US20220335604A1/en active Pending
- 2022-03-07 US US17/688,638 patent/US20220334787A1/en active Pending
- 2022-03-07 US US17/688,656 patent/US20220331051A1/en active Pending
- 2022-04-11 CN CN202280040795.1A patent/CN117501378A/zh active Pending
- 2022-04-11 EP EP22716541.2A patent/EP4136645A1/en active Pending
- 2022-04-11 EP EP22716538.8A patent/EP4136644A1/en active Pending
- 2022-04-11 CN CN202280040157.XA patent/CN117501377A/zh active Pending
- 2022-04-11 JP JP2023562917A patent/JP2024514882A/ja active Pending
- 2022-04-11 EP EP22718804.2A patent/EP4136653A1/en active Pending
- 2022-04-11 JP JP2023563019A patent/JP2024514635A/ja active Pending
- 2022-04-11 BR BR112023021249A patent/BR112023021249A2/pt unknown
- 2022-04-11 JP JP2023562919A patent/JP2024514883A/ja active Pending
- 2022-04-11 EP EP22718800.0A patent/EP4136652A1/en active Pending
- 2022-04-11 JP JP2023562913A patent/JP2024514881A/ja active Pending
- 2022-04-11 JP JP2023563024A patent/JP2024514637A/ja active Pending
- 2022-04-11 BR BR112023021464A patent/BR112023021464A2/pt unknown
- 2022-04-11 EP EP22718798.6A patent/EP4136650A1/en active Pending
- 2022-04-11 BR BR112023021241A patent/BR112023021241A2/pt unknown
- 2022-04-11 BR BR112023021473A patent/BR112023021473A2/pt unknown
- 2022-04-11 EP EP22718791.1A patent/EP4136646A1/en active Pending
- 2022-04-11 JP JP2023563015A patent/JP2024514634A/ja active Pending
- 2022-04-11 CN CN202280042372.3A patent/CN117581308A/zh active Pending
- 2022-04-11 CN CN202280040424.3A patent/CN117441362A/zh active Pending
- 2022-04-11 WO PCT/IB2022/053371 patent/WO2022219499A1/en active Application Filing
- 2022-04-11 WO PCT/IB2022/053378 patent/WO2022219503A1/en active Application Filing
- 2022-04-11 WO PCT/IB2022/053369 patent/WO2022219497A1/en active Application Filing
- 2022-04-11 CN CN202280041956.9A patent/CN117480565A/zh active Pending
- 2022-04-11 WO PCT/IB2022/053362 patent/WO2022219490A1/en active Application Filing
- 2022-04-11 BR BR112023021253A patent/BR112023021253A2/pt unknown
- 2022-04-11 BR BR112023021240A patent/BR112023021240A2/pt unknown
- 2022-04-11 EP EP22718803.4A patent/EP4128854A1/en active Pending
- 2022-04-11 JP JP2023563011A patent/JP2024514633A/ja active Pending
- 2022-04-11 CN CN202280039646.3A patent/CN117425935A/zh active Pending
- 2022-05-12 CN CN202280042720.7A patent/CN117501585A/zh active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024514637A (ja) | 外科用情報を表示する頻度間隔を予測するための1つ以上の外科用デバイスのコンテキストパラメータの利用 | |
JP2024517603A (ja) | 手術視野における選択的かつ調節可能な複合現実オーバーレイ | |
JP2024514884A (ja) | 外科用システムのためのオーバーレイ器具情報の適合及び調整可能性 | |
JP2024514638A (ja) | 外科用システムのための術中ディスプレイ | |
JP2024514636A (ja) | 異なるユーザによる共通データオーバーレイのインタラクティブ利用の予測 | |
EP4143844A1 (en) | System and method for tracking a portion of the user as a proxy for non-monitored instrument | |
JP2024514885A (ja) | 複合データフィードの効率的な認知を高めるように協働する複合現実フィードバックシステム | |
JP2024513991A (ja) | トリガイベントに基づいて術野のディスプレイオーバーレイを変更するためのシステム及び方法 | |
CN117546253A (zh) | 协作以增加复杂数据馈送的有效感知的混合现实反馈系统 | |
CN117480562A (zh) | 外科视野中选择性和可调节的混合现实叠加 | |
WO2022219504A1 (en) | Cooperative overlays of interacting instruments which result in both overlays being effected | |
JP2024514640A (ja) | 画面上及び画面外で発生する混合された要素及びアクションを表示するレンダリングされた要素で直接視覚化される混合 | |
CN117480563A (zh) | 用于外科系统的术中显示器 | |
WO2022219488A1 (en) | Systems and methods for controlling surgical data overlay | |
CN117441212A (zh) | 用渲染元素将混合直接可视化以显示混合元素以及在屏幕上和在屏幕外正在发生的动作 | |
CN117461093A (zh) | 基于触发事件来改变外科视野的显示叠加项的系统和方法 |