JP2024514635A - 両方のオーバーレイが実行されることになる相互作用する器具の協調的オーバーレイ - Google Patents

両方のオーバーレイが実行されることになる相互作用する器具の協調的オーバーレイ Download PDF

Info

Publication number
JP2024514635A
JP2024514635A JP2023563019A JP2023563019A JP2024514635A JP 2024514635 A JP2024514635 A JP 2024514635A JP 2023563019 A JP2023563019 A JP 2023563019A JP 2023563019 A JP2023563019 A JP 2023563019A JP 2024514635 A JP2024514635 A JP 2024514635A
Authority
JP
Japan
Prior art keywords
surgical
surgical instrument
display
hub
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023563019A
Other languages
English (en)
Inventor
シェルトン・ザ・フォース・フレデリック・イー
アダムス・シェーン・アール
カウパースウェイト・マシュー・ディー
フィービッグ・ケビン・エム
キンボール・コリー・ジー
リヴァード・モニカ・エル・ゼット
ロッソーニ・レオナルド・エヌ
コイチェフ・リスト
ボーク・フェリックス・ジェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cilag GmbH International
Original Assignee
Cilag GmbH International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cilag GmbH International filed Critical Cilag GmbH International
Priority claimed from PCT/IB2022/053384 external-priority patent/WO2022219504A1/en
Publication of JP2024514635A publication Critical patent/JP2024514635A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/068Surgical staplers, e.g. containing multiple staples or clamps
    • A61B17/072Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
    • A61B17/07207Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously the staples being applied sequentially
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/105Multiple levels of security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/50Secure pairing of devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/10Scheduling measurement reports ; Arrangements for measurement reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/068Surgical staplers, e.g. containing multiple staples or clamps
    • A61B17/072Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
    • A61B17/07292Reinforcements for staple line, e.g. pledgets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/11Surgical instruments, devices or methods, e.g. tourniquets for performing anastomosis; Buttons for anastomosis
    • A61B17/115Staplers for performing anastomosis in a single operation
    • A61B17/1155Circular staplers comprising a plurality of staples
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00026Conductivity or impedance, e.g. of tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00084Temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00106Sensing or detecting at the treatment site ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00128Electrical control of surgical instruments with audible or visual output related to intensity or progress of surgical action
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00818Treatment of the gastro-intestinal system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/068Surgical staplers, e.g. containing multiple staples or clamps
    • A61B17/072Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
    • A61B2017/07214Stapler heads
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/068Surgical staplers, e.g. containing multiple staples or clamps
    • A61B17/072Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
    • A61B2017/07214Stapler heads
    • A61B2017/07271Stapler heads characterised by its cartridge
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/11Surgical instruments, devices or methods, e.g. tourniquets for performing anastomosis; Buttons for anastomosis
    • A61B2017/1132End-to-end connections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/42Gynaecological or obstetrical instruments or methods
    • A61B2017/4216Operations on uterus, e.g. endometrium
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00898Alarms or notifications created in response to an abnormal condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • A61B2090/3975Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2217/00General characteristics of surgical instruments
    • A61B2217/002Auxiliary appliance
    • A61B2217/005Auxiliary appliance with suction drainage system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2217/00General characteristics of surgical instruments
    • A61B2217/002Auxiliary appliance
    • A61B2217/007Auxiliary appliance with irrigation system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks

Abstract

相互作用する機器に基づく協調的オーバーレイを表示するための装置、システム、及び方法が本明細書で開示される。一態様では、協調的オーバーレイを表示するための方法は、第1の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、第1の拡張現実ディスプレイデバイスによって、術野の第1の術中ディスプレイを生成することと、第1の術中ディスプレイによって、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示することと、第1の外科用器具を第2の外科用器具と相互作用させることと、第1の術中ディスプレイによって、第1の外科用器具と第2の外科用器具との間の相互作用に基づく相互作用のインジケータを表示することと、を含む。

Description

(関連出願の相互参照)
本出願は、米国特許法第119条(e)の下で、2021年4月14日に出願された「HEADS UP DISPLAY」と題する米国仮特許出願第63/174,674号、及び2021年11月30日に出願された「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国仮特許出願第63/284,326号に対する利益を主張するものであり、これらの各々の開示は、その全体が参照により本明細書に組み込まれる。
本開示は、外科的処置中に拡張現実インタラクティブ体験を提供するための装置、システム、及び方法に関する。外科的処置中に、実世界に存在するオブジェクトが、時には視覚、聴覚、触覚、体性感覚、及び嗅覚を含む複数の感覚モダリティにわたって、コンピュータ生成された知覚情報をオーバーレイすることによって強化される、実世界環境の拡張現実インタラクティブ体験を提供することが望ましいであろう。本開示の文脈では、術野並びに術野に現れる外科用器具及び他のオブジェクトの画像は、コンピュータ生成された視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚情報を、術野並びに術野に現れる器具又は他のオブジェクトの実世界画像上にオーバーレイすることによって強化される。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。
実世界の外科用器具は、エネルギー、ステープラ、又はエネルギーとステープラとの組合せを含む、種々の外科用デバイスを含む。エネルギーベースの医療デバイスは、限定ではないが、とりわけ、無線周波数(RF)ベースの単極及び双極電気外科用器具、超音波外科用器具、RF電気外科用器具と超音波器具との組合せ、RF電気外科用ステープラと機械的ステープラとの組合せを含む。外科用ステープラデバイスは、肥満、胸部、結腸直腸、産婦人科、泌尿器科、及び一般外科を含む、種々の外科的処置において組織を切断及びステープル留めするために使用される外科用器具である。
様々な態様では、本開示は、相互作用する器具の協調的オーバーレイを表示するための方法を提供する。いくつかの態様では、本方法は、第1の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、第1の拡張現実ディスプレイデバイスによって、術野の第1の術中ディスプレイを生成することと、第1の術中ディスプレイによって、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示することと、第1の外科用器具を第2の外科用器具と相互作用させることと、第1の術中ディスプレイによって、第1の外科用器具と第2の外科用器具との間の相互作用に基づく相互作用のインジケータを表示することと、を含む。
様々な態様では、本開示は、相互作用する器具の協調的オーバーレイを表示するためのシステムを提供する。いくつかの態様では、システムは、術野の第1の術中ディスプレイを生成するように構成された第1の拡張現実ディスプレイデバイスと、第1の外科用器具と、第2の外科用器具と、第1のディスプレイデバイスに通信可能に連結された外科用ハブと、を備える。一態様では、第1の術中ディスプレイは、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示する。別の態様では、第1の外科用器具と第2の外科用器具との相互作用により、第1の術中ディスプレイが相互作用のインジケータを表示する。
構成及び操作方法の両方に関して本明細書で説明する様々な態様は、それらの更なる目的及び利点とともに、以下の説明を以下の添付図面と併せて参照することで最良に理解され得る。
本開示の一態様による、コンピュータ実装インタラクティブ外科用システムのブロック図である。 本開示の一態様による、手術室内で外科的処置を実行するために使用される外科用システムの図である。 本開示の一態様による、可視化システム、ロボットシステム、及びインテリジェント器具とペアリングされた外科用ハブである。 本開示の一態様による、医療施設の1つ以上の手術現場、又は外科手術のための専門設備を備えた医療施設内の任意の部屋に位置しているモジュール式デバイスをクラウドに接続するように構成されたモジュール式通信ハブを含む外科用データネットワークを示す図である。 本開示の一態様による、コンピュータ実装インタラクティブ外科用システムを示す図である。 本開示の一態様による、モジュール式制御タワーに連結された複数のモジュールを含む外科用ハブを示す図である。 本開示の一態様による、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す図である。 本開示の一態様による、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す図である。 本開示の一態様による、外科用ハブにデータを通信するために外科医によって装着される拡張現実(AR)デバイスを示す図である。 本開示の一態様による、拡張現実ディスプレイを使用して外科用器具情報を拡張するためのシステムを示す図である。 本開示の一態様による、状況認識外科的処置のタイムラインを示す図である。 本開示の一態様による、本開示の一態様による、接続された外科用デバイスの組合せに基づいて機能を有効にするための方法のフローチャートである。 本開示の一態様による、複数の外科用器具が互いに近接して使用されることが意図されているかどうかを決定するための方法のフローチャートである。 本開示の一態様による、識別コード並びに対応する識別コードテーブルを含む外科用器具を示す図である。 本開示の一態様による、術野内の組織と相互作用するエンドカッタ及び外科用把持具を表示する例示的な術中ディスプレイを示す図である。 本開示の一態様による、術野内の組織と相互作用するエンドカッタ及び外科用把持具を表示する例示的な術中ディスプレイを示す図である。 本開示の一態様による、アンビル及びデバイスデッキを使用した吻合処置の性能を表示する例示的な術中ディスプレイを示す図である。 本開示の一態様による、アンビル及びデバイスデッキを使用した吻合処置の性能を表示する例示的な術中ディスプレイを示す図である。 本開示の一態様による、アンビル及びデバイスデッキを使用した吻合処置の性能を表示する例示的な術中ディスプレイを示す図である。 本開示の一態様による、アンビル及びデバイスデッキを使用した吻合処置の性能を表示する例示的な術中ディスプレイを示す図である。 本開示の一態様による、相互作用する器具の協調的オーバーレイを表示するための方法のフローチャートである。
複数の図面を通して、対応する参照符号は対応する部分を示す。本明細書に記載された例示は、様々な開示された実施形態を一形態で示しており、そのような例示は、その範囲を限定するものとして決して解釈されるべきではない。
本出願の出願人は、各開示の全体が参照により本明細書に組み込まれる、同時に出願された以下の米国特許出願を所有する。
●「METHOD FOR INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題された米国特許出願;代理人整理番号END9352USNP1/210120-1M、
●「UTILIZATION OF SURGICAL DATA VALUES AND SITUATIONAL AWARENESS TO CONTROL THE OVERLAY IN SURGICAL FIELD VIEW」と題された米国特許出願;代理人整理番号END9352USNP2/210120-2、
●「SELECTIVE AND ADJUSTABLE MIXED REALITY OVERLAY IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP3/210120-3、
●「RISK BASED PRIORITIZATION OF DISPLAY ASPECTS IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP4/210120-4、
●「SYSTEMS AND METHODS FOR CONTROLLING SURGICAL DATA OVERLAY」と題する米国特許出願;代理人整理番号END9352USNP5/210120-5、
●「SYSTEMS AND METHODS FOR CHANGING DISPLAY OVERLAY OF SURGICAL FIELD VIEW BASED ON TRIGGERING EVENTS」と題する米国特許出願;代理人整理番号END9352USNP6/210120-6、
●「CUSTOMIZATION OF OVERLAID DATA AND CONFIGURATION」と題する米国特許出願;代理人整理番号END9352USNP7/210120-7、
●「INDICATION OF THE COUPLE PAIR OF REMOTE CONTROLS WITH REMOTE DEVICES FUNCTIONS」と題する米国特許出願;代理人整理番号END9352USNP8/210120-8、
●「ANTICIPATION OF INTERACTIVE UTILIZATION OF COMMON DATA OVERLAYS BY DIFFERENT USERS」と題する米国特許出願;代理人整理番号END9352USNP10/210120-10、
●「MIXING DIRECTLY VISUALIZED WITH RENDERED ELEMENTS TO DISPLAY BLENDED ELEMENTS AND ACTIONS HAPPENING ON-SCREEN AND OFF-SCREEN」と題する米国特許出願;代理人整理番号END9352USNP11/210120-11、
●「SYSTEM AND METHOD FOR TRACKING A PORTION OF THE USER AS A PROXY FOR NON-MONITORED INSTRUMENT」と題する米国特許出願;代理人整理番号END9352USNP12/210120-12、
●「UTILIZING CONTEXTUAL PARAMETERS OF ONE OR MORE SURGICAL DEVICES TO PREDICT A FREQUENCY INTERVAL FOR DISPLAYING SURGICAL INFORMATION」と題する米国特許出願;代理人整理番号END9352USNP13/210120-13、
●「COOPERATION AMONG MULTIPLE DISPLAY SYSTEMS TO PROVIDE A HEALTHCARE USER CUSTOMIZED INFORMATION」と題する米国特許出願;代理人整理番号END9352USNP14/210120-14、
●「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP15/210120-15、
●「ADAPTATION AND ADJUSTABILITY OR OVERLAID INSTRUMENT INFORMATION FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP16/210120-16、及び、
●「MIXED REALITY FEEDBACK SYSTEMS THAT COOPERATE TO INCREASE EFFICIENT PERCEPTION OF COMPLEX DATA FEEDS」と題する米国特許出願;代理人整理番号END9352USNP17/210120-17。
本出願の出願人は、各開示の全体が参照により本明細書に組み込まれる、以下の米国特許出願を所有する。
●「METHOD OF COMPRESSING TISSUE WITHIN A STAPLING DEVICE AND SIMULTANEOUSLY DISPLAYING THE LOCATION OF THE TISSUE WITHIN THE JAWS」と題する米国特許出願第16/209,423号(現在は、米国特許出願公開第2019/0200981(A1)号)、
●「METHOD FOR CONTROLLING SMART ENERGY DEVICES」と題する米国特許出願第16/209,453号(現在は、米国特許出願公開第2019/0201046(A1)号)。
外科用装置及び発生器の様々な態様を詳細に説明する前に、例解的な実施例は、適用又は用途において、添付の図面及び説明において例解される部品の構造及び配置の詳細に限定されないことに留意されたい。例示の実施例は、他の態様、変形形態、及び修正形態で実装されるか、又はそれらに組み込まれてもよく、様々な方法で実施又は実行されてもよい。更に、特に明記しない限り、本明細書で用いられる用語及び表現は、読者の便宜のために例示の実施例を説明する目的で選択されたものであり、それらを限定するためのものではない。更に、以下に記述される態様、態様の表現、及び/又は実施例のうち1つ以上を、以下に記述される他の態様、態様の表現、及び/又は実施例のうち任意の1つ以上と組み合わせることができるものと理解されたい。
様々な態様は、様々なエネルギー及び外科用ステープラベースの医療デバイスのための外科用システムのための画面上表示を対象とする。エネルギーベースの医療デバイスは、限定ではないが、とりわけ、無線周波数(RF)ベースの単極及び双極電気外科用器具、超音波外科用器具、RF電気外科用器具と超音波器具との組合せ、RF電気外科用ステープラと機械的ステープラとの組合せを含む。外科用ステープラデバイスは、電気外科用デバイス及び/又は超音波デバイスと組み合わされた外科用ステープラを含む。超音波外科用デバイスの態様は、例えば、外科的処置中に組織を横切開及び/又は凝固するように構成され得る。電気外科用デバイスの態様は、例えば、外科的処置中に、組織を横切開、凝固、封止、溶接及び/又は乾燥させるように構成され得る。外科用ステープラデバイスの態様は、外科処置中に組織を横切開してステープル留めするように構成することができ、いくつかの態様では、外科用ステープラデバイスは、外科的処置中に組織にRFエネルギーを送達するように構成することができる。電気外科用デバイスは、治療用及び/又は非治療用RFエネルギーを組織に送達するように構成されている。外科用ステープラ、電気外科用デバイス、及び超音波デバイスの要素は、単一の外科用器具において組み合わせて使用され得る。
様々な態様では、本開示は、外科的処置中にORチームにリアルタイム情報の画面上表示を提供する。本開示の様々な態様によれば、様々な視覚情報フィードバックを画面上でORチームに表示するために、多くの新しい固有の画面上表示が提供される。本開示によれば、視覚情報は、音を伴う又は伴わない様々な視覚媒体のうちの1つ以上を含むことができる。一般に、視覚情報は、静止写真、動画写真、ビデオ又はオーディオ記録、グラフィックアート、視覚補助、モデル、表示、視覚表現サービス、及びサポートプロセスを含む。視覚情報は、例えば、とりわけ、一次ORスクリーン、エネルギー又は外科用ステープラデバイス自体、タブレット、拡張現実眼鏡等の任意の数の表示オプション上で通信することができる。
様々な態様では、本開示は、ORチームをあまりに多くの視覚情報で圧倒することなく、視覚情報をリアルタイムでORチームに通信するための潜在的オプションの多くのリストを提供する。例えば、種々の態様では、本開示は、外科医、又はORチームの他のメンバーが、豊富な視覚情報を管理するために、画面オプションを取り囲むアイコン等の画面上表示を選択的に起動することを可能にする、視覚情報の画面上表示を提供する。要因のうちの1つ又は組合せが、アクティブ表示を決定するために使用することができ、これらは、とりわけ、使用中のエネルギーベース(例えば、電気外科、超音波)又は機械ベース(例えば、ステープラ)外科用デバイス、所与の表示と関連付けられる推定リスク、外科医の経験レベル、及び外科医の選択を含んでもよい。他の態様では、視覚情報は、視覚情報を管理するために手術視野にオーバーレイ又は重畳された豊富なデータを含んでもよい。以下に説明する様々な態様では、データを適切にオーバーレイするためにビデオ解析及び追跡を必要とする重畳画像を含む。このように通信された視覚情報データは、静的アイコンとは対照的に、ORチームに対してより簡潔で理解しやすい方法で追加の有用な視覚情報を提供することができる。
様々な態様では、本開示は、外科的処置中に視覚情報を管理するために、スクリーンを取り囲むアイコン等の画面上表示を選択的に起動するための技術を提供する。他の態様では、本開示は、要因のうちの1つ又は組合せを使用してアクティブ表示を決定するための技術を提供する。様々な態様では、本開示による技術は、とりわけ、アクティブ表示として使用中のエネルギーベース又は機械ベースの外科用デバイスを選択すること、所与の表示に関連付けられたリスクを推定すること、選択を行う外科医又はORチームの経験レベルを利用することを含み得る。
他の態様では、本開示による技術は、視覚情報を管理するために、豊富なデータを手術視野上にオーバーレイ又は重畳することを含んでもよい。本開示によって説明されるいくつかの表示配置は、術野のライブストリーム上に外科用データの種々の視覚表現をオーバーレイすることを伴う。本明細書で使用される場合、オーバーレイという用語は、半透明オーバーレイ、部分的オーバーレイ、及び/又は移動オーバーレイを含む。グラフィカルオーバーレイは、透明グラフィック、半透明グラフィック、又は不透明グラフィック、あるいは透明、半透明、及び不透明の要素又は効果の組合せの形態であってもよい。更に、オーバーレイは、例えば、エンドエフェクタ及び/又は重要な外科用構造等の、術野におけるオブジェクト上に、又は少なくとも部分的にその上に、又はその近くに配置され得る。特定の表示配置は、表示優先度値の変化に基づいて、色、サイズ、形状、表示時間、表示場所、表示頻度、強調表示、又はそれらの組合せの変化を含む、オーバーレイの1つ以上の表示要素の変化を含み得る。グラフィカルオーバーレイは、アクティブ表示モニタの上にレンダリングされ、重要な情報を迅速かつ効率的にORチームに伝達する。
他の態様では、本開示による技術は、視覚情報データを適切にオーバーレイするためにビデオ解析及び追跡することを必要とする画像を重畳することを含み得る。他の態様では、本開示による技術は、単純な静的アイコンとは対照的に、豊富な視覚情報を通信して、より簡潔で理解しやすい方法で追加の視覚情報をORチームに提供することを含むことができる。他の態様では、視覚オーバーレイは、聴覚及び/又は体性感覚オーバーレイ、例えば、熱的、化学的、及び機械的デバイス、並びにそれらの組合せと組み合わせて使用することができる。
以下の説明は、概して、外科的処置中に拡張現実(AR)インタラクティブ体験を提供する装置、システム、及び方法に関する。この文脈では、術野並びに術野に現れる外科用器具及び他のオブジェクトの画像は、コンピュータ生成された視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚情報を、術野、術野に現れる器具及び/又は他のオブジェクトの実世界画像上にオーバーレイすることによって強化される。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。拡張現実は、実環境上にオーバーレイされる仮想又は「拡張」仮想オブジェクト、データ、又は視覚効果をレンダリング及び表示するための技術である。実環境は、術野を含んでもよい。実環境上にオーバーレイされた仮想オブジェクトは、実環境の1つ以上の態様に対して固定された位置、又は設定された位置で表され得る。非限定的な例では、実世界オブジェクトが実環境の視野から出る場合、実世界オブジェクトに固定された仮想オブジェクトも拡張現実の視野から出る。
本開示によって説明されるいくつかの表示配置は、術野のライブストリーム上に外科用データの種々の視覚表現をオーバーレイすることを伴う。本明細書で使用される場合、オーバーレイという用語は、半透明オーバーレイ、部分的オーバーレイ、及び/又は移動オーバーレイを含む。更に、オーバーレイは、例えば、エンドエフェクタ及び/又は重要な外科用構造等の、術野におけるオブジェクト上に、又は少なくとも部分的にその上に、又はその近くに配置され得る。特定の表示配置は、表示優先度値の変化に基づいて、色、サイズ、形状、表示時間、表示場所、表示頻度、強調表示、又はそれらの組合せの変化を含む、オーバーレイの1つ以上の表示要素の変化を含み得る。
本明細書で説明されるように、ARは、技術を介して送達されるデジタル視覚要素、音、又は他の感覚刺激の使用を通して達成される、現実の物理世界の拡張バージョンである。仮想現実(VR)は、現実であるように見えるシーン及びオブジェクトを有するコンピュータ生成環境であり、ユーザがそれらの周囲に没入しているように感じさせる。この環境は、仮想現実ヘッドセット又はヘルメットとして知られるデバイスを通して知覚される。複合現実(MR)及びARは両方とも没入型技術と考えられているが、それらは同じではない。MRは、現実及び仮想要素が環境内で相互作用することを可能にする複合現実の拡張である。ARは、多くの場合、カメラを使用することによってライブビューにデジタル要素を追加するが、MR体験は、実世界及びデジタルオブジェクトが相互作用するAR及びVRの両方の要素を組み合わせる。
AR環境では、1つ以上のコンピュータ生成仮想オブジェクトが、1つ以上の現実(すなわち、いわゆる「実世界」)要素とともに表示されてもよい。例えば、周囲環境のリアルタイム画像又はビデオは、1つ以上のオーバーレイ仮想オブジェクトとともにコンピュータスクリーンディスプレイ上に示されてもよい。そのような仮想オブジェクトは、環境に関する補足的な情報を提供することができ、又は一般に、ユーザの知覚及び環境との関与を向上させることができる。逆に、周囲環境のリアルタイム画像又はビデオは、加えて又は代替的に、ディスプレイ上に示される仮想オブジェクトとのユーザの関与を向上させることができる。
本開示の文脈における装置、システム、及び方法は、外科的処置中に1つ以上の撮像デバイスから受信された画像を向上させる。撮像デバイスは、非侵襲性及び低侵襲性外科的処置中に使用される種々のスコープ、ARデバイス、及び/又は切開外科的処置中に画像を提供するカメラを含んでもよい。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。装置、システム、及び方法は、仮想オブジェクト又はデータ及び/又は現実オブジェクトの表現を現実外科用環境上にオーバーレイすることによって、実世界外科用環境の画像を向上させることによって、拡張現実インタラクティブ体験を提供する。拡張現実体験は、ユーザが実世界外科用環境上にオーバーレイされた仮想オブジェクトを視認することを可能にする、ディスプレイ及び/又はARデバイス上で視認されてもよい。ディスプレイは、手術室内に配置されてもよいし、手術室から離れてもよい。ARデバイスは、外科医又は他の手術室人員の頭部に装着され、典型的には、ユーザの各目に対して1つを含む、2つの立体ディスプレイレンズ又はスクリーンを含む。自然光は、ARデバイスのユーザに仮想オブジェクトを可視にするために光を投影しながら、実環境の態様が可視であるように、2つの透明又は半透明ディスプレイレンズを通過することができる。
2つ以上のディスプレイ及びARデバイスは、例えば、定義された役割を有するシステム内の1つ以上の追加のディスプレイ又はARデバイスを制御する第1のディスプレイ又はARデバイスと協調して使用されてもよい。例えば、ディスプレイ又はARデバイスを起動するとき、ユーザは、役割(例えば、外科的処置中の外科医、外科助手、看護師等)を選択してもよく、ディスプレイ又はARデバイスは、その役割に関連する情報を表示してもよい。例えば、外科助手は、外科医が外科的処置の次の工程のために行う必要がある器具の仮想表現を表示させてもよい。現在の工程に対する外科医の焦点は、手術助手とは異なる表示された情報を見る場合がある。
多くの既知の画面上表示及びアラートが存在するが、本開示は、外科的処置中に多くの新規かつ固有の拡張現実インタラクティブ体験を提供する。そのような拡張現実インタラクティブ体験は、手術室の内側又は外側の手術チームへの視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚フィードバック情報を含む。実世界外科用環境上にオーバーレイされる仮想フィードバック情報は、例えば、限定ではないが、とりわけ、手術外科医、外科医の助手、スクラブ着衣者、麻酔医、及び外回り看護師を含む、OR内の人員を含む、手術室(OR)チームに提供されてもよい。仮想フィードバック情報は、一次ORスクリーンディスプレイ、ARデバイス、エネルギー又は外科用ステープラ器具、タブレット、拡張現実眼鏡、デバイス等の任意の数の表示オプション上で通信することができる。
図1は、1つ以上の外科用システム2及びクラウドベースのシステム4を含むコンピュータ実装インタラクティブ外科用システム1を示す。クラウドベースシステム4は、リモートストレージ5に連結されたリモートサーバ13を含み得る。各外科用システム2は、クラウド4と通信する少なくとも1つの外科用ハブ6を備える。例えば、外科用システム2は、可視化システム8と、ロボットシステム10と、手持ち式インテリジェント外科用器具12とを備えてもよく、それぞれが、互いに、及び/又はハブ6と通信するように構成されている。いくつかの態様では、外科用システム2は、M個のハブ6と、N個の可視化システム8と、O個のロボットシステム10と、P個の手持ち式インテリジェント外科用器具12とを備えてもよく、M、N、O及びPは1以上の整数である。コンピュータ実装インタラクティブ外科用システム1は、本明細書で説明されるように、外科的処置中に拡張現実インタラクティブ体験を提供するように構成されてもよい。
図2は、外科手術室16内の手術台14上に横たわっている患者に対して外科的処置を実行するための外科用システム2の例を示す。ロボットシステム10は、外科的処置において外科用システム2の一部として使用される。ロボットシステム10は、外科医のコンソール18と、患者側カート20(外科用ロボット)と、外科用ロボットハブ22とを含む。患者側カート20は、外科医が外科医のコンソール18又は外科医によって装着された拡張現実(AR)デバイス66を通して手術部位を視認しながら、患者の身体の低侵襲切開を通じて、少なくとも1つの着脱可能に連結された外科用ツール17を操作することができる。低侵襲処置中の手術部位の画像(例えば、リアルタイムでストリーミングされる静止画像又はライブ画像)は、医療用撮像デバイス24によって取得することができる。患者側カート20は、撮像デバイス24を操作して、撮像デバイス24を配向することができる。切開外科的処置の画像は、医療用撮像デバイス96によって取得することができる。ロボットハブ22は、外科医のコンソール18、又は外科医若しくは外科手術室16内の他の人によって装着されたARデバイス66上にその後表示するために手術部位の画像を処理する。
撮像デバイス24、96又はARデバイス66の光学構成要素は、1つ以上の照明源、及び/又は1つ以上のレンズを含み得る。1つ以上の照明源は、術野の一部分を照明するように方向付けられ得る。1つ以上の画像センサは、術野内の組織及び器具から反射又は屈折された光を受信し得る。
様々な態様では、撮像デバイス24は、低侵襲外科的処置において使用するように構成されている。本開示とともに使用するために適切な撮像デバイスの例としては、関節鏡、血管鏡、気管支鏡、胆道鏡、結腸鏡、膀胱鏡、十二指腸鏡、腸鏡、食道胃十二指腸鏡(胃カメラ)、内視鏡、喉頭鏡、鼻咽喉-腎盂鏡、S状結腸鏡、胸腔鏡、及び尿管鏡が挙げられるが、これらに限定されない。様々な態様では、撮像デバイス96は、切開(侵襲)外科的処置において使用するように構成されている。
様々な態様では、可視化システム8は、滅菌野に対して戦略的に配置される1つ以上の撮像センサと、1つ以上の画像処理装置と、1つ以上のストレージアレイと、1つ以上のディスプレイとを備える。一態様では、可視化システム8は、HL7、PACS及びEMR用のインターフェースを備える。一態様では、撮像デバイス24は、トポグラフィと下にある構造とを区別するためにマルチスペクトルモニタリングを採用し得る。マルチスペクトル画像は、電磁スペクトルにおいて特定の波長範囲内の画像データを捕捉する。波長は、フィルタによって、又は可視光範囲を超える周波数、例えば、IR、及び紫外からの光を含む特定の波長に対する感度を有する器具によって分離される。スペクトル撮像は、人間の目には見えない情報を抽出することができる。マルチスペクトルモニタリングは、処置された組織に対して試験を実行するための外科用タスクが完了した後に術野を再配置することができる。
図2は、手術台14のオペレータに見えるように滅菌野に配置される一次ディスプレイ19を示す。可視化タワー11は、滅菌野の外側に配置され、互いに反対側を向いている第1の非滅菌ディスプレイ7及び第2の非滅菌ディスプレイ9を含む。ハブ6によって誘導される可視化システム8は、ディスプレイ7、9、19を利用して、滅菌野の内側及び外側のオペレータへの情報フローを調整するように構成されている。例えば、ハブ6は、可視化システム8に、一次ディスプレイ19又はARデバイス66上に手術部位のライブ映像を維持しながら、撮像デバイス24、96によって記録される手術部位のAR画像を非滅菌ディスプレイ7、9又はARデバイス66を通じて表示させることができる。非滅菌ディスプレイ7、9は、例えば、非滅菌オペレータが、外科的処置に関連する診断工程を実行することを可能にすることできる。
図3は、可視化システム8、ロボットシステム10及び手持ち式インテリジェント外科用器具12と通信するハブ6を示す。ハブ6は、ハブディスプレイ35、撮像モジュール38、発電機モジュール40、通信モジュール30、プロセッサモジュール32、ストレージアレイ34、及び手術室マッピングモジュール33を含む。ハブ6は、排煙モジュール26及び/又は吸引/灌注モジュール28を更に含む。様々な態様では、撮像モジュール38は、ARデバイス66を含み、プロセッサモジュール32は統合ビデオプロセッサ及び拡張現実モデラ(例えば、図10に示すようなもの)を含む。モジュール式光源は、様々な撮像デバイスとともに使用するように適合され得る。様々な例では、複数の撮像デバイスを術野の異なる位置に配置して、複数のビューを提供することができる(例えば、非侵襲的、低侵襲的、侵襲的、又は切開外科的処置)。撮像モジュール38は、最適なビューを提供するために撮像デバイス間を切り替えるように構成することができる。種々の態様では、撮像モジュール38は、異なる撮像デバイスからの画像を統合し、本明細書に説明されるような外科的処置の間、拡張現実インタラクティブ体験を提供するように構成することができる。
図4は、医療施設の1つ以上の手術現場/部屋に位置するモジュール式デバイスをクラウドベースのシステムに接続するように構成されたモジュール式通信ハブ53を含む外科用データネットワーク51を示す。クラウド54は、ストレージデバイス55に連結されたリモートサーバ63(図5)を含むことができる。モジュール式通信ハブ53は、ネットワークルータ61と通信するネットワークハブ57及び/又はネットワークスイッチ59を含む。モジュール式通信ハブ53は、データを処理するためにローカルコンピュータシステム60に連結される。手術現場のモジュール式デバイス1a~1nは、モジュール式通信ハブ53に連結され得る。ネットワークハブ57及び/又はネットワークスイッチ59は、ネットワークルータ61に連結されて、デバイス1a~1nをクラウド54又はローカルコンピュータシステム60に接続することができる。デバイス1a~1nに関連付けられたデータは、リモートデータ処理及び操作のためにルータを介してクラウドベースのコンピュータに転送されてもよい。手術現場デバイス1a~1nは、有線チャネル又は無線チャネルを介してモジュール式通信ハブ53に接続され得る。外科用データネットワーク51環境は、本明細書で説明されるように、外科的処置中に拡張現実インタラクティブ体験を提供するために、特に、術野の拡張画像を1つ以上のリモートディスプレイ58に提供するために採用されてもよい。
図5は、コンピュータ実装インタラクティブ外科用システム50を示す。コンピュータ実装インタラクティブ外科用システム50は、多くの点で、コンピュータ実装インタラクティブ外科用システム1と類似している。コンピュータ実装インタラクティブ外科用システム50は、多くの点で外科用システム2と類似する1つ以上の外科用システム52を含む。各外科用システム52は、リモートサーバ63を含み得るクラウド54と通信する少なくとも1つの外科用ハブ56を備える。一態様では、コンピュータ実装インタラクティブ外科用システム50は、例えば、インテリジェント外科用器具、ロボット及び手術現場内に位置する他のコンピュータ化デバイス等の複数の手術現場デバイスに接続されたモジュール式制御タワー23を備える。図6に示すように、モジュール式制御タワー23は、コンピュータシステム60に連結されたモジュール式通信ハブ53を含む。
図5に戻ると、モジュール式制御タワー23は、内視鏡98に連結された撮像モジュール38、エネルギーデバイス99に連結された発電機モジュール27、排煙器モジュール76、吸引/灌注モジュール78、通信モジュール13、プロセッサモジュール15、ストレージアレイ16、任意選択的にディスプレイ39に連結されたスマートデバイス/器具21及びセンサモジュール29に連結されている。手術現場デバイスは、モジュール式制御タワー23を介して、サーバ63、データストレージ55及びディスプレイ58等のクラウドコンピューティングリソースに連結されている。ロボットハブ72もまた、モジュール式制御タワー23、及びサーバ63、データストレージ55、並びにディスプレイ58に接続されてもよい。とりわけ、デバイス/器具21、可視化システム58が、本明細書に記載されるように、有線又は無線通信規格又はプロトコルを介して、モジュール式制御タワー23に連結されてもよい。モジュール式制御タワー23は、撮像モジュール38、デバイス/器具ディスプレイ39及び/又は他の可視化システム58から受信した、現実術野上のオーバーレイされた仮想オブジェクトを含む、受信された拡張画像を表示するためにハブディスプレイ65(例えば、モニタ、スクリーン)に連結されてもよい。ハブディスプレイ65はまた、画像及びオーバーレイ画像とともにモジュール式制御タワー23に接続されたデバイスから受信したデータを表示し得る。
図6は、モジュール式制御タワー23に連結された複数のモジュールを含む外科用ハブ56を示す。モジュール式制御タワー23は、例えばネットワーク接続デバイス等のモジュール式通信ハブ53と、例えば拡張外科用情報のローカルでの処理、可視化及び撮像を行うためのコンピュータシステム60とを含む。モジュール式通信ハブ53は、モジュール式通信ハブ53に接続されてもよいモジュール(例えば、デバイス)の数を拡張するために階層化構成で接続されて、モジュールに関連付けられたデータをコンピュータシステム60、クラウドコンピューティングリソース、又はその両方に転送してもよい。モジュール式通信ハブ53内のネットワークハブ/スイッチ57/59の各々は、3つの下流ポート及び1つの上流ポートを含み得る。上流のネットワークハブ/スイッチ57、59は、クラウドコンピューティングリソース及びローカルディスプレイ67への通信接続を提供するためにプロセッサ31に接続されている。クラウド54への通信は、有線通信チャネル又は無線通信チャネルのいずれかを介して行うことができる。
コンピュータシステム60は、プロセッサ31と、ネットワークインターフェース37とを含む。プロセッサ31は、システムバスを介して、通信モジュール41、ストレージ45、メモリ46、不揮発性メモリ47、及び入力/出力インターフェース48に連結される。システムバスは、様々な利用可能なバスアーキテクチャを使用した、メモリバス若しくはメモリコントローラ、周辺バス若しくは外部バス、及び/又はローカルバスを含む、いくつかのタイプのバス構造のいずれかであってもよい。
プロセッサ31は、拡張現実モデラ(例えば、図10に示されるような)を含み、Texas Instrumentsによる商標名ARM Cortexで知られているもの等のシングルコア又はマルチコアプロセッサとして実装されてもよい。一態様では、プロセッサは、例えば、Texas Instrumentsから入手可能なLM4F230H5QR ARM Cortex-M4Fプロセッサコアであってもよい。このプロセッサコアは、最大40MHzの256KBのシングルサイクルフラッシュメモリ若しくは他の不揮発性メモリのオンチップメモリ、性能を40MHz超に改善するためのプリフェッチバッファ、32KBのシングルサイクルシリアルランダムアクセスメモリ(SRAM)、StellarisWare(登録商標)ソフトウェアを搭載した内部読み出し専用メモリ(ROM)、2KBの電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)及び/又は、1つ以上のパルス幅変調(PWM)モジュール、1つ以上の直交エンコーダ入力(QEI)アナログ、12個のアナログ入力チャネルを備える1つ以上の12ビットアナログ-デジタル変換器(ADC)を含む。なお、その詳細は、製品データシートで入手可能である。
システムメモリとしては、揮発性メモリ及び不揮発性メモリが挙げられる。起動中などにコンピュータシステム内の要素間で情報を転送するための基本ルーチンを含む基本入出力システム(BIOS)は、不揮発性メモリに記憶される。例えば、不揮発性メモリとしては、ROM、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、EEPROM又はフラッシュメモリが挙げられ得る。揮発性メモリとしては、外部キャッシュメモリとして機能するランダムアクセスメモリ(RAM)が挙げられる。更に、RAMは、SRAM、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)、エンハンスドSDRAM(ESDRAM)、シンクリンクDRAM(SLDRAM)及びダイレクトランバスRAM(DRRAM)などの多くの形態で利用可能である。
コンピュータシステム60はまた、取り外し可能/取り外し不可能な揮発性/不揮発性のコンピュータストレージ媒体、例えばディスクストレージ等を含む。ディスク記憶装置としては、磁気ディスクドライブ、フロッピーディスクドライブ、テープドライブ、Jazドライブ、Zipドライブ、LS-60ドライブ、フラッシュメモリカード又はメモリスティックのような装置が挙げられるが、これらに限定されない。加えて、ディスク記憶装置は、上記の記憶媒体を、独立して、又は他の記憶媒体との組み合わせで含むことができる。他の記憶媒体としては、コンパクトディスクROM装置(CD-ROM)、コンパクトディスク記録可能ドライブ(CD-Rドライブ)、コンパクトディスク書き換え可能ドライブ(CD-RWドライブ)若しくはデジタル多用途ディスクROMドライブ(DVD-ROM)などの光ディスクドライブが挙げられるがこれらに限定されない。ディスク記憶装置のシステムバスへの接続を容易にするために、取り外し可能な又は取り外し不可能なインターフェースが用いられてもよい。
様々な態様では、図6のコンピュータシステム60、図4~図6の撮像モジュール38、及び/又は可視化システム58、及び/又はプロセッサモジュール15は、画像プロセッサ、画像処理エンジン、画像処理装置(GPU)、メディアプロセッサ、又はデジタル画像の処理に使用される任意の専用デジタル信号プロセッサ(DSP)を含んでもよい。画像プロセッサは、単一命令複数データ(SIMD)、又は複数命令複数データ(MIMD)技術を用いた並列コンピューティングを用いて速度及び効率を高めることができる。デジタル画像処理エンジンは、様々なタスクを実施することができる。画像プロセッサは、マルチコアプロセッサアーキテクチャを備えるチップ上のシステムであってもよい。
図7は、撮像モジュール38と外科用ハブディスプレイ67との間の通信経路内に配置された中間信号結合器64を含む拡張現実システム263を示す。信号結合器64は、撮像モジュール38及び/又はARデバイス66から受信された音声及び/又は画像データを組み合わせる。外科用ハブ56は、結合器64から組み合わされたデータを受信し、ディスプレイ67に提供されたデータをオーバーレイし、オーバーレイされたデータが表示される。撮像デバイス68はデジタルビデオカメラであってもよく、オーディオデバイス69はマイクロフォンであってもよい。信号結合器64は、外科用ハブ56がディスプレイ67上にデータをオーバーレイすることを可能にするコンソールへのディスプレイ67の通信経路内に配置されたARデバイス66に連結するための無線ヘッドアップディスプレイアダプタを含み得る。
図8は、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す。図8は、外科用ハブ56にデータを通信するために外科医73によって装着されるARデバイス66を示す。ARデバイス66の周辺情報は、アクティブ映像を含まない。むしろ、周辺情報は、デバイス設定、又はリフレッシュレートの同じ要求を有さない信号のみを含む。相互作用は、術前コンピュータ断層撮影(CT)又は外科用ハブ56内でリンクされた他のデータとのリンクに基づいて、外科医73の情報を拡張させ得る。ARデバイス66は、構造を識別することができ、例えば、器具が神経、血管、又は癒着に触れているかどうかを尋ねることができる。ARデバイス66は、術前スキャンデータ、光学ビュー、処置全体を通して取得される組織調査特性、及び/又は回答を提供するために使用される外科用ハブ56における処理を含み得る。外科医73は、報告又はフォローアップにおける後の使用のためにハブストレージ45内に患者データとともに保存されるように、ARデバイス66にメモを書き取ることができる。
外科医73によって装着されるARデバイス66は、オーバーレイの必要性を回避するために、聴覚及び視覚情報を用いて外科用ハブ56にリンクし、視野の周辺の周りに表示される情報のカスタマイズを可能にする。ARデバイス66は、デバイス(例えば、器具)からの信号を提供し、デバイス設定又は象限若しくは位置を識別するためにビデオとリンクされた位置情報に関するクエリに回答する。ARデバイス66は、ARデバイス66からの音声制御及び音声フィードバックを有する。ARデバイス66は、手術現場内の他のシステムと相互作用することができ、外科医73がどこを視認しても利用可能なフィードバック及び相互作用を有することができる。例えば、ARデバイス66は、外科医から音声又はジェスチャ開始コマンド及びクエリを受信してもよく、ARデバイス66は、音声、視覚、又は触覚タッチを含む1つ以上のモダリティの形態でフィードバックを提供してもよい。
図9は、ARデバイス66を装着している外科医73、患者74を示し、手術室75内にカメラ96を含んでもよい。外科医73によって装着されるARデバイス66は、拡張現実ディスプレイ89を通して、又はハブ接続ディスプレイ67を通して、術野のリアルタイム画像上にオーバーレイされる仮想オブジェクトを外科医73に提示するために使用されてもよい。リアルタイム画像は、外科用器具77の一部を含んでもよい。仮想オブジェクトは、手術室75内の他者(例えば、外科助手又は看護師)には可視でない場合があるが、彼らもまた、ARデバイス66を装着し得る。別の人がARデバイス66を用いて手術室75を視認している場合であっても、その人は、仮想オブジェクトを見ることができない場合があるか、又は外科医73と共有される拡張現実において仮想オブジェクトを見ることができる場合があるか、又は(例えば、外科医73に固有のカスタマイゼーションに従って)仮想オブジェクトの修正バージョンを見ることができる場合があるか、又は異なる仮想オブジェクトを見る場合がある。
仮想オブジェクト及び/又はデータは、外科用器具77の一部上に、又は撮像モジュール38、低侵襲外科的処置中の撮像デバイス68、及び/又は切開外科的処置中のカメラ96によって捕捉された手術視野内に現れるように構成され得る。図示の例では、撮像モジュール38は、低侵襲外科的処置中に外科領域のライブ映像を提供する腹腔鏡カメラである。ARシステムは、ARシステムの1人又は複数の視認者(例えば、外科医73)の視点に関係なく、実オブジェクトに固定される仮想オブジェクトを提示してもよい。例えば、仮想オブジェクトは、手術室75内のARシステムの視認者に可視であってもよく、手術室75外のARシステムの視認者に可視でなくてもよい。仮想オブジェクトは、視認者が手術室75に入ったときに、手術室75外の視認者に表示されてもよい。拡張画像は、外科用ハブディスプレイ67又は拡張現実ディスプレイ89に表示されてもよい。
ARデバイス66は、単一スクリーン又は2つのスクリーン(例えば、ユーザの目毎に1つ)等の1つ以上のスクリーン又はレンズを含んでもよい。スクリーンは、仮想オブジェクトを表示している間に実環境の態様が可視であるように、光がスクリーンを通過することを可能にし得る。仮想オブジェクトは、光を投影することによって外科医73に可視になり得る。仮想オブジェクトは、ある程度の透明度を有するように見えてもよく、又は不透明であってもよい(すなわち、実環境の態様を遮断する)。
ARシステムは、1人以上の視認者に可視であってもよく、ビュー間で共通のいくつかの態様を保持しながら、1人以上の視認者に利用可能なビュー間の差異を含んでもよい。例えば、ヘッドアップディスプレイは、2つのビューの間で変化し得るが、仮想オブジェクト及び/又はデータは、両方のビュー内の実オブジェクト又は領域に固定され得る。オブジェクトの色、照明、又は他の変更等の態様は、少なくとも1つの仮想オブジェクトの固定位置を変更することなくビュー間で行われ得る。
ユーザは、ARシステム内に提示される仮想オブジェクト及び/又はデータを、不透明として、又はあるレベルの透明度を含むものとして見ることができる。一例では、ユーザは、仮想オブジェクトを第1の位置から第2の位置に移動させること等によって、仮想オブジェクトと相互作用することができる。例えば、ユーザは、自身の手でオブジェクトを動かしてもよい。これは、(例えば、ARデバイスカメラ79又は別個の96等のARデバイス66上に搭載されてもよく、静的であってもよく、又は移動するように制御されてもよい、1つ以上のカメラを使用して)手がオブジェクトと一致又は隣接する位置に移動したことを判定し、それに応じてオブジェクトを移動させることによって、ARシステムにおいて仮想的に行われてもよい。仮想態様は、実世界オブジェクトの仮想表現を含んでもよく、又は照明効果等の視覚効果を含んでもよい。ARシステムは、仮想オブジェクトを重力又は摩擦に曝す等、仮想オブジェクトの挙動を支配するための規則を含んでもよく、又は実世界の物理的制約(例えば、浮遊オブジェクト、永久運動等)を否定する他の事前定義された規則を含んでもよい。ARデバイス66は、ARデバイス66上にカメラ79を含み得る(ARデバイス66とは別個のカメラ96と混同されるべきではない)。ARデバイスカメラ79又はカメラ96は、赤外線カメラ、赤外線フィルタ、可視光フィルタ、複数のカメラ、深度カメラ等を含み得る。ARデバイス66は、ユーザが視認することができる実環境の表現の上に仮想アイテムを投影し得る。
ARデバイス66は、例えば、外科医73によって患者74に対して行われる外科的処置中に手術室75内で使用され得る。ARデバイス66は、外科医の視覚を拡張するために、外科的処置中の仮想オブジェクト等の仮想オブジェクトを投影又は表示してもよい。外科医73は、ARデバイス66、ARデバイス66のためのリモートコントローラを使用して仮想オブジェクトを視認してもよく、又は、例えば、ARデバイス66のカメラ79によって認識される仮想オブジェクト又はジェスチャと「相互作用」するために手を使用して、仮想オブジェクトと相互作用してもよい。仮想オブジェクトは、外科用器具77等の外科用ツールを拡張することができる。例えば、仮想オブジェクトは、(ARデバイス66を通して仮想オブジェクトを視認する外科医73に対して)外科用器具77と連結されるように、又は外科用器具77から固定距離のままであるように見えてもよい。別の例では、仮想オブジェクトは、外科用器具77を案内するために使用されてもよく、患者74に固定されているように見えてもよい。特定の例では、仮想オブジェクトは、術野における他の仮想又は実世界のオブジェクトの動きに反応し得る。例えば、仮想オブジェクトは、外科医が仮想オブジェクトに近接して外科用器具を操作しているときに変更され得る。
拡張現実ディスプレイシステム撮像デバイス38は、外科的処置の間、外科領域の実画像を捕捉する。拡張現実ディスプレイ89、67は、外科領域の実画像上への外科用器具77の動作態様のオーバーレイを提示する。外科用器具77は、ARデバイス66上の通信回路233を介して外科用器具77からARデバイス66に動作態様及び機能データを通信するための通信回路231を含む。外科用器具77及びARデバイス66は、矢印B、Cによって示されるように、回路231、233の間のRF無線通信において示されているが、他の通信技術(例えば、有線、超音波、赤外線等)が採用されてもよい。オーバーレイは、アクティブに可視化されている外科用器具77の動作態様に関連する。オーバーレイは、外科領域における組織相互作用の態様を外科用器具77からの機能データと組み合わせる。ARデバイス66のプロセッサ部分は、外科用器具77から動作態様及び機能データを受信し、外科用器具77の動作に関連するオーバーレイを決定し、外科領域内の組織の態様を外科用器具77からの機能データと組み合わせるように構成される。拡張画像は、デバイス性能考慮事項に関するアラート、不適合な使用のアラート、不完全な捕捉に関するアラートを示す。不適合な使用には、範囲外の組織状態及びエンドエフェクタのジョー内で不正確にバランスされた組織が含まれる。追加の拡張画像は、組織張力のインジケーション及び異物検出のインジケーションを含む付随事象のインジケーションを提供する。他の拡張画像は、デバイス状況オーバーレイ及び器具インジケーションを示す。
図10は、本開示の少なくとも一態様による、ARディスプレイ89を使用して情報とともに術野の画像を拡張するためのシステム83を示す。システム83は、例えば、プロセッサ85を使用することによって、以下で説明される技術を実行するために使用され得る。システム83は、データベース93と通信することができるARデバイス66の一態様を含む。ARデバイス66は、プロセッサ85、メモリ87、ARディスプレイ89、及びカメラ79を含む。ARデバイス66は、センサ90、スピーカ91、及び/又は触覚コントローラ92を含んでもよい。データベース93は、画像ストレージ94又は術前計画ストレージ95を含んでもよい。
ARデバイス66のプロセッサ85は、拡張現実モデラ86を含む。拡張現実モデラ86は、拡張現実環境を作成するために、プロセッサ85によって使用され得る。例えば、拡張現実モデラ86は、カメラ79又はセンサ90等から、術野内の器具の画像を受信し、手術視野の表示画像内に収まるように拡張現実環境を作成してもよい。別の例では、物理的オブジェクト及び/又はデータは、手術視野及び/又は外科用器具画像上にオーバーレイされてもよく、拡張現実モデラ86は、物理的オブジェクト及びデータを使用して、仮想オブジェクト及び/又はデータの拡張現実ディスプレイを拡張現実環境内に提示してもよい。例えば、拡張現実モデラ86は、患者の手術部位で器具を使用又は検出し、外科用器具上の仮想オブジェクト及び/又はデータ、及び/又はカメラ79によって捕捉された手術視野内の手術部位の画像を提示してもよい。ARディスプレイ89は、実環境にオーバーレイされたAR環境を表示してもよい。ディスプレイ89は、AR環境内の固定位置等にあるARデバイス66を使用して、仮想オブジェクト及び/又はデータを示すことができる。
ARデバイス66は、赤外線センサ等のセンサ90を含むことができる。カメラ79又はセンサ90は、外科医又は他のユーザによるジェスチャ等の動きを検出するために使用されてもよく、動きは、プロセッサ85によって、ユーザによる仮想ターゲットとの試みられた又は意図された相互作用として解釈されてもよい。プロセッサ85は、カメラ79を使用して受信された情報を処理すること等によって、実環境内のオブジェクトを識別することができる。他の態様では、センサ90は、拡張環境を作成するために様々なデータフィードと組み合わされ得る対応する信号を生成するための触覚センサ、可聴センサ、化学センサ、又は熱センサであり得る。センサ90は、バイノーラルオーディオセンサ(空間音)、慣性測定(加速度計、ジャイロスコープ、磁力計)センサ、環境センサ、深度カメラセンサ、手及び視線追跡センサ、並びに音声コマンド認識機能を含み得る。
ARディスプレイ89は、例えば、外科的処置中に、術野がARディスプレイ89を通して視認されることを可能にしながら、術野内等に、患者の解剖学的態様によって隠される物理的特徴に対応する仮想特徴を提示してもよい。仮想特徴は、物理的特徴の第1の物理的位置又は配向に対応する仮想位置又は配向を有し得る。一例では、仮想特徴の仮想位置又は配向は、物理的特徴の第1の物理的位置又は配向からのオフセットを含み得る。オフセットは、拡張現実ディスプレイからの所定の距離、拡張現実ディスプレイから解剖学的態様までの相対距離等を含んでもよい。
一例では、ARデバイス66は、個々のARデバイスであり得る。一態様では、ARデバイス66は、ワシントン州レドモンドのMicrosoftによって製造されたHoloLens 2 ARデバイスであってもよい。このARデバイス66は、レンズ及びバイノーラルオーディオ特徴(空間音)を伴うバイザと、慣性測定(加速度計、ジャイロスコープ、磁力計)と、環境センサと、深度カメラと、ビデオカメラと、手及び視線追跡と、音声コマンド認識機能とを含む。それは、鏡を使用して導波路を着用者の目の前に向けることによって、高解像度で改善された視野を提供する。画像は、ミラーの角度を変えることによって拡大することができる。それはまた、ユーザを認識し、特定のユーザのためにレンズ幅を調整するための視線追跡を提供する。
別の例では、ARデバイス66は、Snapchat Spectacles 3 ARデバイスであり得る。このARデバイスは、ペア画像を捕捉し、3D深度マッピングを再作成し、仮想効果を追加し、3Dビデオを再生する能力を提供する。ARデバイスは、60fpsで3D写真及びビデオを捕捉するための2つのHDカメラを含み、一方、4つの内蔵マイクロフォンは、没入型高忠実度オーディオを記録する。両方のカメラからの画像を組み合わせて、ユーザの周りの実世界の幾何学的マップを構築し、奥行き知覚の新しい感覚を提供する。写真及びビデオは、外部ディスプレイデバイスに無線で同期され得る。
更に別の例では、ARデバイス66は、GoogleによるGlass 2 ARデバイスであり得る。このARデバイスは、情報を補足するためにレンズ(視野外)上にオーバーレイされた慣性測定(加速度計、ジャイロスコープ、磁力計)情報を提供する。
別の例では、ARデバイス66は、AmazonによるEcho Frames ARデバイスであり得る。このARデバイスは、カメラ/ディスプレイを有しない。マイクロフォン及びスピーカはAlexaにリンクされる。このARデバイスは、ヘッドアップディスプレイよりも機能が少ない。
更に別の例では、ARデバイス66は、North(Google)によるFocals ARデバイスであり得る。このARデバイスは、通知プッシャ/スマートウォッチアナログ、慣性測定、情報(天気、カレンダ、メッセージ)のスクリーンオーバーレイ、音声制御(Alexa)統合を提供する。このARデバイスは、基本的なヘッドアップディスプレイ機能を提供する。
別の例では、ARデバイス66は、Nreal ARデバイスであり得る。このARデバイスは、空間音、2つの環境カメラ、写真カメラ、IMU(加速度計、ジャイロスコープ)、周辺光センサ、近接センサ機能を含む。nebulaは、アプリケーション情報をレンズ上に投影する。
様々な他の例では、ARデバイス66は、以下の市販のARデバイス、すなわち、Magic Leap 1、Epson Moverio、Vuzix Blade AR、ZenFone AR、Microsoft AR眼鏡プロトタイプ、EyeTapのうちのいずれか1つであってもよく、これにより、環境の光と同一直線上の光を直接網膜に作成する。ビームスプリッタは、例えば、情報を処理しオーバーレイするために、コンピュータに目に見える同じ光を利用可能にする。AR可視化システムは、HUD、コンタクトレンズ、眼鏡、仮想現実(VR)ヘッドセット、仮想網膜ディスプレイ、手術室内ディスプレイ、及び/又はスマートコンタクトレンズ(バイオニックレンズ)を含む。
ARデバイス66のためのマルチユーザインターフェースは、目の前のスクリーン上ではなく網膜上に直接描画されるラスタディスプレイ等の仮想網膜ディスプレイ、スマートテレビ、スマートフォン、及び/又はSony空間ディスプレイシステム等の空間ディスプレイを含む。
他のAR技術は、例えば、AR捕捉デバイス及びソフトウェアアプリケーション、AR作成デバイス及びソフトウェアアプリケーション、並びにARクラウドデバイス及びソフトウェアアプリケーションを含んでもよい。AR捕捉デバイス及びソフトウェアアプリケーションは、例えば、Apple Polycam app、Ubiquity 6(Display.land appを使用するMirrorworld)を含み、ユーザは、(3Dモデルを作成するために)実世界の3d画像をスキャンし、取得することができる。AR作成デバイス及びソフトウェアアプリケーションは、例えば、Adobe Aero、Vuforia、ARToolKit、Google ARCore、Apple ARKit、MAXST、Aurasma、Zappar、Blipparを含む。ARクラウドデバイス及びソフトウェアアプリケーションは、例えば、Facebook、Google(world geometry、objection recognition、predictive data)、Amazon AR Cloud(commerce)、Microsoft Azure、Samsung Project Whare、Niantic、Magic Leapを含む。
状況認識は、データベース及び/又は器具から受信したデータから外科処置に関連する情報を判定又は推測するための、外科システムのいくつかの態様の能力である。情報は、実行されている処置のタイプ、手術されている組織のタイプ、又は処置の対象である体腔を含むことができる。外科処置に関するコンテキスト情報によると、外科システムは、例えば、外科システムが、それに接続されるモジュール式デバイス(例えば、ロボットアーム及び/又はロボット外科用ツール)を制御し、外科処置の過程で外科医にコンテキスト化された情報又は提案を提供する様式で改善し得る。
図11は、状況認識外科的処置のタイムラインを示す。図11は、例示的な外科的処置のタイムライン5200と、外科的処置の各工程でデータソース5126から受信されたデータから外科用ハブ5104が導出することができるコンテキスト情報とを示す。タイムライン5200は、手術現場のセットアップで始まり、患者を術後回復室に移送することで終了する肺区域切除処置の過程中に、看護師、外科医及び他の医療従事者がとるであろう一般的な工程を示す。状況認識外科用ハブ5104は、外科処置の過程全体にわたって、医療関係者が外科用ハブ5104とペアリングされたモジュール式デバイス5102を使用するたびに生成されるデータを含むデータを、データソース5126から受信する。外科用ハブ5104は、ペアリングされたモジュール式デバイス5102及び他のデータソース5126からこのデータを受信して、任意の所与の時間に処置のどの工程が行われているかなどの新しいデータが受信されると、進行中の処置に関する推定(すなわち、コンテキスト情報)を継続的に導出することができる。外科用ハブ5104の状況認識システムは、例えば、報告を生成するために処置に関するデータを記録すること、医療従事者によってとられている工程を検証すること、特定の処置工程に関連し得るデータ又はプロンプトを(例えば、表示画面を介して)提供すること、コンテキストに基づいてモジュール式デバイス5102を調整する(例えば、モニタを起動する、医療用撮像デバイスのFOVを調整する、又は超音波外科用器具若しくはRF電気外科用器具のエネルギーレベルを変更する)こと、及び上述される任意の他のこうした動作を行うことが可能である。
第1の5202では、病院職員は、病院のEMRデータベースから、患者のEMRを取り出す。EMRにおいて選択された患者データに基づいて、外科用ハブ5104は、実施される処置が胸部手術であることを判定する。
第2の5204では、職員は、処置のために入来する医療用品をスキャンする。外科用ハブ5104は、スキャンされた物資を様々なタイプの処置において利用される物資のリストと相互参照し、物資の混合物が、胸部処置に対応することを確認する。更に、外科用ハブ5104はまた、処置が楔形切除術ではないと判定することができる(入来する用品が、胸部楔形切除術に必要な特定の用品を含まないか、又は別の点で胸部楔形切除術に対応していないかのいずれかであるため)。
第3の5206では、医療従事者は、外科用ハブ5104に通信可能に接続されたスキャナ5128を介して患者バンドをスキャンする。次いで、外科用ハブ5104は、スキャンされたデータに基づいて患者の身元を確認することができる。
第4の5208では、医療職員が補助装置をオンにする。利用されている補助機器は、外科手術の種類、及び外科医が使用する技術に従って変動し得るが、この例示的なケースでは、排煙器、送気器及び医療用撮像デバイスが挙げられる。起動されると、モジュール式デバイス5102である補助装置は、その初期化プロセスの一部として、モジュール式デバイス5102の特定の近傍内に位置する外科用ハブ5104と自動的にペアリングすることができる。次いで、外科用ハブ5104は、この術前又は初期化段階中にそれとペアリングされるモジュール式デバイス5102の種類を検出することによって、外科処置に関するコンテキスト情報を導出することができる。この特定の実施例では、外科用ハブ5104は、ペアリングされたモジュール式デバイス5102のこの特定の組み合わせに基づいて、外科処置がVATS手術であると判定する。患者のEMRからのデータの組み合わせ、処置に用いられる医療用品のリスト、及びハブに接続するモジュール式デバイス5102の種類に基づいて、外科用ハブ5104は、外科チームが実施する特定の処置を概ね推定することができる。外科用ハブ5104が、何の特定の処置が行われているかを知ると、次いで外科用ハブ5104は、メモリから、又はクラウドからその処置の工程を読み出し、次いで接続されたデータソース5126(例えば、モジュール式デバイス5102及び患者モニタリングデバイス5124)からその後受信したデータを相互参照して、外科処置のどの工程を外科チームが実行しているかを推定することができる。
第5の5210では、職員は、EKG電極及び他の患者モニタリングデバイス5124を患者に取り付ける。EKG電極及び他の患者モニタリングデバイス5124は、外科用ハブ5104とペアリングすることができる。外科用ハブ5104が患者モニタリングデバイス5124からデータの受信を開始すると、外科用ハブ5104は患者が手術現場にいることを確認する。
第6の5212では、医療関係者は患者において麻酔を誘発する。外科用ハブ5104は、例えば、EKGデータ、血圧データ、人工呼吸器データ又はこれらの組合せを含む、モジュール式デバイス5102、及び/又は患者モニタリングデバイス5124からのデータに基づいて、患者が麻酔下にあることを推測することができる。第6工程5212が完了すると、肺区域切除手術の術前部分が完了し、手術部が開始する。
第7の5214では、手術されている患者の肺が虚脱される(換気が対側肺に切り替えられる間に)。外科用ハブ5104は、患者の肺が虚脱されたことを人工呼吸器データから推測することができる。外科用ハブ5104は、患者の肺が虚脱したのを検出したことを、処置の予期される工程(事前にアクセス又は読み出すことができる)と比較することができるため、処置の手術部分が開始したことを推定して、それによって肺を虚脱させることがこの特定の処置における第1の手術工程であると判定することができる。
第8の5216では、医療用撮像装置5108(例えば、スコープ)が挿入され、医療用撮像装置からのビデオ映像が開始される。外科用ハブ5104は、医療用撮像デバイスへの接続を通じて医療用撮像デバイスデータ(すなわち、静止画像データ又はリアルタイムのライブストリーミングビデオ)を受信する。医療用撮像装置データを受信すると、外科用ハブ5104は、外科処置の腹腔鏡部分が開始したことを判定することができる。更に、外科用ハブ5104は、行われている特定の処置が、肺葉切除術とは対照的に区域切除術であると判定することができる(処置の第2の工程5204で受信したデータに基づいて、楔形切除術は外科用ハブ5104によって既に考慮に入れられていないことに留意されたい)。医療用撮像デバイス124(図2)からのデータを利用して、様々な方法で、例えば、患者の解剖学的構造の可視化に対して向けられている医療用撮像装置の角度を判定することによって、利用されている(すなわち、起動されており、外科用ハブ5104とペアリングされている)数又は医療用撮像装置を監視することによって、及び利用されている可視化装置の種類を監視することによって、行われている処置の種類に関するコンテキスト情報を判定することができる。
例えば、VATS肺葉切除術を実行するための1つの技術は、カメラを患者の胸腔の前下方角部の横隔膜上方に配置するが、他方、VATS区域切除術を実行するための1つの技術は、カメラを、区域裂に対して前方の肋間位置に配置する。状況認識システムは、例えば、パターン認識技術又は機械学習技術を使用して、患者の解剖学的構造の可視化に従って、医療用撮像デバイスの位置を認識するように訓練することができる。別の例として、VATS肺葉切除術を実行するための1つの技術は、単一の医療用撮像デバイスを利用するが、VATS区域切除術を実行するための別の技術は複数のカメラを利用する。更に別の例として、VATS区域切除術を実行するための1つの技術は、区域裂を可視化するために赤外線光源(可視化システムの一部として外科用ハブへと通信可能に連結できる)を利用するが、これはVATS肺葉切除術では利用されない。医療用撮像装置5108からのこのデータのいずれか又は全てを追跡することによって、外科用ハブ5104は、行われている特定の種類の外科処置、及び/又は特定の種類の外科処置に使用されている技術を判定することができる。
第9の工程5218では、外科チームは、処置の切開工程を開始する。外科用ハブ5104は、エネルギー器具が発射されていることを示すRF又は超音波発生器からのデータを受信するため、外科医が患者の肺を切開して分離するプロセスにあると推定することができる。外科用ハブ5104は、受信したデータを外科処置の読み出しされた工程と相互参照して、プロセスのこの時点(すなわち、上述された処置の工程が完了した後)で発射されているエネルギー器具が切開工程に対応していると判定することができる。
第10の工程5220では、外科チームは、処置の結紮工程に進む。外科用ハブ5104は、器具が発射されていることを示すデータを外科用ステープル留め及び切断器具から受信するため、外科医が動脈及び静脈を結紮していると推定することができる。前工程と同様に、外科用ハブ5104は、外科用ステープル留め及び切断器具からのデータの受信を、読み出しされたプロセス内の工程と相互参照することによって、この推定を導出することができる。
第11の5222では、処置の区域切除術の部分が行われる。外科用ハブ5104は、ステープルカートリッジからのデータを含む、外科用器具からのデータに基づいて、外科医が実質組織を横切開していると推定する。カートリッジデータは、例えば、器具によって発射されているステープルのサイズ又はタイプに対応し得る。カートリッジデータは、異なるタイプの組織に利用される異なるタイプのステープルに対して、ステープル留め及び/又は横切開されている組織のタイプを示し得る。発射されているステープルのタイプは実質組織又は他の同様の組織タイプに利用され、外科用ハブ5104は、区域切除処置が行われていると推定することができる。
続いて第12の工程5224で、結節切開工程が行われる。外科用ハブ5104は、RF又は超音波器具が発射されていることを示す、発生器から受信したデータに基づいて、外科チームが結節を切開し、漏れ試験を行っていると推定することができる。この特定の処置の場合、実質組織が横切開された後に利用されるRF又は超音波器具は結節切開工程に対応しており、これにより外科用ハブ5104がこの推定を行うことができる。異なる器具が特定のタスクに対してより良好に適合するので、外科医が、処置中の特定の工程に応じて、手術用ステープリング/切断器具と手術用エネルギー(すなわち、RF又は超音波)器具とを、定期的に交互に切り替えることに留意されたい。したがって、ステープル留め器具/切断器具及び手術用エネルギー器具が使用される特定のシーケンスは、外科医が処置のどの工程を実行しているかを示すことができる。第12の工程5224が完了すると、切開部が閉鎖され、処置の術後部分が開始する。
第13の5226では、患者の麻酔を解く。外科用ハブ5104は、例えば、ベンチレータデータに基づいて(すなわち、患者の呼吸速度が増加し始める)、患者が麻酔から覚醒しつつあると推定することができる。
最後に、第14の5228では、医療従事者が患者から様々な患者モニタリングデバイス5124を除去する。したがって、外科用ハブ5104は、ハブがEKG、BP、及び患者モニタリングデバイス5124からの他のデータを喪失したとき、患者が回復室に移送されていると推定することができる。外科用ハブ5104と通信可能に連結された各種データソース5126から受信したデータに従って、外科用ハブ5104は、所与の外科的処置の各工程が発生しているときを判定又は推定することができる。
図11に描写されるタイムライン5200の第1の工程5202に示されるように、EMRデータベース(複数の場合もある)からの患者データを利用して、実行されている外科的処置のタイプを推定することに加えて、患者データはまた、状況認識外科用ハブ5104によって利用されて、ペアリングされたモジュール式デバイス5102の制御調整を生成することができる。
相互作用する器具の協調的オーバーレイ
外科用システム1、2、50、52、外科用ハブ6、56、5104、通信システム63、拡張システム83、及びARデバイス66、84等の本明細書に開示される種々の外科用システム、外科用ハブ、通信システム、拡張システム、及び拡張現実デバイスの一般的実装を説明してきたが、本開示は、次に、システム、ハブ、及びデバイスの種々の他の埋め込みを説明する。簡潔にするために、以下のセクションで説明されるシステム、ハブ、及びデバイスの様々な詳細及び実装形態は、上述の様々なシステム、ハブ、及びデバイスと同様であり、本明細書では繰り返さない。以下で説明されるシステム、ハブ、及びデバイスの任意の態様は、上記のシステム、ハブ、及びデバイスに持ち込むことができ、及び/又はそれらによって実装され得る。
複数の外科用器具が、外科的処置中に手術室(OR)内に存在することが多い。存在する外科用器具は、異なる機能、異なる動作パラメータ、及び異なる意図された用途を有することができる。例えば、実行されている外科的処置又は外科的処置の工程に応じて、複数の外科用器具を同時に使用することがしばしば望ましいか、又は必要とされる。したがって、外科的処置中のOR内の外科用器具のうちのいくつかは、同時に及び/又は互いに近接して使用されることが意図され得る。例えば、円形ステープル留め器具は、特定のアンビルデバイスとともに使用されることが意図され得る。別の例として、バットレスデバイスは、特定のタイプのエンドカッタ器具とともに使用されることが意図され得る。更に別の例として、ステープルカートリッジは、特定のタイプの外科用ステープル留め器具とともに使用されることが意図され得る。更に、複数の外科用器具の同時使用は、器具が組み合わせて使用されないときに利用可能でない様々な推奨される機能と関連付けられ得る。
しかしながら、他の事例では、OR内に存在するいくつかの外科用器具は、同時に、又は互いに近接して使用されることを意図されていない(例えば、外科用器具の種々の組合せの使用により、1つ以上の器具が機能不全になり得るため)。例えば、エネルギーデバイスに近接して金属器具を使用することは、エネルギーデバイスから金属器具へのアーク放電を引き起こし得る。別の例として、エネルギーデバイスに近接して金属器具を使用することは、エネルギーデバイスの通常の熱拡散の変化を引き起こし、不完全なシール又はデバイス故障につながる可能性がある。更に別の例として、ステープルカートリッジは偽造品である場合があり、したがって、特定の外科用ステープル留め器具とともに使用されるべきではない。更に、外科用器具が一緒に使用されるべきか否かは、使用されている外科用器具の特定のタイプ及び実行されている特定の外科的処置に依存し得る。
OR内に存在し得る異なるタイプの外科用器具の多種多様な組合せ、及び実行され得る多種多様な異なる外科的処置を考慮すると、ORスタッフが、外科用器具のどの組合せが様々な機能に関連付けられているか、外科用器具のどの組合せが同時に及び/又は互いに近接して使用されるべきか、並びに外科用器具のどの組合せが同時に及び/又は互いに近接して使用されるべきでないかを追跡することは困難であり得る。したがって、OR内の様々な組合せの外科用器具の存在及び/又は使用を決定するため、決定された組合せに基づいて利用可能であり得る追加の機能を識別するため、外科用器具が互いに近接して使用されることが意図されていることを決定するため、及び/又は外科用器具が互いに近接して使用されることが意図されていないことを決定するための装置、システム、及び方法が必要とされている。
更に、外科的処置又は外科的処置の工程中に複数の外科用器具が同時に使用される場合、外科用器具は、互いに及び/又は術野内の共通のオブジェクトと相互作用することが多い。例えば、外科用把持デバイスは、組織を保持又は安定させるために使用されてもよく、一方、内部機械外科用デバイスは、同じ組織を切断するために使用される。上記で説明したように、拡張現実(AR)デバイスは、術野の画像上にオーバーレイされた仮想オブジェクト、データ、又は視覚効果を表示するために使用され得る。したがって、例示的な外科用把持デバイス及び内部機械外科用デバイスの場合、ARデバイスを使用して、各外科用デバイスの組織との個々の相互作用(例えば、組織に及ぼされる力)に関連する情報を有するオーバーレイを表示することができる。しかしながら、複数の外科用器具が互いに及び/又は共通のオブジェクトと相互作用しているとき、相互作用は、多くの場合、個々の外科用器具のうちのいずれか1つによって引き起こされる効果とは異なる何らかの複合効果をもたらす。この複合効果の知識は、外科的処置の実行中にORスタッフを支援するのに有用であり得る。したがって、OR内の様々な組合せの外科用器具の存在及び/又は使用を決定するための装置、システム、及び方法の必要性に加えて、複数の外科用器具間の相互作用に基づく協調的ARオーバーレイを表示するための装置、システム、及び方法の必要性も存在する。
OR内の様々な組合せの外科用器具の存在及び/又は使用を決定するための装置、システム、及び方法が本明細書に開示される。また、本明細書に開示されるのは、外科的処置中に存在する及び/又は使用中である外科用器具の決定された組合せに基づいて利用可能であり得る機能を決定するための装置、システム、及び方法である。上述したように、様々な外科用システム構成は、OR(例えば、手術現場)内の複数の外科用器具を1つ以上の外科用ハブに通信可能に連結するように実装され得る。例えば、図5及び図6を再び参照すると、コンピュータ実装インタラクティブ外科用システム50は、複数の手術現場デバイス(例えば、OR内の複数の外科用器具21、98、99等)に通信可能に連結された少なくとも1つの外科用ハブ56を備えることができる。外科用ハブ56は、それに接続される特定の外科用器具(器具タイプ、器具モデル、器具設定及び機能等)の組合せ、及び/又は特定のORとともに存在する特定の外科用器具の組合せを決定するように構成され得る。更に、外科用ハブ56は、所与の外科的処置に使用されている特定の外科用器具の組合せを決定するように構成され得る。外科用システム50及び外科用ハブ56は、このセクションでは例示的な外科用システム及び外科用ハブとして参照されるが、本明細書に開示される外科用システム及びハブのいずれも、外科用器具の特定の組合せの存在及び使用を決定するように構成され得ることに留意されたい。
様々な態様では、特定の外科用器具及び/又は外科用器具の特定の組合せの接続及び/又は起動は、ハブ及び/又は外科用器具に関連する機能を有効にすることができる。一態様では、特定の外科用器具(外科用デバイス)の接続及び/又は起動は、ハブ上の機能を有効にすることができる。別の態様では、外科用器具の特定の組合せの接続及び/又は起動は、ハブ上の機能を有効にすることができる。ハブ機能は、それに接続される単数又は複数の外科用器具のメモリ内に記憶された情報に基づいて有効にされ得る。更に、有効にされたハブ機能は、ハブによって実行され得る追加のモード及び/又は特徴をロック解除することを伴い得る。これらの追加のモード及び/又は特徴は、外科用ハブへの接続によってハブ機能を有効にする特定の器具又は器具の組合せに関連し得る。例えば、エネルギーデバイスの特定のモデル及び/又は改正版等の特定の外科用器具は、外科用ハブへの接続時に読み取られる、その電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)内にマッピングされる情報を含んでもよい。EEPROMに記憶された情報は、追加の特徴及び/又はモードをハブ上でロック解除させることができる。別の例として、エネルギーデバイスの特定のモデルと内視鏡の特定のモデルとの組合せの接続は、追加の特徴及び/又はモードをハブ上でロック解除させてもよい。
別の態様では、特定の外科用器具(外科用デバイス)又は外科用器具の特定の組合せの接続及び/又は起動は、単数及び/又は複数の外科用器具上の機能を有効にすることができる。外科用ハブによって有効にされる器具機能は、外科用ハブによって単数及び/又は複数の外科用器具を構成することを含み得る。例えば、接続時に、外科用ハブは、外科用器具に、接続された器具又は器具の組合せに関連する設定選択又はユーザプロファイルを入力するようにユーザを促すようにさせることができる。外科用ハブへの外科用器具又は器具の組合せの接続によって有効にされる器具機能は、外科用ハブの設定に基づいて、単数及び/又は複数の外科用器具の構成を自動的に更新することを含み得る。例えば、接続時に、外科用ハブの設定に基づいて、外科用ハブは、外科用器具に、追加のボタン(例えば、タッチスクリーンボタン)を含ませてもよい。追加のボタンは、外科用ハブに接続された外科用器具の組合せに基づいて利用可能な器具の追加の動作又は機能に関連し得る。
更に別の態様では、特定の外科用器具(外科用デバイス)又は外科用器具の特定の組合せの接続及び/又は起動により、ハブが、単数及び/又は複数の外科用器具のパラメータを変更することができる。例えば、外科用器具の特定の組合せを外科用ハブに接続することは、ハブに、接続された外科用器具のうちの1つのエンドエフェクタのクランプ圧力、ナイフ速度、最大関節角度、及び/又は発射ストローク設定を調整させ得る。ハブによって調整される外科用器具パラメータのいずれも、ユーザによって調整又はカスタマイズされてもよい。
更に別の態様では、特定の外科用器具(外科用デバイス)又は外科用器具の特定の組合せの接続及び/又は起動により、外科用ハブのパラメータを調整することができる。例えば、外科用ハブは、スリーブ胃切除術等の特定の外科的処置についての理想的及び/又は標的化された発射並びに角度を最適化するためのアルゴリズムを含んでもよい。ハブは、処置中に起動される特定の外科用器具に応じてアルゴリズムを更新するように構成され得る(例えば、アルゴリズムは、アクティブな線形エンドカッタが45mmエンドカッタであるか又は60mmエンドカッタであるかに応じて更新され得る)。
図12は、本開示のいくつかの非限定的な態様による、接続された外科用デバイスの組合せに基づいて機能を有効にするための方法13000を示す。方法13000は、第1の外科用デバイスを外科用ハブに接続すること(13002)と、第2の外科用デバイスを外科用ハブに接続すること(13004)とを含むことができる。更に、方法13000は、外科用ハブによって、第1の外科用デバイスの接続13002及び第2の外科用デバイスの接続13004に基づいて、そこに接続されたデバイスの組合せを識別すること(13006)を含むことができる。方法13000は、外科用ハブに接続されたデバイスの識別された組合せ13006に基づいて、第1の外科用デバイス、第2の外科用デバイス、外科用ハブ、又はそれらの組合せの機能を有効にすること(13008)を更に含むことができる。
外科用器具が一緒に使用されることが意図されていることを決定するため(例えば、互いに近接している)、及び外科用器具が一緒に使用されることが意図されていないことを決定するための装置、システム、及び方法が本明細書に開示される。上記で説明したように、様々な外科用システム構成は、OR(例えば、手術現場)内の複数の外科用器具を1つ以上の外科用ハブに通信可能に連結するように実装されてもよい。例えば、図5及び図6を再び参照すると、コンピュータ実装インタラクティブ外科用システム50は、複数の手術現場デバイス(例えば、OR内の複数の外科用器具21、98、99等)に通信可能に連結された少なくとも1つの外科用ハブ56を含むことができる。外科用ハブ56は、それに接続される特定の外科用器具の組合せを決定するように構成することができる。更に、外科用ハブ56は、所与の外科的処置に使用されている特定の外科用器具の組合せを決定するように構成され得る。一態様では、外科用ハブ56は、様々なタイプの外科用器具及び/又は様々なタイプの外科用器具の組合せの意図された使用に関する情報を記憶してもよい。別の態様では、外科用ハブ56は、様々なタイプの外科用器具及び/又は様々なタイプの外科用器具の組合せの意図された使用に関連する情報を記憶するサーバ又は他のデバイスと通信し得る。したがって、外科用ハブ56は、それに接続された外科用器具の決定された組合せに基づいて、接続された外科用器具が一緒に使用されることが意図されていること、及び/又は接続された外科用器具が一緒に使用されることが意図されていないことを決定するように構成され得る。外科用ハブは、接続された外科用器具が一緒に使用されることが意図されているか否かの決定に基づいて、1人以上のユーザ(例えば、ORスタッフ)に通知を提供し得る。この通知は、ARオーバーレイの形態であってもよい。
しかしながら、いくつかの外科用器具は、外科用ハブに接続する能力を有していない場合がある(例えば、外科用器具はスマートデバイス/器具ではない場合がある)。したがって、様々な態様では、外科用ハブに接続することができる本明細書に開示される外科用器具のいずれかは、他の外科用器具を検出及び/又は識別するように構成されたセンサを含んでもよい。センサを含むハブ接続外科用器具は、以下では「スマートセンシング器具」と呼ばれる場合がある。一態様では、外科用ハブは、スマートセンシング器具に、スマートセンシング器具によって検出及び/又は識別された器具に関する情報を外科用ハブに送信させるように構成されてもよい。外科用ハブは、この情報を使用して、検出された器具がスマートセンシング器具とともに使用されることが意図されているか否かを決定することができる。別の態様では、外科用ハブは、この情報を使用して、検出された器具に関連するARオーバーレイを生成するために使用される場所データを強化することができる。
様々な態様では、スマートセンシング器具及び/又は外科用ハブに接続できない器具等の外科用器具は、他の器具を検出するための近接センサを含むことができる。いくつかの態様では、近接センサは、第1の器具の機能を記述するデータセットを含む信号を送出する第1の器具の近接ビーコンであり得る。第2の外科用器具の近接センサは、着信信号を読み取り、データセットに基づいて、第1の器具及び第2の外科用器具が互いに近接して使用されることが意図されているか否かを決定し得る。一態様では、第2の外科用器具は、決定に基づいてORスタッフに通知を提供し得る。別の態様では、第2の外科用器具は、決定に関連するデータを外科用ハブに送信して、外科用ハブに、第1及び第2の外科用器具が一緒に使用されることが意図されているか否かを示す通知を1人以上のユーザ(例えば、ORスタッフ)に提供させてもよい。この通知は、ARオーバーレイの形態であってもよい。
様々な態様では、いくつかの外科用器具は、信号を送出することができるが、他の器具からの着信信号を読み取ることができない近接ビーコンを含み得る。例えば、上述の第1の外科用器具は、信号を送出することができるが、着信信号を読み取ることができない近接ビーコンを有する外科用把持具であってもよい。この場合、第2の外科用器具、例えば、エネルギーデバイスは、第1の外科用器具からの着信信号を読み取ることができる近接ビーコンを含んでもよい。したがって、第2の外科用器具は、第1及び第2の器具が一緒に使用されることが意図されているかどうかを決定するように構成され得る。
図13は、本開示のいくつかの非限定的な態様による、複数の外科用器具が互いに近接して使用されることが意図されているか否かを決定するための方法13010を示す。方法13010は、第1の外科用デバイスの近接ビーコンによって、第2の外科用デバイスの近接ビーコンに信号を送信すること(13013)を含むことができる。更に、方法13010は、第2の外科用デバイスを外科用ハブに接続すること(13014)を含むことができる。また更に、一態様では、方法13010は、第2の外科用デバイス、外科用ハブ、又はこれらの組合せによって、第1の外科用デバイス及び第2の外科用デバイスが互いに近接して使用されることが意図されていると決定すること(13016A)を含むことができる。別の態様では、方法13010は、第2の外科用デバイス、外科用ハブ、又はこれらの組合せによって、第1の外科用デバイス及び第2の外科用デバイスが互いに近接して使用されることが意図されていないと決定すること(13016B)を含むことができる。いくつかの態様では、方法13010はまた、第2の外科用デバイス、外科用ハブ、外科用ハブに接続されたARデバイス、又はそれらの組合せによって、決定13016A及び/又は決定13016Bに基づいて、ユーザ(例えば、ORスタッフ)に通知を提供すること(13018)を含むことができる。
いくつかの態様では、複数の外科用器具が一緒に使用されることが意図されているか否かの決定は、器具のうちの少なくとも1つの識別コードに基づき得る。例えば、図14は、本開示の少なくとも非限定的な一態様による、識別コード13022及び対応する識別コードテーブル13026を含む外科用器具13020を示す。識別コード13022は、器具13020の表面13024上に印刷又は他の方法で表示された一組の文字であり得る。一態様では、識別コード13022は、識別コードを複数の角度から見ることができるように、器具13020の複数の表面上に表示されてもよい(図14には図示せず)。識別コード13022は、5つのバイナリ文字13028を含んでもよく、外科用器具の各特定のタイプ及び/又はモデル13029は、5つのバイナリ文字の固有の組合せと関連付けられる。識別コードテーブル13026を使用して、5つのバイナリ文字13028の固有の組合せを外科用器具のタイプ及び/又はモデル13029と相関させることができる。一態様では、識別コード13022は、外科用ハブの撮像モジュールに関連付けられた撮像デバイス(例えば、図2に関して参照される撮像デバイス24、96、ARデバイス66、図3に関して参照される撮像モジュール38)によって検出され得る。別の態様では、ユーザ(例えば、ORスタッフ)が、識別コード13022を外科用ハブに手動で提供してもよい。したがって、外科用ハブは、識別コード130222に基づいて外科用器具13020を識別し、識別された外科用器具13020が他の検出された器具とともに使用されることが意図されているかどうかを決定することが可能であり得る。
様々な態様では、複数の外科用器具間の相互作用に基づく協調的ARオーバーレイを表示するための装置、システム、及び方法が本明細書で開示される。上記で説明されたように、拡張現実(AR)デバイス(例えば、ARデバイス66)は、例えば、外科用システムの1つ以上の撮像デバイス(例えば、図2に関して参照される撮像デバイス24、96、ARデバイス66、図3に関して参照される撮像モジュール38)によって捕捉された術野の画像に基づいて、外科的処置中に術野の画像を生成するために使用され得る。ARデバイスによって生成される画像は、術野の静止画像又はライブフィードであり得る。更に、ARデバイスによって生成された術野の画像は、以下で術中ディスプレイと呼ばれる場合がある。
上記でより詳細に説明されるように、本明細書に開示される外科用システム及び/又は外科用ハブ(外科用システム1、2、50、52、外科用ハブ6、56、5104等)は、ARデバイスに、術中ディスプレイ上にオーバーレイされる仮想オブジェクト、データ、又は視覚効果を表示させるように構成することができる。これらの仮想オブジェクト、データ、及び視覚効果は、例えば、外科用器具が術野において外科的処置を実行しているときに、外科用器具の様々な属性に基づくことができる。換言すれば、術中ディスプレイは、術野における外科用器具の使用に関連するオブジェクト、データ、及び/又は視覚効果を含む仮想データオーバーレイを表示することができる。例えば、術中ディスプレイは、外科用器具が術野内の組織と相互作用する際に外科用器具が組織に及ぼす影響に関するデータを表示することができる。
また、上記でより詳細に説明されるように、外科的処置を実行するとき、複数の外科用器具が同時に使用されてもよい。更に、外科用ハブ及び/又は個々の器具は、使用中の外科用器具の組合せ特有の組合せを検出するように構成することができる。他の態様では、外科用ハブ及び/又は個々の器具は、器具の組合せ間の相互作用を検出するように構成することができる。一態様では、検出された相互作用は、互いに相互作用する外科用器具を含み得る。別の態様では、検出された相互作用は、例えば組織等の術野内の共通構造と相互作用する器具を含むことができる。したがって、術中ディスプレイは、外科用器具の組合せ間の相互作用に基づくデータオーバーレイを表示するように構成することができる。
いくつかの態様では、術中ディスプレイは、複数の器具の使用に基づく複数のデータオーバーレイを表示するように構成され得る。例えば、第1の外科用器具は、第2の外科用器具と同時に術野に存在してもよい。外科用ハブは、第1の外科用器具の動作に関連するデータ及び第2の外科用器具の動作に関連するデータを受信し得る。第1の外科用器具の動作に関連するデータを使用して、第1のデータオーバーレイを表示生成することができ、第2の外科用器具の動作に関連するデータを使用して、第2のデータオーバーレイを生成することができる。第1のデータオーバーレイ及び第2のデータオーバーレイは、術中ディスプレイによって同時に表示することができる。したがって、ARデバイスを使用する外科医は、両方の器具に関連する情報を同時に受信することが可能であり得る。
いくつかの態様では、複数のユーザ(例えば、複数のORスタッフメンバー)が各々、ARデバイスを使用している場合がある。他の態様では、複数のユーザが各々外科用器具を使用している場合がある。本明細書に開示される外科用システム及び/又は外科用ハブは、異なるARデバイスの任意の組合せに、複数の外科用器具の使用に基づいて、異なるデータオーバーレイの任意の数及び組合せを表示させるように構成され得る。例えば、第1のユーザは、第1の術中ディスプレイを生成する第1のARデバイスを使用している場合がある。外科用ハブは、第1のARデバイスを第1のユーザにリンクするように構成することができる。第2のユーザは、第2の術中ディスプレイを生成する第2のARデバイスを使用している場合がある。外科用ハブは、第2のARデバイスを第2のユーザにリンクするように構成することができる。更に、第1のユーザは、第1の外科用器具を使用してもよく、第2のユーザは、第2の外科用器具を使用してもよい。第1のインタラクティブディスプレイは、第1の器具に基づく第1のデータオーバーレイと、第2の器具に基づく第2のデータオーバーレイとを表示するように構成され得る。同様に、第2のインタラクティブディスプレイは、第1の器具に基づく第1のデータオーバーレイを表示し、第2の器具に基づく第2のデータオーバーレイを表示するように構成することができる。別の例では、第1の術中ディスプレイは、第2の器具ではなく第1のユーザによる第1の器具の使用に基づく第1のデータオーバーレイのみを表示してもよい。したがって、各術中ディスプレイによって表示されるデータオーバーレイは、どのユーザにARデバイスがリンクされるか、ユーザの選好、ユーザが使用している外科用器具、又はそれらの任意の組合せに基づいてカスタマイズされ得る。
更に、外科用器具を組み合わせて使用するとき、外科用器具の併用の様々な属性に関連するデータは、外科用ハブ、個々の器具、外科用システムの他の構成要素、又はこれらの組合せによって検出、計算、及び/又は他の方法で決定することができる。したがって、術中ディスプレイは、外科用器具の併用に関連する属性に基づくデータオーバーレイを表示するように構成することができる。このタイプのデータオーバーレイは、本明細書では協調的データオーバーレイと呼ばれる場合がある。外科用器具の併用に関連する属性は、例えば、器具によって及ぼされる組み合わされた力、器具間の距離、器具とオブジェクトとの間の距離、器具の組み合わされたパラメータ、又は複数の外科用器具の相互作用に基づいて検出、計算、若しくは別様に決定され得る任意の他の属性を含むことができる。協調的データオーバーレイは、他のデータオーバーレイとともに表示されてもよく、他のデータオーバーレイの組合せであってもよい。
図15A及び図15Bは、本開示のいくつかの非限定的な態様による、術野13032内の組織13038と相互作用するエンドカッタ13034及び外科用把持具13036を表示する例示的な術中ディスプレイ13030を示す。ここで図15Aを参照すると、組織13038を把持するエンドカッタ13034を見ることができる。この把持動作により、組織13038に張力がかかる。いくつかの態様では、張力は外科用ハブによって決定することができる。外科用把持具13036と組織13038との相互作用に基づいて、第1のデータオーバーレイ13040が術中ディスプレイ13030によって表示される。第1のデータオーバーレイ13040は、外科用把持具13036によって組織13038に印加された張力(5.7)及び張力の方向を描写するベクトル矢印を含む。図15Aはまた、組織13038を把持するエンドカッタ13034を描写する。またこの把持動作により、いくつかの態様では、外科用ハブによって決定することができる、組織13038に張力がかかる。エンドカッタ13034と組織13038との相互作用に基づいて、第2のデータオーバーレイ13042が術中ディスプレイ13030によって表示される。第2のデータオーバーレイ13042は、外科用把持具13036によって組織13038に印加された張力(7.8)及び張力の方向を描写するベクトル矢印を含む。
ここで図15Bを参照すると、協調的データオーバーレイ13044が術中ディスプレイ13030によって表示されている。協調的データオーバーレイ13044は、組み合わされた張力(13.5)と、エンドカッタ13034と外科用把持具13036との組み合わされた相互作用によって組織13038に印加される張力の方向とを描写するベクトル矢印を含む。協調的データオーバーレイ13044によって示される組み合わされた張力及び張力の方向は、外科用ハブによって計算又は別様に決定することができる。したがって、協調的データオーバーレイ13044を含む術中ディスプレイ13030を見ているユーザは、エンドカッタ13034及び外科用把持具13036が組織13038にもたらしている複合効果を容易に視覚化することができる。
図16A、図16B、図16C、及び図16Dは、本開示のいくつかの非限定的な態様による、アンビル13052及びデバイスデッキ13054を使用した吻合処置の性能を表示する、例示的な術中ディスプレイ13050を示す。ここで図16Aを参照すると、アンビル13052は、結腸の第1のセクション13056とインターフェースしていることが分かる。結腸の第1のセクション13056がデバイスデッキ13054に向かって前進する(13063)と、アンビル13056は、結腸の第1のセクション13056の周囲組織に引張力F1を及ぼす。この力は、外科用ハブによって決定することができる。アンビル13056と結腸の第1のセクション13056との相互作用に基づいて、第1のデータオーバーレイ13060が術中ディスプレイ13050によって表示される。第1のデータオーバーレイ13060は、結腸の第1のセクション13056上のアンビル1352の引張力及び力の方向性を示すグラフィックを含むことができる。図16Aはまた、結腸の第2のセクション13058とインターフェースするデバイスデッキ13054を描写する。結腸の第2のセクション13058がアンビル13052に向かって前進する(13063)と、デバイスデッキ13054は、結腸の第2のセクション13058の周囲組織に引張力F2を及ぼす。この力は、外科用ハブによって決定することができる。デバイスデッキ13054と結腸の第2のセクション13058との相互作用に基づいて、第2のデータオーバーレイ13062が術中ディスプレイ13050によって表示される。第2のデータオーバーレイ13062は、結腸の第2のセクション13058上のデバイス13060の引張力及び力の方向性を示すグラフィックを含むことができる。
ここで図16Bを参照すると、術中ディスプレイ13050は、ここで、取り付けに近づいているときのアンビル13052及びデバイスデッキ13054を描写する。外科用ハブは、アンビル13052とデバイスデッキ13054との近接を感知するように構成され得る。更に、外科用ハブは、感知された近接に基づく第1の協調的オーバーレイ13064を表示するように構成することができる。第1の協調的オーバーレイ13064は、アンビル13052とデバイスデッキ13054との間の取り付けが達成されたか否かを図式的に示すことができる。例えば、図16Bに示されるような第1の協調的オーバーレイ13054は、アンビル13052とデバイスデッキ13054との間の取り付けがまだ達成されていないことを示すことができる。第1のデータオーバーレイ13060、第2のデータオーバーレイ13062、及び第1の協調的オーバーレイ13064は、ユーザが術中ディスプレイ13050を見るのを支援することができる。いくつかの態様では、術中ディスプレイ13050は、結腸組織に印加される力の予測される変化を示すための追加のデータオーバーレイも含むことができる。他の態様では、術中ディスプレイ13050は、最適なアプローチ角度を示すために追加のデータオーバーレイを含むことができる。これらのデータオーバーレイは、ユーザが吻合処置の最適な結果を達成することを支援し得る。
ここで図16Cを参照すると、術中ディスプレイ13050は、ここで、デバイス13068によるアンビル13052及びデバイスデッキ13054の取り付けを描写する。外科用ハブは、この取り付けを決定するように構成することができる。取り付けに基づいて、第1の協調的オーバーレイ13064は、ここで、取り付けを図式的に示す。取り付けの結果として、術中ディスプレイ13050は、ここで、第2の協調的オーバーレイ13066を描写する。第2の協調的オーバーレイ13066は、アンビル13052及びデバイスデッキ13054の組み合わされた引張力FTを示すグラフィックを含むことができる。図16Cの非限定的な態様では、アンビル13052及びデバイスデッキ13054の取り付けにより、第1のデータオーバーレイ13060及び第2のデータオーバーレイ13062が術中ディスプレイによってもはや表示されなくなる。他の態様では、第1のデータオーバーレイ13060及び第2のデータオーバーレイ13062は、デバイスデッキ13054へのアンビル13052の取り付け時に表示されたままであってもよい。
ここで図16Dを参照すると、術中ディスプレイ13050は、ここで、吻合中の結腸の第1のセクション13056及び結腸の第2のセクション13058の圧縮を描写する。外科用ハブは、処置のこの部分の間、結腸の第1のセクション13056及び結腸の第2のセクション13058上の圧縮力FCを決定するように構成することができる。圧縮力は、アンビル13052とデバイスデッキ13054との間の組織の圧縮によって引き起こされる力であり得る。したがって、術中ディスプレイ13050は、圧縮力FCを図式的に描写する第3の協調的オーバーレイ13070を表示することができる。第3の協調的オーバーレイ13070は、結腸の第1のセクション13056及び結腸の第2のセクション13058にわたって良好なシール及び許容可能なステープル形成があることを確実にするために、ユーザによって使用され得る。
図17は、本開示のいくつかの非限定的な態様による、相互作用する器具の協調的オーバーレイを表示するための方法13200を示す。方法13200は、外科用システム1、2、50、52、外科用ハブ6、56、5104、通信システム63、拡張システム83、及びARデバイス66、84等の、外科用システム、外科用ハブ、通信システム、拡張システム、ARデバイス、それらの構成要素のいずれか、並びに本明細書に開示される任意の他のデバイス及びシステムの任意の組合せによって実施され得る。
方法13200によれば、第1の拡張現実ディスプレイデバイスは、外科用ハブに通信可能に連結され得る(13202)。第1の拡張現実デバイスは、術野の第1の術中ディスプレイを生成することができる(13204)。第1の術中ディスプレイは、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示することができる(13206)。第1の外科用器具は、第2の外科用器具と相互作用することができ(13208)、第1及び第2の外科用器具の相互作用13208に基づいて、第1の術中ディスプレイは、相互作用のインジケータを表示することができる(13210)。
方法13200の一態様によれば、第1の外科用器具と第2の外科用器具との相互作用13208は、術野における共通構造と相互作用する第1の外科用器具及び第2の外科用器具を含み得る。別の態様では、第1の術中ディスプレイは、第1の外科用器具の動作に基づく第1のデータオーバーレイと、第2の外科用器具の動作に基づく第2のデータオーバーレイとを同時に表示することができる。更に別の態様では、第1の術中ディスプレイは、第1の外科用器具と第2の外科用器具との相互作用に基づく協調的データオーバーレイを表示することができる。更に別の態様では、第1の外科用器具及び第2の外科用器具と術野における共通構造との相互作用は、第1の外科用器具及び第2の外科用器具と組織との相互作用を含むことができる。更に、第1の術中ディスプレイは、第1の外科用器具及び第2の外科用器具によって組織に印加された組み合わされた力を表示することができる。
方法13200の一態様によれば、第2の拡張現実ディスプレイデバイスは、外科用ハブに通信可能に連結され得る。第2の拡張現実ディスプレイデバイスは、術野の第2の術中ディスプレイを生成することができる。第2の術中ディスプレイは、第2の外科用器具の動作に基づく第2のデータオーバーレイを表示することができる。更に、第2の術中ディスプレイは、第1の外科用器具と第2の外科用器具との間の相互作用に基づくインジケータを表示することができる。方法13200の別の態様では、外科用ハブは、第1の外科用器具及び第1のディスプレイデバイスを第1のユーザにリンクし、第2の外科用器具及び第2のディスプレイデバイスを第2のユーザにリンクすることができる。
方法13200の一態様によれば、外科用ハブは、第1の外科用器具及び第2の外科用器具が互いに近接して操作されることが意図されていることを識別することができる。別の態様では、外科用ハブは、第1の外科用器具及び第2の外科用器具が互いに近接して操作されることが意図されていないことを識別することができる。更に別の態様では、第1の外科用器具の近接センサは、第2の外科用器具を検出することができる。
本明細書に記載される主題の様々な追加的態様は、以下の番号付けされた実施例において説明される。
実施例1:相互作用する器具の協調的オーバーレイを表示するための方法であって、第1の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、第1の拡張現実ディスプレイデバイスによって、術野の第1の術中ディスプレイを生成することと、第1の術中ディスプレイによって、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示することと、第1の外科用器具を第2の外科用器具と相互作用させることと、第1の術中ディスプレイによって、第1の外科用器具と第2の外科用器具との間の相互作用に基づく相互作用のインジケータを表示することと、を含む、方法。
実施例2:第1の外科用器具を第2の外科用器具と相互作用させることが、第1の外科用器具及び第2の外科用器具を、術野内の共通構造と相互作用させることを含む、実施例1に記載の方法。
実施例3:第1の術中ディスプレイによって、第1の外科用器具の動作に基づく第1のデータオーバーレイと、第2の外科用器具の動作に基づく第2のデータオーバーレイと、を同時に表示することを更に含む、実施例1~2のいずれか1つに記載の方法。
実施例4:第1の術中ディスプレイによって、第1の外科用器具と第2の外科用器具との間の相互作用に基づく協調的データオーバーレイを表示することを更に含む、実施例1~3のいずれか1つに記載の方法。
実施例5:第1の外科用器具及び第2の外科用器具を術野内の共通構造と相互作用させることが、第1の外科用器具及び第2の外科用器具を組織と相互作用させることを含み、協調的データオーバーレイを表示することが、第1の外科用器具及び第2の外科用器具によって組織に印加された、組み合わされた力を表示することを含む、実施例1~4のいずれか1つに記載の方法。
実施例6:第2の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、第2の拡張現実ディスプレイデバイスによって、術野の第2の術中ディスプレイを生成することと、第2の術中ディスプレイによって、第2の外科用器具の動作に基づく第2のデータオーバーレイを表示することと、第2の術中ディスプレイによって、第1の外科用器具と第2の外科用器具との間の相互作用に基づく相互作用のインジケータを表示することと、を更に含む、実施例1~5のいずれか1つに記載の方法。
実施例7:外科用ハブによって、第1の外科用器具及び第1のディスプレイデバイスを第1のユーザにリンクすることと、外科用ハブによって、第2の外科用器具及び第2のディスプレイデバイスを第2のユーザにリンクすることと、を更に含む、実施例1~6のいずれか1つに記載の方法。
実施例8:外科用ハブによって、第1の外科用器具及び第2の外科用器具が互いに近接して操作されることが意図されていることを決定することを更に含む、実施例1~7のいずれか1つに記載の方法。
実施例9:外科用ハブによって、第1の外科用器具及び第2の外科用器具が互いに近接して操作されることが意図されていないことを決定することを更に含む、実施例1~8のいずれか1つに記載の方法。
実施例10:第1の外科用器具の近接センサによって、第2の外科用器具を検出することを更に含む、実施例1~9のいずれか1つに記載の方法。
実施例11:相互作用する器具の協調的オーバーレイを表示するためのシステムであって、術野の第1の術中ディスプレイを生成するように構成された第1の拡張現実ディスプレイデバイスと、第1の外科用器具と、第2の外科用器具と、第1のディスプレイデバイスに通信可能に連結された外科用ハブと、を備え、第1の術中ディスプレイが、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示し、第1の外科用器具と第2の外科用器具との相互作用により、第1の術中ディスプレイが相互作用のインジケータを表示する、システム。
実施例12:第1の外科用器具及び第2の外科用器具の相互作用が、第1の外科用器具及び第2の外科用器具と、術野における共通構造との相互作用を含む、実施例11に記載のシステム。
実施例13:第1の術中ディスプレイが、第1の外科用器具の動作に基づく第1のデータオーバーレイと、第2の外科用器具の動作に基づく第2のデータオーバーレイと、を同時に表示する、実施例11~12のいずれか1つに記載のシステム。
実施例14:第1の外科用器具と第2の外科用器具との相互作用により、第1の術中ディスプレイが、相互作用に基づく協調的データオーバーレイを表示する、実施例11~13のいずれか1つに記載のシステム。
実施例15:共通構造が組織であり、協調的データオーバーレイが、第1の外科用器具及び第2の外科用器具によって組織に印加された、組み合わされた力を含む、実施例11~14のいずれか1つに記載のシステム。
実施例16:術野の第2の術中ディスプレイを生成するように構成された第2の拡張現実ディスプレイデバイスを更に備え、第2のディスプレイデバイスは外科用ハブに通信可能に連結されており、第2の術中ディスプレイが、第2の外科用器具の動作に基づく第2のデータオーバーレイを表示し、第1の外科用器具と第2の外科用器具との相互作用により、第2の術中ディスプレイが、相互作用についてのインジケータを表示する、実施例11~15のいずれか1つに記載のシステム。
実施例17:第1の外科用器具及び第1のディスプレイデバイスが、第1のユーザにリンクされ、第2の外科用器具及び第2のディスプレイデバイスが、第2のユーザにリンクされる、実施例11~16のいずれか1つに記載のシステム。
実施例18:外科用ハブが、第1の外科用器具及び第2の外科用器具が互いに近接して操作されることが意図されていることを識別するように構成されている、実施例11~17のいずれか1つに記載のシステム。
実施例19:外科用ハブが、第1の外科用器具及び第2の外科用器具が互いに近接して操作されることが意図されていないことを識別するように構成されている、実施例11~18のいずれか1つに記載のシステム。
実施例20:第1の外科用器具が、第2の外科用器具を検出するための近接センサを備える、実施例11~19のいずれか1つに記載のシステム。
いくつかの形態が示され説明されてきたが、添付の特許請求の範囲をそのような詳細に制限又は限定することは、本出願人が意図するところではない。多くの修正、変形、変更、置換、組み合わせ及びこれらの形態の等価物を実装することができ、本開示の範囲から逸脱することなく当業者により想到されるであろう。更に、記述する形態に関連した各要素の構造は、その要素によって実施される機能を提供するための手段として代替的に説明することができる。また、材料が特定の構成要素に関して開示されているが、他の材料が使用されてもよい。したがって、上記の説明文及び添付の特許請求の範囲は、全てのそのような修正、組み合わせ、及び変形を、開示される形態の範囲に含まれるものとして網羅することを意図としたものである点を理解されたい。添付の特許請求の範囲は、全てのそのような修正、変形、変更、置換、修正、及び等価物を網羅することを意図する。
上記の詳細な説明は、ブロック図、フロー図及び/又は実施例を用いて、装置及び/又はプロセスの様々な形態について記載してきた。そのようなブロック図、フロー図及び/又は実施例が1つ以上の機能及び/又は動作を含む限り、当業者に理解されたいこととして、そのようなブロック図、フロー図及び/又は実施例に含まれる各機能及び/又は動作は、多様なハードウェア、ソフトウェア、ファームウェア又はこれらの事実上の任意の組み合わせによって、個々にかつ/又は集合的に実装することができる。当業者には、本明細書で開示される形態のうちのいくつかの態様の全部又は一部が、1台以上のコンピュータ上で稼働する1つ以上のコンピュータプログラムとして(例えば、1台以上のコンピュータシステム上で稼働する1つ以上のプログラムとして)、1つ以上のプロセッサ上で稼働する1つ以上のプログラムとして(例えば、1つ以上のマイクロプロセッサ上で稼働する1つ以上のプログラムとして)、ファームウェアとして、又はこれらの実質的に任意の組合せとして集積回路上で等価に実装することができ、回路を設計すること、並びに/又はソフトウェア及び/若しくはファームウェアのコードを記述することは、本開示を鑑みれば当業者の技能の範囲内に含まれることが理解されよう。加えて、当業者には理解されることとして、本明細書に記載した主題の機構は、多様な形態で1つ以上のプログラム製品として配布されることが可能であり、本明細書に記載した主題の具体的な形態は、配布を実際に実行するために使用される信号搬送媒体の特定のタイプにかかわらず適用される。
様々な開示された態様を実施するように論理をプログラムするために使用される命令は、ダイナミックランダムアクセスメモリ(DRAM)、キャッシュ、フラッシュメモリ又は他のストレージなどのシステム内メモリに記憶され得る。更に、命令は、ネットワークを介して、又は他のコンピュータ可読媒体によって配布され得る。したがって、機械可読媒体としては、機械(例えば、コンピュータ)によって読み出し可能な形態で情報を記憶又は送信するための任意の機構が挙げられ得るが、フロッピーディスケット、光ディスク、コンパクトディスク、読み出し専用メモリ(CD-ROM)、並びに磁気光学ディスク、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、消去可能プログラマブル読み出し専用メモリ(EPROM)、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、磁気若しくは光カード、フラッシュメモリ又は、電気的、光学的、音響的、若しくは他の形態の伝播信号(例えば、搬送波、赤外線信号、デジタル信号など)を介してインターネットを介した情報の送信に使用される有形機械可読ストレージに限定されない。したがって、非一時的コンピュータ可読媒体としては、機械(例えば、コンピュータ)によって読み出し可能な形態で電子命令又は情報を記憶又は送信するのに好適な任意のタイプの有形機械可読媒体が挙げられる。
本明細書の任意の態様で使用されるとき、「制御回路」という用語は、例えば、ハードワイヤード回路、プログラマブル回路(例えば、1つ以上の個々の命令処理コアを含むコンピュータプロセッサ、処理ユニット、プロセッサ、マイクロコントローラ、マイクロコントローラユニット、コントローラ、デジタル信号プロセッサ(DSP)、プログラマブル論理装置(PLD)、プログラマブル論理アレイ(PLA)、又はフィールドプログラマブルゲートアレイ(FPGA))、状態機械回路、プログラマブル回路によって実行される命令を記憶するファームウェア、及びこれらの任意の組み合わせを指すことができる。制御回路は、集合的に又は個別に、例えば、集積回路(IC)、特定用途向け集積回路(ASIC)、システムオンチップ(SoC)、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、サーバ、スマートフォンなどの、より大きなシステムの一部を形成する回路として具現化され得る。したがって、本明細書で使用されるとき、「制御回路」は、少なくとも1つの個別の電気回路を有する電気回路、少なくとも1つの集積回路を有する電気回路、少なくとも1つの特定用途向け集積回路を有する電気回路、コンピュータプログラムによって構成された汎用コンピューティング装置(例えば、本明細書で説明したプロセス及び/若しくは装置を少なくとも部分的に実行するコンピュータプログラムによって構成された汎用コンピュータ、又は本明細書で説明したプロセス及び/若しくは装置を少なくとも部分的に実行するコンピュータプログラムによって構成されたマイクロプロセッサ)を形成する電気回路、メモリ装置(例えば、ランダムアクセスメモリの形態)を形成する電気回路及び/又は通信装置(例えばモデム、通信スイッチ、又は光-電気設備)を形成する電気回路を含むが、これらに限定されない。当業者は、本明細書で述べた主題が、アナログ形式若しくはデジタル形式、又はこれらのいくつかの組み合わせで実装されてもよいことを認識するであろう。
本明細書の任意の態様で使用されるとき、「論理」という用語は、前述の動作のいずれかを実施するように構成されたアプリケーション、ソフトウェア、ファームウェア、及び/又は回路を指し得る。ソフトウェアは、非一時的コンピュータ可読記憶媒体上に記録されたソフトウェアパッケージ、コード、命令、命令セット、及び/又はデータとして具現化されてもよい。ファームウェアは、メモリ装置内のコード、命令、若しくは命令セット、及び/又はハードコードされた(例えば、不揮発性の)データとして具現化されてもよい。
本明細書の任意の態様で使用されるとき、「構成要素」、「システム」、「モジュール」等という用語は、制御回路、コンピュータ関連エンティティ、ハードウェア、ハードウェアとソフトウェアとの組合せ、ソフトウェア、又は実行中のソフトウェアのいずれかを指すことができる。
本明細書の任意の態様で使用されるとき、「アルゴリズム」とは、所望の結果につながる工程の自己無撞着シーケンスを指し、「工程」とは、必ずしも必要ではないが、記憶、転送、組み合わせ、比較、及び別様に操作されることが可能な電気信号又は磁気信号の形態をとることができる物理量及び/又は論理状態の操作を指す。これらの信号を、ビット、値、要素、記号、文字、用語、番号などとして言及することが一般的な扱い方である。これらの及び類似の用語は、適切な物理量と関連付けられてもよく、また単に、これらの量及び/又は状態に適用される便利な標識である。
ネットワークとしては、パケット交換ネットワークが挙げられ得る。通信デバイスは、選択されたパケット交換ネットワーク通信プロトコルを使用して、互いに通信することができる。1つの例示的な通信プロトコルとしては、伝送制御プロトコル/インターネットプロトコル(TCP/IP)を使用して通信を可能にすることができるイーサネット通信プロトコルを挙げることができる。イーサネットプロトコルは、Institute of Electrical and Electronics Engineers(IEEE)によって発行された2008年12月発行の表題「IEEE802.3 Standard」、及び/又は本規格の後のバージョンのイーサネット規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、通信デバイスは、X.25通信プロトコルを使用して互いに通信することができる。X.25通信プロトコルは、International Telecommunication Union-Telecommunication Standardization Sector(ITU-T)によって公布された規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、通信デバイスは、フレームリレー通信プロトコルを使用して互いに通信することができる。フレームリレー通信プロトコルは、Consultative Committee for International Telegraph and Telephone(CCITT)及び/又はthe American National Standards Institute(ANSI)によって公布された規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、送受信機は、非同期転送モード(ATM)通信プロトコルを使用して互いに通信することが可能であり得る。ATM通信プロトコルは、ATM Forumによって「ATM-MPLS Network Interworking 2.0」という題で2001年8月に公開されたATM規格及び/又は本規格の後のバージョンに準拠するか、又は互換性があり得る。当然のことながら、異なる及び/又は後に開発されたコネクション型ネットワーク通信プロトコルは、本明細書で等しく企図される。
別段の明確な定めがない限り、前述の開示から明らかなように、前述の開示全体を通じて、「処理すること(processing)」、「計算すること(computing)」、「算出すること(calculating)」、「判定すること(determining)」、「表示すること(displaying)」などの用語を使用する考察は、コンピュータシステムのレジスタ及びメモリ内で物理(電子的)量として表現されるデータを、コンピュータシステムのメモリ若しくはレジスタ又は他のそのような情報記憶、伝送、若しくはディスプレイデバイス内で物理量として同様に表現される他のデータへと操作し変換する、コンピュータシステム又は類似の電子計算装置のアクション及び処理を指していることが理解されよう。
1つ以上の構成要素が、本明細書中で、「ように構成されている(configured to)」、「ように構成可能である(configurable to)」、「動作可能である/ように動作する(operable/operative to)」、「適合される/適合可能である(adapted/adaptable)」、「ことが可能である(able to)」、「準拠可能である/準拠する(conformable/conformed to)」などと言及され得る。当業者は、「ように構成されている」は、一般に、文脈上他の意味に解釈すべき場合を除き、アクティブ状態の構成要素及び/又は非アクティブ状態の構成要素及び/又はスタンバイ状態の構成要素を包含し得ることを理解するであろう。
「近位」及び「遠位」という用語は、本明細書では、外科用器具のハンドル部分を操作する臨床医を基準として使用される。「近位」という用語は、臨床医に最も近い部分を指し、「遠位」という用語は、臨床医から離れた位置にある部分を指す。便宜上及び明確性のために、「垂直」、「水平」、「上」、及び「下」などの空間的用語が、本明細書において図面に対して使用され得ることが更に理解されよう。しかしながら、外科用器具は、多くの向き及び位置で使用されるものであり、これらの用語は限定的及び/又は絶対的であることを意図したものではない。
当業者は、一般に、本明細書で使用され、かつ特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本文)で使用される用語は、概して「オープンな」用語として意図されるものである(例えば、「含む(including)」という用語は、「~を含むが、それらに限定されない(including but not limited to)」と解釈されるべきであり、「有する(having)」という用語は「~を少なくとも有する(having at least)」と解釈されるべきであり、「含む(includes)」という用語は「~を含むが、それらに限定されない(includes but is not limited to)」と解釈されるべきであるなど)ことを理解するであろう。更に、導入された請求項記載(introduced claim recitation)において特定の数が意図される場合、かかる意図は当該請求項中に明確に記載され、またかかる記載がない場合は、かかる意図は存在しないことが、当業者には理解されるであろう。例えば、理解を助けるものとして、後続の添付の特許請求の範囲は、「少なくとも1つの(at least one)」及び「1つ以上の(one or more)」という導入句を、請求項記載を導入するために含むことがある。しかしながら、かかる句の使用は、「a」又は「an」という不定冠詞によって請求項記載を導入した場合に、たとえ同一の請求項内に「1つ以上の」又は「少なくとも1つの」といった導入句及び「a」又は「an」という不定冠詞が含まれる場合であっても、かかる導入された請求項記載を含むいかなる特定の請求項も、かかる記載事項を1つのみ含む請求項に限定されると示唆されるものと解釈されるべきではない(例えば、「a」及び/又は「an」は通常、「少なくとも1つの」又は「1つ以上の」を意味するものと解釈されるべきである)。定冠詞を使用して請求項記載を導入する場合にも、同様のことが当てはまる。
加えて、導入された請求項記載において特定の数が明示されている場合であっても、かかる記載は、典型的には、少なくとも記載された数を意味するものと解釈されるべきであることが、当業者には認識されるであろう(例えば、他に修飾語のない、単なる「2つの記載事項」という記載がある場合、一般的に、少なくとも2つの記載事項、又は2つ以上の記載事項を意味する)。更に、「A、B及びCなどのうちの少なくとも1つ」に類する表記が使用される場合、一般に、かかる構文は、当業者がその表記を理解するであろう意味で意図されている(例えば、「A、B及びCのうちの少なくとも1つを有するシステム」は、限定するものではないが、Aのみ、Bのみ、Cのみ、AとBの両方、AとCの両方、BとCの両方及び/又はAとBとCの全てなどを有するシステムを含む)。「A、B又はCなどのうちの少なくとも1つ」に類する表記が用いられる場合、一般に、かかる構文は、当業者がその表記を理解するであろう意味で意図されている(例えば、「A、B、又はCのうちの少なくとも1つを有するシステム」は、限定するものではないが、Aのみ、Bのみ、Cのみ、AとBの両方、AとCの両方、BとCの両方及び/又はAとBとCの全てなどを有するシステムを含む)。更に、典型的には、2つ以上の選択的な用語を表すあらゆる選言的な語及び/又は句は、文脈上他の意味に解釈すべき場合を除いて、明細書内であろうと、請求の範囲内であろうと、あるいは図面内であろうと、それら用語のうちの1つ、それらの用語のうちのいずれか、又はそれらの用語の両方を含む可能性を意図すると理解されるべきであることが、当業者には理解されよう。例えば、「A又はB」という句は、典型的には、「A」又は「B」又は「A及びB」の可能性を含むものと理解されよう。
添付の特許請求の範囲に関して、当業者は、本明細書における引用した動作は一般に、任意の順序で実施され得ることを理解するであろう。また、様々な動作のフロー図がシーケンス(複数可)で示されているが、様々な動作は、示されたもの以外の順序で実施されてもよく、又は同時に実施されてもよいことが理解されるべきである。かかる代替の順序付けの例は、文脈上他の意味に解釈すべき場合を除いて、重複、交互配置、割り込み、再順序付け、増加的、予備的、追加的、同時、逆又は他の異なる順序付けを含んでもよい。更に、「~に応答する(responsive to)」、「~に関連する(related to)」といった用語、又は他の過去時制の形容詞は、一般に、文脈上他の意味に解釈すべき場合を除き、かかる変化形を除外することが意図されるものではない。
「一態様」、「態様」、「例示」、「一例示」などへの任意の参照は、その態様に関連して記載される特定の特徴部、構造又は特性が少なくとも1つの態様に含まれると意味することは特記に値する。したがって、本明細書の全体を通じて様々な場所に見られる語句「一態様では」、「態様では」、「例示では」及び「一例示では」は、必ずしも全てが同じ態様を指すものではない。更に、特定の特徴、構造、又は特性は、1つ以上の態様において任意の好適な様態で組み合わせることができる。
本明細書で参照され、かつ/又は任意の出願データシートに列挙される任意の特許出願、特許、非特許刊行物、又は他の開示資料は、組み込まれる資料が本明細書と矛盾しない範囲で、参照により本明細書に組み込まれる。それ自体、また必要な範囲で、本明細書に明瞭に記載される開示は、参照により本明細書に組み込まれるあらゆる矛盾する記載に優先するものとする。参照により本明細書に組み込まれると言及されているが、現行の定義、見解、又は本明細書に記載される他の開示内容と矛盾するあらゆる内容、又はそれらの部分は、組み込まれた内容と現行の開示内容との間に矛盾が生じない範囲においてのみ、組み込まれるものとする。
要約すると、本明細書に記載した構想を用いる結果として得られる多くの利益が記載されてきた。1つ以上の形態の上述の記載は、例示及び説明を目的として提示されているものである。包括的であることも、開示された厳密な形態に限定することも意図されていない。上記の教示を鑑みて、修正又は変形が可能である。1つ以上の形態は、原理及び実際の応用について例示し、それによって、様々な形態を様々な修正例とともに、想到される特定の用途に適するものとして当業者が利用することを可能にするようにするために、選択及び記載されたものである。本明細書とともに提示される特許請求の範囲が全体的な範囲を定義することが意図される。
〔実施の態様〕
(1) 相互作用する器具の協調的オーバーレイを表示するための方法であって、
第1の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、
前記第1の拡張現実ディスプレイデバイスによって、術野の第1の術中ディスプレイを生成することと、
前記第1の術中ディスプレイによって、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示することと、
前記第1の外科用器具を第2の外科用器具と相互作用させることと、
前記第1の術中ディスプレイによって、前記第1の外科用器具と前記第2の外科用器具との間の前記相互作用に基づく前記相互作用のインジケータを表示することと、を含む、方法。
(2) 前記第1の外科用器具を第2の外科用器具と相互作用させることが、
前記第1の外科用器具及び前記第2の外科用器具を、前記術野内の共通構造と相互作用させることを含む、実施態様1に記載の方法。
(3) 前記第1の術中ディスプレイによって、前記第1の外科用器具の動作に基づく前記第1のデータオーバーレイと、前記第2の外科用器具の動作に基づく第2のデータオーバーレイと、を同時に表示することを更に含む、実施態様2に記載の方法。
(4) 前記第1の術中ディスプレイによって、前記第1の外科用器具と前記第2の外科用器具との間の前記相互作用に基づく協調的データオーバーレイを表示することを更に含む、実施態様3に記載の方法。
(5) 前記第1の外科用器具及び前記第2の外科用器具を前記術野における前記共通構造と相互作用させることが、前記第1の外科用器具及び前記第2の外科用器具を組織と相互作用させることを含み、
前記協調的データオーバーレイを表示することが、前記第1の外科用器具及び前記第2の外科用器具によって前記組織に印加された、組み合わされた力を表示することを含む、実施態様4に記載の方法。
(6) 第2の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、
前記第2の拡張現実ディスプレイデバイスによって、前記術野の第2の術中ディスプレイを生成することと、
前記第2の術中ディスプレイによって、前記第2の外科用器具の動作に基づく第2のデータオーバーレイを表示することと、
前記第2の術中ディスプレイによって、前記第1の外科用器具と前記第2の外科用器具との間の前記相互作用に基づく前記相互作用のインジケータを表示することと、を更に含む、実施態様1に記載の方法。
(7) 前記外科用ハブによって、前記第1の外科用器具及び前記第1のディスプレイデバイスを第1のユーザにリンクすることと、
前記外科用ハブによって、前記第2の外科用器具及び前記第2のディスプレイデバイスを第2のユーザにリンクすることと、を更に含む、実施態様6に記載の方法。
(8) 前記外科用ハブによって、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていることを決定することを更に含む、実施態様1に記載の方法。
(9) 前記外科用ハブによって、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていないことを決定することを更に含む、実施態様1に記載の方法。
(10) 前記第1の外科用器具の近接センサによって、前記第2の外科用器具を検出することを更に含む、実施態様1に記載の方法。
(11) 相互作用する器具の協調的オーバーレイを表示するためのシステムであって、
術野の第1の術中ディスプレイを生成するように構成された第1の拡張現実ディスプレイデバイスと、
第1の外科用器具と、
第2の外科用器具と、
前記第1のディスプレイデバイスに通信可能に連結された外科用ハブと、を備え、
前記第1の術中ディスプレイが、前記第1の外科用器具の動作に基づく第1のデータオーバーレイを表示し、
前記第1の外科用器具と前記第2の外科用器具との相互作用により、前記第1の術中ディスプレイが前記相互作用のインジケータを表示する、システム。
(12) 前記第1の外科用器具及び前記第2の外科用器具の前記相互作用が、前記第1の外科用器具及び前記第2の外科用器具と、前記術野における共通構造との相互作用を含む、実施態様11に記載のシステム。
(13) 前記第1の術中ディスプレイが、前記第1の外科用器具の動作に基づく前記第1のデータオーバーレイと、前記第2の外科用器具の動作に基づく第2のデータオーバーレイと、を同時に表示する、実施態様12に記載のシステム。
(14) 前記第1の外科用器具と前記第2の外科用器具との前記相互作用により、前記第1の術中ディスプレイが、前記相互作用に基づく協調的データオーバーレイを表示する、実施態様13に記載のシステム。
(15) 前記共通構造が組織であり、
前記協調的データオーバーレイが、前記第1の外科用器具及び前記第2の外科用器具によって前記組織に印加された、組み合わされた力を含む、実施態様14に記載のシステム。
(16) 術野の第2の術中ディスプレイを生成するように構成された第2の拡張現実ディスプレイデバイスを更に備え、前記第2のディスプレイデバイスは前記外科用ハブに通信可能に連結されており、
前記第2の術中ディスプレイが、前記第2の外科用器具の動作に基づく第2のデータオーバーレイを表示し、
前記第1の外科用器具と前記第2の外科用器具との前記相互作用により、前記第2の術中ディスプレイが、前記相互作用についてのインジケータを表示する、実施態様11に記載のシステム。
(17) 前記第1の外科用器具及び前記第1のディスプレイデバイスが、第1のユーザにリンクされ、
前記第2の外科用器具及び前記第2のディスプレイデバイスが、第2のユーザにリンクされる、実施態様16に記載のシステム。
(18) 前記外科用ハブが、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていることを識別するように構成されている、実施態様11に記載のシステム。
(19) 前記外科用ハブが、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていないことを識別するように構成されている、実施態様11に記載のシステム。
(20) 前記第1の外科用器具が、前記第2の外科用器具を検出するための近接センサを含む、実施態様11に記載のシステム。

Claims (20)

  1. 相互作用する器具の協調的オーバーレイを表示するための方法であって、
    第1の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、
    前記第1の拡張現実ディスプレイデバイスによって、術野の第1の術中ディスプレイを生成することと、
    前記第1の術中ディスプレイによって、第1の外科用器具の動作に基づく第1のデータオーバーレイを表示することと、
    前記第1の外科用器具を第2の外科用器具と相互作用させることと、
    前記第1の術中ディスプレイによって、前記第1の外科用器具と前記第2の外科用器具との間の前記相互作用に基づく前記相互作用のインジケータを表示することと、を含む、方法。
  2. 前記第1の外科用器具を第2の外科用器具と相互作用させることが、
    前記第1の外科用器具及び前記第2の外科用器具を、前記術野内の共通構造と相互作用させることを含む、請求項1に記載の方法。
  3. 前記第1の術中ディスプレイによって、前記第1の外科用器具の動作に基づく前記第1のデータオーバーレイと、前記第2の外科用器具の動作に基づく第2のデータオーバーレイと、を同時に表示することを更に含む、請求項2に記載の方法。
  4. 前記第1の術中ディスプレイによって、前記第1の外科用器具と前記第2の外科用器具との間の前記相互作用に基づく協調的データオーバーレイを表示することを更に含む、請求項3に記載の方法。
  5. 前記第1の外科用器具及び前記第2の外科用器具を前記術野における前記共通構造と相互作用させることが、前記第1の外科用器具及び前記第2の外科用器具を組織と相互作用させることを含み、
    前記協調的データオーバーレイを表示することが、前記第1の外科用器具及び前記第2の外科用器具によって前記組織に印加された、組み合わされた力を表示することを含む、請求項4に記載の方法。
  6. 第2の拡張現実ディスプレイデバイスを外科用ハブに通信可能に連結することと、
    前記第2の拡張現実ディスプレイデバイスによって、前記術野の第2の術中ディスプレイを生成することと、
    前記第2の術中ディスプレイによって、前記第2の外科用器具の動作に基づく第2のデータオーバーレイを表示することと、
    前記第2の術中ディスプレイによって、前記第1の外科用器具と前記第2の外科用器具との間の前記相互作用に基づく前記相互作用のインジケータを表示することと、を更に含む、請求項1に記載の方法。
  7. 前記外科用ハブによって、前記第1の外科用器具及び前記第1のディスプレイデバイスを第1のユーザにリンクすることと、
    前記外科用ハブによって、前記第2の外科用器具及び前記第2のディスプレイデバイスを第2のユーザにリンクすることと、を更に含む、請求項6に記載の方法。
  8. 前記外科用ハブによって、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていることを決定することを更に含む、請求項1に記載の方法。
  9. 前記外科用ハブによって、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていないことを決定することを更に含む、請求項1に記載の方法。
  10. 前記第1の外科用器具の近接センサによって、前記第2の外科用器具を検出することを更に含む、請求項1に記載の方法。
  11. 相互作用する器具の協調的オーバーレイを表示するためのシステムであって、
    術野の第1の術中ディスプレイを生成するように構成された第1の拡張現実ディスプレイデバイスと、
    第1の外科用器具と、
    第2の外科用器具と、
    前記第1のディスプレイデバイスに通信可能に連結された外科用ハブと、を備え、
    前記第1の術中ディスプレイが、前記第1の外科用器具の動作に基づく第1のデータオーバーレイを表示し、
    前記第1の外科用器具と前記第2の外科用器具との相互作用により、前記第1の術中ディスプレイが前記相互作用のインジケータを表示する、システム。
  12. 前記第1の外科用器具及び前記第2の外科用器具の前記相互作用が、前記第1の外科用器具及び前記第2の外科用器具と、前記術野における共通構造との相互作用を含む、請求項11に記載のシステム。
  13. 前記第1の術中ディスプレイが、前記第1の外科用器具の動作に基づく前記第1のデータオーバーレイと、前記第2の外科用器具の動作に基づく第2のデータオーバーレイと、を同時に表示する、請求項12に記載のシステム。
  14. 前記第1の外科用器具と前記第2の外科用器具との前記相互作用により、前記第1の術中ディスプレイが、前記相互作用に基づく協調的データオーバーレイを表示する、請求項13に記載のシステム。
  15. 前記共通構造が組織であり、
    前記協調的データオーバーレイが、前記第1の外科用器具及び前記第2の外科用器具によって前記組織に印加された、組み合わされた力を含む、請求項14に記載のシステム。
  16. 術野の第2の術中ディスプレイを生成するように構成された第2の拡張現実ディスプレイデバイスを更に備え、前記第2のディスプレイデバイスは前記外科用ハブに通信可能に連結されており、
    前記第2の術中ディスプレイが、前記第2の外科用器具の動作に基づく第2のデータオーバーレイを表示し、
    前記第1の外科用器具と前記第2の外科用器具との前記相互作用により、前記第2の術中ディスプレイが、前記相互作用についてのインジケータを表示する、請求項11に記載のシステム。
  17. 前記第1の外科用器具及び前記第1のディスプレイデバイスが、第1のユーザにリンクされ、
    前記第2の外科用器具及び前記第2のディスプレイデバイスが、第2のユーザにリンクされる、請求項16に記載のシステム。
  18. 前記外科用ハブが、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていることを識別するように構成されている、請求項11に記載のシステム。
  19. 前記外科用ハブが、前記第1の外科用器具及び前記第2の外科用器具が互いに近接して操作されることが意図されていないことを識別するように構成されている、請求項11に記載のシステム。
  20. 前記第1の外科用器具が、前記第2の外科用器具を検出するための近接センサを含む、請求項11に記載のシステム。
JP2023563019A 2021-04-14 2022-04-11 両方のオーバーレイが実行されることになる相互作用する器具の協調的オーバーレイ Pending JP2024514635A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202163174674P 2021-04-14 2021-04-14
US63/174,674 2021-04-14
US202163284326P 2021-11-30 2021-11-30
US63/284,326 2021-11-30
US17/688,646 US20220331056A1 (en) 2021-04-14 2022-03-07 Cooperative overlays of interacting instruments which result in both overlays being effected
US17/688,646 2022-03-07
PCT/IB2022/053384 WO2022219504A1 (en) 2021-04-14 2022-04-11 Cooperative overlays of interacting instruments which result in both overlays being effected

Publications (1)

Publication Number Publication Date
JP2024514635A true JP2024514635A (ja) 2024-04-02

Family

ID=83601401

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2023563015A Pending JP2024514634A (ja) 2021-04-14 2022-04-11 外科用データオーバーレイを制御するためのシステム及び方法
JP2023562919A Pending JP2024514883A (ja) 2021-04-14 2022-04-11 遠隔デバイス機能を有する遠隔制御の組ペアのインジケーション
JP2023563024A Pending JP2024514637A (ja) 2021-04-14 2022-04-11 外科用情報を表示する頻度間隔を予測するための1つ以上の外科用デバイスのコンテキストパラメータの利用
JP2023563019A Pending JP2024514635A (ja) 2021-04-14 2022-04-11 両方のオーバーレイが実行されることになる相互作用する器具の協調的オーバーレイ
JP2023562913A Pending JP2024514881A (ja) 2021-04-14 2022-04-11 手術視野におけるオーバーレイを制御するための外科用データ値及び状況認識の利用
JP2023563011A Pending JP2024514633A (ja) 2021-04-14 2022-04-11 手術視野における表示態様のリスクベースの優先順位付け
JP2023562917A Pending JP2024514882A (ja) 2021-04-14 2022-04-11 オーバーレイされたデータ及び構成のカスタマイズ

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2023563015A Pending JP2024514634A (ja) 2021-04-14 2022-04-11 外科用データオーバーレイを制御するためのシステム及び方法
JP2023562919A Pending JP2024514883A (ja) 2021-04-14 2022-04-11 遠隔デバイス機能を有する遠隔制御の組ペアのインジケーション
JP2023563024A Pending JP2024514637A (ja) 2021-04-14 2022-04-11 外科用情報を表示する頻度間隔を予測するための1つ以上の外科用デバイスのコンテキストパラメータの利用

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2023562913A Pending JP2024514881A (ja) 2021-04-14 2022-04-11 手術視野におけるオーバーレイを制御するための外科用データ値及び状況認識の利用
JP2023563011A Pending JP2024514633A (ja) 2021-04-14 2022-04-11 手術視野における表示態様のリスクベースの優先順位付け
JP2023562917A Pending JP2024514882A (ja) 2021-04-14 2022-04-11 オーバーレイされたデータ及び構成のカスタマイズ

Country Status (6)

Country Link
US (17) US20220335696A1 (ja)
EP (7) EP4136650A1 (ja)
JP (7) JP2024514634A (ja)
CN (7) CN117425935A (ja)
BR (6) BR112023021473A2 (ja)
WO (4) WO2022219490A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250947B2 (en) * 2017-02-24 2022-02-15 General Electric Company Providing auxiliary information regarding healthcare procedure and system performance using augmented reality
US11684400B2 (en) 2018-09-07 2023-06-27 Cilag Gmbh International Grounding arrangement of energy modules
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US20200078071A1 (en) 2018-09-07 2020-03-12 Ethicon Llc Instrument tracking arrangement based on real time clock information
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11743665B2 (en) 2019-03-29 2023-08-29 Cilag Gmbh International Modular surgical energy system with module positional awareness sensing with time counter
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US20220335696A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Mixed reality feedback systems that cooperate to increase efficient perception of complex data feeds
KR20240005953A (ko) * 2021-05-14 2024-01-12 스냅 인코포레이티드 증강 현실 경험의 시동 시간 감소
USD1003915S1 (en) * 2021-08-19 2023-11-07 Covidien Lp Surgeon display screen with a graphical user interface having electrosurgical buttons
US20230059343A1 (en) * 2021-08-21 2023-02-23 Ix Innovation Llc Telemetry-based control of robotic systems
US20230055383A1 (en) * 2021-08-23 2023-02-23 Summate Technologies, Inc. Integrated Data Capture of Sterile and Non-Sterile Surgical Supplies and Implantables
US20230138204A1 (en) * 2021-11-02 2023-05-04 International Business Machines Corporation Augmented reality object interaction and notification
US20230156174A1 (en) * 2021-11-17 2023-05-18 3Dintegrated Aps Surgical visualization image enhancement
US20230306652A1 (en) * 2022-03-11 2023-09-28 International Business Machines Corporation Mixed reality based contextual evaluation of object dimensions
US20230328494A1 (en) * 2022-04-08 2023-10-12 Shreyas Sen Distributed body area network computing system, method and computer program products
EP4356396A1 (en) 2022-06-02 2024-04-24 Cilag GmbH International Customization, troubleshooting, and wireless pairing techniques for surgical instruments

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212208B2 (en) * 2003-02-25 2007-05-01 Bahram Khozai System and method to present and display multiple data using enhanced box charts
FR2855292B1 (fr) * 2003-05-22 2005-12-09 Inst Nat Rech Inf Automat Dispositif et procede de recalage en temps reel de motifs sur des images, notamment pour le guidage par localisation
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US20070211930A1 (en) * 2006-03-09 2007-09-13 Terry Dolwick Attribute based image enhancement and display for medical imaging applications
US8982195B2 (en) * 2006-09-07 2015-03-17 Abbott Medical Optics Inc. Digital video capture system and method with customizable graphical overlay
RU2459576C2 (ru) * 2006-12-21 2012-08-27 Конинклейке Филипс Электроникс, Н.В. Электрически изолированный катетер с беспроводными датчиками
US8228368B2 (en) * 2008-04-26 2012-07-24 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot using a captured fluorescence image and captured stereoscopic visible images
JP5203858B2 (ja) * 2008-09-01 2013-06-05 富士フイルム株式会社 医用画像表示装置、医用画像表示方法、並びに医用画像表示プログラム
EP2227063B1 (en) * 2009-03-04 2012-03-14 Fujitsu Limited Improvements to wireless sensor networks
US8521331B2 (en) * 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
US8730251B2 (en) * 2010-06-07 2014-05-20 Apple Inc. Switching video streams for a display without a visible interruption
CN103068348B (zh) * 2010-08-02 2015-07-15 约翰霍普金斯大学 使用协作机器人控制和音频反馈呈现力传感器信息的方法
WO2016069650A1 (en) * 2014-10-27 2016-05-06 Intuitive Surgical Operations, Inc. System and method for integrated surgical table icons
US11504192B2 (en) * 2014-10-30 2022-11-22 Cilag Gmbh International Method of hub communication with surgical instrument systems
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US20160287337A1 (en) * 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
CN109310476B (zh) * 2016-03-12 2020-04-03 P·K·朗 用于手术的装置与方法
US10754417B2 (en) * 2016-11-14 2020-08-25 Logitech Europe S.A. Systems and methods for operating an input device in an augmented/virtual reality environment
US11487353B2 (en) * 2016-11-14 2022-11-01 Logitech Europe S.A. Systems and methods for configuring a hub-centric virtual/augmented reality environment
WO2018134140A1 (en) * 2017-01-17 2018-07-26 Koninklijke Philips N.V. Augmented reality interventional system providing contextual overlays
US9892564B1 (en) * 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
US10242502B2 (en) * 2017-07-27 2019-03-26 Facebook, Inc. Providing an augmented reality overlay for display over a view of a user
US11432877B2 (en) * 2017-08-02 2022-09-06 Medtech S.A. Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking
US10610310B2 (en) * 2017-10-02 2020-04-07 Robin Elizabeth McKenzie TODD User interface system and methods for overlaying surgical video output
JP2021500690A (ja) * 2017-10-23 2021-01-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自己展開型拡張現実ベースのサービス命令ライブラリ
US11564756B2 (en) * 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11071595B2 (en) * 2017-12-14 2021-07-27 Verb Surgical Inc. Multi-panel graphical user interface for a robotic surgical system
US11424027B2 (en) * 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
US11304699B2 (en) * 2017-12-28 2022-04-19 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11844579B2 (en) * 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11659023B2 (en) * 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11937769B2 (en) * 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11589888B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Method for controlling smart energy devices
US11056244B2 (en) * 2017-12-28 2021-07-06 Cilag Gmbh International Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks
US11114199B2 (en) * 2018-01-25 2021-09-07 Mako Surgical Corp. Workflow systems and methods for enhancing collaboration between participants in a surgical procedure
US20230072423A1 (en) * 2018-01-25 2023-03-09 Meta Platforms Technologies, Llc Wearable electronic devices and extended reality systems including neuromuscular sensors
CN110520932A (zh) * 2018-01-26 2019-11-29 外科手术室公司 用于患者参与的系统和方法
US10825563B2 (en) * 2018-05-14 2020-11-03 Novarad Corporation Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient
US11287874B2 (en) * 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11103312B2 (en) * 2019-04-02 2021-08-31 Verb Surgical Inc. Method and system for predicting current paths and evaluating electrical burn risks of a monopolar electrosurgery tool
DE102019109189B3 (de) * 2019-04-08 2020-08-13 Schölly Fiberoptic GmbH Vorrichtung und Verfahren zur Bearbeitung von Datenströmen
EP4051084B1 (en) * 2019-10-29 2023-11-01 Alcon Inc. System and method of utilizing three-dimensional overlays with medical procedures
AU2020372991A1 (en) * 2019-10-31 2022-04-28 Terumo Cardiovascular Systems Corporation Heart-lung machine with augmented reality display
CA3152108A1 (en) * 2019-11-05 2021-05-14 Jeffrey BAIL Surgical virtual reality user interface
US20210169578A1 (en) * 2019-12-10 2021-06-10 Globus Medical, Inc. Augmented reality headset with varied opacity for navigated robotic surgery
US11818413B2 (en) * 2019-12-17 2023-11-14 Infosys Limited System and method for dynamic generation of charts in a personalized video
US11896442B2 (en) * 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
CN114945990A (zh) * 2020-01-15 2022-08-26 直观外科手术操作公司 用于基于操作情境提供外科手术辅助的系统和方法
US11464581B2 (en) * 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) * 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US20210313050A1 (en) * 2020-04-05 2021-10-07 Theator inc. Systems and methods for assigning surgical teams to prospective surgical procedures
US11510750B2 (en) * 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) * 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US20220104896A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Interactive information overlay on multiple surgical displays
US20220104911A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Cooperative surgical displays
US11748924B2 (en) * 2020-10-02 2023-09-05 Cilag Gmbh International Tiered system display control based on capacity and user operation
US11914835B2 (en) * 2020-11-16 2024-02-27 Samsung Electronics Co., Ltd. Method for displaying user interface and electronic device therefor
US11786206B2 (en) * 2021-03-10 2023-10-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems
US20220335696A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Mixed reality feedback systems that cooperate to increase efficient perception of complex data feeds
US11838563B2 (en) * 2021-04-15 2023-12-05 Synamedia Limited Switching between transmitting a preauthored video frame and a composited video frame
US20230121709A1 (en) * 2021-10-15 2023-04-20 Verb Surgical Inc. Method and system for controlling and displaying video streams

Also Published As

Publication number Publication date
US20220331013A1 (en) 2022-10-20
EP4128854A1 (en) 2023-02-08
JP2024514637A (ja) 2024-04-02
BR112023021473A2 (pt) 2023-12-19
US20220331047A1 (en) 2022-10-20
CN117581308A (zh) 2024-02-20
WO2022219497A1 (en) 2022-10-20
JP2024514882A (ja) 2024-04-03
US20220331053A1 (en) 2022-10-20
JP2024514883A (ja) 2024-04-03
US20220331056A1 (en) 2022-10-20
BR112023021253A2 (pt) 2023-12-26
CN117501377A (zh) 2024-02-02
BR112023021241A2 (pt) 2024-01-09
US20220336078A1 (en) 2022-10-20
US20220331050A1 (en) 2022-10-20
US20220331052A1 (en) 2022-10-20
JP2024514633A (ja) 2024-04-02
JP2024514881A (ja) 2024-04-03
US20220331049A1 (en) 2022-10-20
EP4136652A1 (en) 2023-02-22
US20220335604A1 (en) 2022-10-20
WO2022219499A1 (en) 2022-10-20
WO2022219503A1 (en) 2022-10-20
US20220335660A1 (en) 2022-10-20
CN117501585A (zh) 2024-02-02
BR112023021240A2 (pt) 2024-01-09
EP4136645A1 (en) 2023-02-22
EP4136644A1 (en) 2023-02-22
WO2022219490A1 (en) 2022-10-20
US20220331048A1 (en) 2022-10-20
JP2024514634A (ja) 2024-04-02
CN117501378A (zh) 2024-02-02
EP4136653A1 (en) 2023-02-22
CN117441362A (zh) 2024-01-23
US20220331054A1 (en) 2022-10-20
US20220331051A1 (en) 2022-10-20
US20220336097A1 (en) 2022-10-20
BR112023021464A2 (pt) 2023-12-19
EP4136646A1 (en) 2023-02-22
BR112023021249A2 (pt) 2024-02-06
US20220335696A1 (en) 2022-10-20
CN117480565A (zh) 2024-01-30
US20220338049A1 (en) 2022-10-20
CN117425935A (zh) 2024-01-19
EP4136650A1 (en) 2023-02-22
US20220334787A1 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
JP2024514635A (ja) 両方のオーバーレイが実行されることになる相互作用する器具の協調的オーバーレイ
US20230404572A1 (en) Smart circular staplers
JP2024513991A (ja) トリガイベントに基づいて術野のディスプレイオーバーレイを変更するためのシステム及び方法
WO2022219504A1 (en) Cooperative overlays of interacting instruments which result in both overlays being effected
JP2024514885A (ja) 複合データフィードの効率的な認知を高めるように協働する複合現実フィードバックシステム
JP2024514884A (ja) 外科用システムのためのオーバーレイ器具情報の適合及び調整可能性
JP2024513992A (ja) 組織貫通外科用デバイスのチャネルの外に展開可能なカメラアレイを備えるシステム
JP2024517603A (ja) 手術視野における選択的かつ調節可能な複合現実オーバーレイ
JP2024514640A (ja) 画面上及び画面外で発生する混合された要素及びアクションを表示するレンダリングされた要素で直接視覚化される混合
CN117546253A (zh) 协作以增加复杂数据馈送的有效感知的混合现实反馈系统
JP2024514638A (ja) 外科用システムのための術中ディスプレイ
EP4143844A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
WO2022219488A1 (en) Systems and methods for controlling surgical data overlay
CN117480562A (zh) 外科视野中选择性和可调节的混合现实叠加
CN117479896A (zh) 包括可在组织穿透外科装置的通道外展开的相机阵列的系统
CN117461093A (zh) 基于触发事件来改变外科视野的显示叠加项的系统和方法
WO2023242762A1 (en) Smart circular staplers
CN117480563A (zh) 用于外科系统的术中显示器
CN117480569A (zh) 作为非监测器械的代理来跟踪用户的一部分的系统和方法
CN117441212A (zh) 用渲染元素将混合直接可视化以显示混合元素以及在屏幕上和在屏幕外正在发生的动作