JP2022516474A - 外科手術中の遠隔カメラの向きに関するユーザインターフェース要素 - Google Patents

外科手術中の遠隔カメラの向きに関するユーザインターフェース要素 Download PDF

Info

Publication number
JP2022516474A
JP2022516474A JP2021537828A JP2021537828A JP2022516474A JP 2022516474 A JP2022516474 A JP 2022516474A JP 2021537828 A JP2021537828 A JP 2021537828A JP 2021537828 A JP2021537828 A JP 2021537828A JP 2022516474 A JP2022516474 A JP 2022516474A
Authority
JP
Japan
Prior art keywords
camera
reference view
computer program
program product
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021537828A
Other languages
English (en)
Inventor
ヴァシリー エフゲニエヴィチ ブハリン,
Original Assignee
アクティブ サージカル, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクティブ サージカル, インコーポレイテッド filed Critical アクティブ サージカル, インコーポレイテッド
Publication of JP2022516474A publication Critical patent/JP2022516474A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Gynecology & Obstetrics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)

Abstract

外科手術中の遠隔カメラの向きに関するユーザインターフェース要素が、提供される。種々の実施形態において、患者の体腔の内部の画像が、内視鏡ツールの遠位端に位置している1つ以上のカメラから受信される。カメラの位置情報および/または向き情報が、受信される。解剖学的モデル上でカメラの視野を示す基準ビューが、位置情報および/または向き情報に基づいて、発生させられる。基準ビューは、画像との組み合わせにおいてユーザに表示される。

Description

(関連出願の相互参照)
本願は、参照することによってその全体として本明細書に組み込まれる2018年12月28日に出願された米国仮特許出願第62/786,003号の利益を主張する。
本開示の実施形態は、ロボット外科手術および内視鏡外科手術に関し、より具体的に、外科手術中の遠隔カメラの向きに関するユーザインターフェース要素に関する。
本開示の実施形態によると、外科手術手技中にカメラを向ける方法およびそのためのコンピュータプログラム製品が、提供される。種々の実施形態において、患者の体腔の内部の画像が1つ以上のカメラから受信される方法が、実施される。1つ以上のカメラの位置情報が、受信される。解剖学的モデルに対する1つ以上のカメラの視野を示す基準ビューが、位置情報に基づいて発生させられる。基準ビューは、画像との組み合わせにおいてユーザに表示される。
種々の実施形態において、カメラの向き情報が、受信され得、向き情報に基づいて、カメラの方向を示す方向インジケータが、解剖学的モデル上に発生させられ得る。種々の実施形態において、方向インジケータは、基準ビューとの組み合わせにおいて、ユーザに表示され得る。種々の実施形態において、方向のインジケータは、矢印を含む。種々の実施形態において、カメラは、位置情報を伝送するように構成された絶対位置センサを含む。種々の実施形態において、絶対位置センサは、1つ以上のエンコーダを含む。種々の実施形態において、絶対位置センサは、光学追跡システムを含む。種々の実施形態において、カメラは、向き情報を伝送するように構成された絶対向きセンサを含む。種々の実施形態において、絶対向きセンサは、1つ以上のエンコーダを含む。種々の実施形態において、絶対向きセンサは、光学追跡システムを含む。種々の実施形態において、解剖学的モデルは、汎用の解剖図を含む。種々の実施形態において、解剖学的モデルは、単純化された絵表現を含む。
種々の実施形態において、解剖学的モデルは、患者の撮像を含む。種々の実施形態において、撮像は、医療用画像管理システム(PACS)から受信される。種々の実施形態において、撮像は、コンピュータ断層撮影(CT)、磁気共鳴撮像(MRI)、X線、超音波、およびデジタル撮像のうちの少なくとも1つを含む。種々の実施形態において、患者の撮像は、医療手技中にリアルタイムで更新される。種々の実施形態において、患者の基準ビューは、医療手技中にリアルタイムで更新される。種々の実施形態において、方法は、カメラの座標空間を患者の座標空間に位置合わせすることと、カメラの座標空間を解剖学的モデルの座標空間に位置合わせすることと、カメラの深度情報を受信することとをさらに含む。種々の実施形態において、カメラの位置の情報は、ビジュアルオドメトリを介して決定される。種々の実施形態において、基準ビューを表示することは、基準ビューを画像上に重ねることを含む。種々の実施形態において、基準ビューを表示することは、主ディスプレイ上に画像を表示しながら、補完的ディスプレイ上に基準ビューを表示することを含む。種々の実施形態において、基準ビューは、基準ビューの小領域を示すフレームを含み、小領域は、視野に対応する。
種々の実施形態において、患者の体腔の内部を撮像にするように構成されたデジタルカメラと、ディスプレイと、それを用いて具現化されるプログラム命令を有するコンピュータ読み取り可能な記憶媒体を含むコンピューティングノードとを含むシステムが、提供される。プログラム命令は、プロセッサに、患者の体腔の内部の画像が1つ以上のカメラから受信される方法を実施させるように、コンピューティングノードのプロセッサによって実行可能である。1つ以上のカメラの位置情報が、受信される。解剖学的モデル上の1つ以上のカメラの視野を示す基準ビューが、位置情報に基づいて発生させられる。基準ビューは、画像との組み合わせにおいてユーザに表示される。
種々の実施形態において、カメラの向き情報が、受信され得、向き情報に基づいて、カメラの方向を示す方向インジケータが、解剖学的モデル上に発生させられ得る。種々の実施形態において、方向インジケータは、基準ビューとの組み合わせにおいて、ユーザに表示され得る。種々の実施形態において、方向のインジケータは、矢印を含む。種々の実施形態において、カメラは、位置情報を伝送するように構成された絶対位置センサを含む。種々の実施形態において、絶対位置センサは、1つ以上のエンコーダを含む。種々の実施形態において、絶対位置センサは、光学追跡システムを含む。種々の実施形態において、カメラは、向き情報を伝送するように構成された絶対向きセンサを含む。種々の実施形態において、絶対向きセンサは、1つ以上のエンコーダを含む。種々の実施形態において、絶対向きセンサは、光学追跡システムを含む。種々の実施形態において、解剖学的モデルは、汎用の解剖図を含む。種々の実施形態において、解剖学的モデルは、単純化された絵表現を含む。
種々の実施形態において、解剖学的モデルは、患者の撮像を含む。種々の実施形態において、撮像は、医療用画像管理システム(PACS)から受信される。種々の実施形態において、撮像は、コンピュータ断層撮影(CT)、磁気共鳴撮像(MRI)、X線、超音波、およびデジタル撮像のうちの少なくとも1つを含む。種々の実施形態において、患者の撮像は、医療手技中にリアルタイムで更新される。種々の実施形態において、患者の基準ビューは、医療手技中にリアルタイムで更新される。種々の実施形態において、方法は、カメラの座標空間を患者の座標空間に位置合わせすることと、カメラの座標空間を解剖学的モデルの座標空間に位置合わせすることと、カメラの深度情報を受信することとをさらに含む。種々の実施形態において、カメラの位置の情報は、ビジュアルオドメトリを介して決定される。種々の実施形態において、基準ビューを表示することは、基準ビューを画像上に重ねることを含む。種々の実施形態において、基準ビューを表示することは、主ディスプレイ上に画像を表示しながら、補完的ディスプレイ上に基準ビューを表示することを含む。種々の実施形態において、基準ビューは、基準ビューの小領域を示すフレームを含み、小領域は、視野に対応する。
種々の実施形態において、外科手術手技中にカメラを向けるためのコンピュータプログラム製品が、提供される。コンピュータプログラム製品は、それを用いて具現化されるプログラム命令を有するコンピュータ読み取り可能な記憶媒体を含む。プログラム命令は、プロセッサに、患者の体腔の内部の画像が1つ以上のカメラから受信される、方法を実施させるように、プロセッサによって実行可能である。1つ以上のカメラの位置情報が、受信される。解剖学的モデル上の1つ以上のカメラの視野を示す基準ビューが、位置情報に基づいて発生させられる。基準ビューは、画像との組み合わせにおいてユーザに表示される。
種々の実施形態において、カメラの向き情報が、受信され得、向き情報に基づいて、カメラの方向を示す方向インジケータが、解剖学的モデル上に発生させられ得る。種々の実施形態において、方向インジケータは、基準ビューとの組み合わせにおいて、ユーザに表示され得る。種々の実施形態において、方向のインジケータは、矢印を含む。種々の実施形態において、カメラは、位置情報を伝送するように構成された絶対位置センサを含む。種々の実施形態において、絶対位置センサは、1つ以上のエンコーダを含む。種々の実施形態において、絶対位置センサは、光学追跡システムを含む。種々の実施形態において、カメラは、向き情報を伝送するように構成された絶対向きセンサを含む。種々の実施形態において、絶対向きセンサは、1つ以上のエンコーダを含む。種々の実施形態において、絶対向きセンサは、光学追跡システムを含む。種々の実施形態において、解剖学的モデルは、汎用の解剖図を含む。種々の実施形態において、解剖学的モデルは、単純化された絵表現を含む。
種々の実施形態において、解剖学的モデルは、患者の撮像を含む。種々の実施形態において、撮像は、医療用画像管理システム(PACS)から受信される。種々の実施形態において、撮像は、コンピュータ断層撮影(CT)、磁気共鳴撮像(MRI)、X線、超音波、およびデジタル撮像のうちの少なくとも1つを含む。種々の実施形態において、患者の撮像は、医療手技中にリアルタイムで更新される。種々の実施形態において、患者の基準ビューは、医療手技中にリアルタイムで更新される。種々の実施形態において、方法は、カメラの座標空間を患者の座標空間に位置合わせすることと、カメラの座標空間を解剖学的モデルの座標空間に位置合わせすることと、カメラの深度情報を受信することとをさらに含む。種々の実施形態において、カメラの位置の情報は、ビジュアルオドメトリを介して決定される。種々の実施形態において、基準ビューを表示することは、基準ビューを画像上に重ねることを含む。種々の実施形態において、基準ビューを表示することは、主ディスプレイ上に画像を表示しながら、補完的ディスプレイ上に基準ビューを表示することを含む。種々の実施形態において、基準ビューは、基準ビューの小領域を示すフレームを含み、小領域は、視野に対応する。
図1は、本開示の実施形態による、ロボット外科手術のためのシステムを描写する。
図2は、本開示の実施形態による、例示的ディスプレイを図示する。
図3は、本開示の実施形態による、第2の例示的ディスプレイを図示する。
図4は、本開示の実施形態による、第3の例示的ディスプレイを図示する。
図5は、本開示の実施形態による、内視鏡を向ける方法を図示する。
図6は、例示的な医療用画像管理システム(PACS)を描写する。
図7は、本開示のある実施形態による、コンピューティングノードを描写する。
内視鏡は、照明付きの光学式の典型的に細長い管状の器具(あるタイプのボアスコープ)であり、身体内を見るために使用される。内視鏡は、診断または外科手術の目的のために内臓を検査するために使用され得る。特殊な器具、例えば、膀胱鏡(膀胱)、腎臓鏡(腎臓)、気管支鏡(気管支)、関節鏡(関節)、結腸鏡(結腸)、腹腔鏡(腹部または骨盤)は、それらの標的解剖学的構造にちなんで名付けられる。
腹腔鏡下外科手術は、一般的に、腹腔鏡の補助を借りて、小さい切開(通常、0.5~1.5cm)を使用して腹部または骨盤において実施される。そのような低侵襲性技法の利点は、周知であり、観血術と比較してより小さい切開に起因する低減させられた疼痛と、より少ない出血と、より短い回復時間とを含む。
単一の腹腔鏡を通して入手可能な画像は、概して2次元であり、それは、可能な外科手術の範囲にある限界を課す。加えて、腹腔鏡外科手術において使用されるツールは、概して限定された範囲の運動を有し、それは、制約される空間内で稼働することを困難にし得る。
ロボット外科手術は、それも小さい切開、カメラ、および種々の外科手術ツールを使用する限りにおいて、腹腔鏡外科手術に類似する。しかしながら、外科手術ツールを直接保持および操作することの代わりに、外科医は、1つ以上の外科手術ツールを有するロボットを遠隔で操作するために制御を使用する。コンソールは、外科医に増加した正確度および視覚を可能にする高解像度画像を提供する。
ロボット支援低侵襲性外科手術の場合、器具を直接移動させることの代わりに、外科医は、コンピュータ制御される遠隔マニピュレータまたは外科手術ツールのいずれかを使用する。遠隔マニピュレータは、外科医が所与の外科手術に関連付けられる通常の移動を実施することを可能にする遠隔のマニピュレータである。ロボットアームは、エンドエフェクタおよびマニピュレータを使用してそれらの移動を行い、患者に対する外科手術を実施する。コンピュータ制御されるシステムにおいて、外科医は、コンピュータを使用し、ロボットアームおよびそのエンドエフェクタを制御する。
ロボット外科手術の1つの利点は、外科医が、外科手術部位を直接視認する必要がなく、実際、手術室内の中にいる必要が全くないことである。しかしながら、コンソールを通して外科手術部位を視認するとき、外科医は、その外科手術部位の幾何学形状から隔離されている。特に、彼らは、限定された視野に起因して、方向および縮尺に関して混乱させられた状態になり得る。
画像コンソールは、3次元の高解像度、かつ拡大された画像を提供することができる。種々の電子ツールが、適用され、外科医をさらに補助し得る。これらは、視覚的倍率(例えば、可視性を改良する大型視認スクリーンの使用)と、安定化(例えば、機械または揺れるヒトの手に起因する振動の電気機械式減衰)とを含む。シミュレータも、外科手術における医師の熟練度を改良するための特殊仮想現実訓練ツールの形態において提供され得る。
しかしながら、画像がさらに操作されるにつれて、外科医は外科手術部位の幾何学形状からさらに絶縁され、混乱させられた状態になり得る。
外科手術中に外科医に向きを提供することに役立つために、本開示の種々の実施形態は、デジタルディスプレイ内にナビゲーション挿入図を提供する。ナビゲーション挿入図は、解剖学的モデルに対する現在のビューの位置を提供する。加えて、いくつかの実施形態は、「上」等の基準方向の指示を提供する。
図1を参照すると、本開示による、例示的なロボット外科手術設定が、図示される。ロボットアーム101が、腹部103内でスコープ102を展開する。デジタル画像が、スコープ102を介して収集される。いくつかの実施形態において、デジタル画像が、スコープ先端における1つ以上のデジタルカメラによって捕捉される。いくつかの実施形態において、デジタル画像が、スコープ先端から他所における1つ以上のデジタルカメラまで伸びる1つ以上の光ファイバ要素によって捕捉される。
デジタル画像は、コンピューティングノード104に提供され、それは、処理され、次いで、ディスプレイ105上に表示される。
種々の実施形態において、スコープ102は、1つ以上の位置および向きセンサ、例えば、磁気計、ジャイロスコープ、および/または距離計を含む。いくつかの実施形態において、アーム101の各関節部の位置が、追跡され、コンピューティングノード104によるスコープ102の場所および向きの算出を可能にする。いくつかの実施形態において、スコープ102が、画像に加えて、深度データを提供するように構成される。センサ出力および/または関節部位置に基づいて、コンピューティングノード104が、外科手術対象に対するスコープの場所および向きを決定した。この場所は、次いで、解剖学的モデルと互いに関係付けられ得る。下で提示されるように、解剖学的モデルとの相関が、深度データ、画像認識/解剖図位置合わせ、および/または、共通座標系への患者の位置合わせに基づいて、実施され得る。
このように、コンピューティングノード104は、表示のためのカメラ位置および向きの指示を発生させることができる。
種々の方法が、カメラの視野がオーバーレイされている解剖学的構造の部分を決定するために使用される。いくつかの実施形態において、患者は、カメラ座標を提供する同じ空間に位置合わせされる。そのような実施形態において、例えば、各ロボット関節部の配列から決定されるようなカメラ場所が、次いで、共通座標空間において患者と互いに関係付けられる。いくつかの実施形態において、カメラによって捕捉された画像が、解釈され、視野の中の解剖学的構造を識別する。このように、視野は、基準モデルに対して決定され得る。
図2を参照すると、本開示による例示的ディスプレイが、提供される。画像201が、外科手術部位の内側におけるカメラから伝送される。種々の実施形態において、カメラは、内視鏡ツールの遠位端において提供され得る。カメラの場所および向きに基づいて、概略ビュー202も、提供される。ビュー202は、例えば、胴体の解剖学的モデルを含む。フレーム203が、モデル上で、画像201の広がりを強調する。種々の実施形態において、カメラが移動して離れ、解剖学的構造のより大きい部分を見るにつれて、このフレームは、カメラの視野を反映するように大きさを変更する。
図3を参照すると、本開示による第2の例示的ディスプレイが、提供される。画像301が、外科手術部位の内側におけるカメラから伝送される。カメラの場所および向きに基づいて、概略ビュー302も、提供される。ビュー302は、例えば、胴体の解剖学的モデルを含む。フレーム303が、モデル上で、画像301の広がりを強調する。種々の実施形態において、カメラが移動して離れ、解剖学的構造のより大きい部分を見るにつれて、このフレームは、カメラの視野を反映するように大きさを変更する。矢印304が、解剖学的モデルに対するカメラの方向を示した。
種々の実施形態において、外科医は、患者に対して所与の上方向を維持するように、画像301を係止し得る。このように、カメラの回転は、画像に回転させない。
図2-3内の配列が、例示的であり、カメラビューおよび基準/概略ビューの他の配列が、種々の実施形態において使用され得ることを理解されたい。例えば、基準ビューは、カメラビューを含むメインディスプレイと別個である補完的ディスプレイ上に表示され得る。別の例では、基準ビューは、メインカメラビューに挿入図として表示される。別の例では、基準ビューは、外科医によって、例えば、タッチインターフェースを通してメインカメラビュー内に位置付けられ、大きさを変更され得る。
図4を参照すると、本開示による第3のディスプレイが、提供される。画像401が、外科手術部位の内側(例えば、腹腔鏡手技を受ける患者の腹部の内側)におけるカメラから伝送される。カメラの場所および向きに基づいて、概略ビュー402も、提供される。ビュー402は、例えば、胴体の解剖学的モデルを含む。フレーム403が、モデル上で、画像401の広がりを強調する。カメラが移動して離れ、解剖学的構造のより大きい部分を見るにつれて、このフレームが、カメラの視野を反映するように大きさを変更する。矢印404が、解剖学的モデルに対するカメラの方向を示した。
種々の実施形態において、解剖学的モデルは、汎用の解剖図を含み得る。種々の実施形態において、汎用の解剖図は、種々の組織、器官、身体構造等の形状、位置、および相対的場所を近似するように模索するヒトの解剖学的構造の一般的表現であり得る。種々の実施形態において、解剖学的モデルは、1つ以上の解剖学的オブジェクト(例えば、心臓、肺、腸、膀胱等)の単純化された絵表現であり得る。種々の実施形態において、単純化された絵表現は、略画であり得る。種々の実施形態において、単純化された絵表現は、解剖学的オブジェクト(例えば、心臓)の種々の構造を表すための基本形状を含み得る。例えば、心臓は、4つの大血管(すなわち、大動脈、大静脈、肺動脈、および肺静脈)を表す4つの円筒形の管を有する中空のボックスまたは球として表され得る。
種々の実施形態において、解剖学的モデルは、患者からの撮像を含み得る。種々の実施形態において、撮像は、PACSから読み出され得る。種々の実施形態において、撮像は、任意の好適な2D撮像(例えば、デジタル撮像、X線、CT、MRI、超音波等)を含み得る。種々の実施形態において、撮像は、任意の好適な2D撮像技法(例えば、一続きの2D MRIスライス)に基づいた3D再構築物を含み得る。種々の実施形態において、患者の撮像は、医療手技中にリアルタイムで更新され得る。例えば、患者の撮像は、(例えば、蛍光透視法、術中CT等を使用して)リアルタイムで捕捉され得、解剖学的モデルは、リアルタイムの撮像に基づいて更新され得る。例えば、組織または器官が、外科医によって、(例えば、外科医が、下層の構造にアクセスし得るように)外科手術前撮像において表される元の位置から外にシフトされた場合、リアルタイムの撮像が、解剖学的モデル内のシフトされた組織または器官の位置を更新し、モデルの正確度を改良するであろう。
種々の実施形態において、カメラの位置(例えば、3次元座標)および/または向き(例えば、3D回転)が、絶対位置(すなわち、場所)および絶対向きを使用して決定され得る。例えば、カメラは、カメラの絶対位置および/または絶対向きを決定するための1つ以上のエンコーダを伴う機械アーム上に搭載され得る。別の例では、カメラは、当技術分野において公知であるような好適な光学追跡システムを用いて追跡され得る。
種々の実施形態において、絶対位置は、RF三角測量法(例えば、時間遅延または位相遅延)を介して決定され得る。種々の実施形態において、カメラの位置は、(例えば、停電中に)オペレーティングシステムがオフにされ、オンに戻されたときでも把握され得る。種々の実施形態において、カメラは、磁気ナビゲーションシステムを含み得る。種々の実施形態において、カメラは、磁気センサを含み得る。種々の実施形態において、磁場発生器が、外科手術部位の外側(例えば、外科手術台の下)において設置され得る。
種々の実施形態において、カメラの位置(例えば、3次元座標)および/または向き(例えば、3D回転)は、相対位置(すなわち、変位量)および相対向きを使用して決定され得る。例えば、カメラは、慣性測定ユニットを取り付けられ、カメラの相対位置および/または相対向きを決定し得る。
種々の実施形態において、カメラの位置は、以下のセンサのうちの1つ以上を使用して決定され得る:絶対エンコーダ、容量変位センサ、渦電流センサ、ホール効果センサ、増分エンコーダ、誘導センサ、レーザドップラ、振動計(光学)、線形エンコーダ、線形可変作動変圧器(LVDT)、光学エンコーダ、光ダイオードアレイ、磁気エンコーダ、圧電トランスデューサ(圧電)、電位差計、近接センサ(光学)、回転エンコーダ(角度)、ストリング電位差計、および/または超音波センサ。
種々の実施形態において、内視鏡は、例えば、内視鏡の曲率を決定するために、歪みセンサを含み得る。種々の実施形態において、内視鏡は、光学歪みゲージ、例えば、Braggファイバを含み得る。
種々の実施形態において、カメラの座標空間は、患者および/または解剖学的モデルの座標空間と位置合わせされ得る。種々の実施形態において、カメラの座標空間と患者および/または解剖学的モデルの座標空間との位置合わせは、較正行列を使用して位置合わせされ得る。種々の実施形態において、較正行列は、最小2乗平均(LMS)アルゴリズムを介して決定され得る。種々の実施形態において、較正行列は、カルマンフィルタを介して決定され得る。
種々の実施形態において、カメラの座標空間は、解剖学的目印を使用することによって、患者および/またはモデルの座標空間に位置合わせされ得る。種々の実施形態において、絶対カメラ位置を使用する場合、カメラは、カメラを外側から患者に向けて、目印(例えば、寛骨および/または胸骨等の骨目印)を識別することによって、患者および/またはモデルに位置合わせされることができる。種々の実施形態において、同じ目印が、モデルにおいて識別され得る。種々の実施形態において、異なる目印が、モデルと患者との座標空間を整列させるために識別され得る。例えば、1つ(またはそれを上回る)解剖学的目印が、カメラと患者との座標空間を整列させるために使用され得る一方、異なる(1つ以上の)解剖学的目印が、カメラとモデルとの座標空間を整列させるために使用され得る。種々の実施形態において、カメラの後続の位置は、絶対単位において報告され得る。種々の実施形態において、絶対単位は、患者座標空間および/またはモデル座標空間に変換され得る。
種々の実施形態において、相対カメラ位置を使用する場合、カメラは、絶対位置方法と同様、カメラを1つ以上の解剖学的目印に向けることによって、患者および/またはモデルに位置合わせされることができる。種々の実施形態において、意図される手術部位(例えば、肝臓、食道裂孔、腎臓等)により近い1つ以上の解剖学的目印が、選定される。種々の実施形態において、カメラの相対位置は、初期の位置合わせ部位から連続して追跡され得る。種々の実施形態において、カメラの相対位置は、患者および/またはモデル座標空間に変換され得る。
種々の実施形態において、カメラの位置の情報および/または向き情報が、ビジュアルオドメトリを使用して決定され得る。種々の実施形態において、1つ以上のカメラからの1つ以上の画像フレーム(例えば、一続きの画像)が、分析され、1つ以上のカメラの位置の情報および/または向き情報を決定し得る。種々の実施形態において、ビジュアルオドメトリは、単眼設定において実施され得る。種々の実施形態において、ビジュアルオドメトリは、ステレオ設定(例えば、互いに対する既知の位置を有する2つのカメラ)において実施され得る。種々の実施形態において、1つ以上のカメラは、1つ以上の較正マーカから較正され得る。種々の実施形態において、較正マーカは、例えば、1つ以上の既知の測定値、既知の距離における1つ以上のオブジェクト、および/または1つ以上の既知の角回転を含み得る。種々の実施形態において、カメラは、外科手術を実施することに先立って(例えば、体腔の中への挿入の前に)較正マーカに対して較正され得る。種々の実施形態において、ビジュアルオドメトリは、画像特徴点を抽出し、画像列においてそれらを追跡することによる特徴ベースの方法を使用して実施され得る。種々の実施形態において、ビジュアルオドメトリは、直接的方法を使用して実施され得、画像列におけるピクセル強度が、視覚入力として直接使用される。種々の実施形態において、ビジュアルオドメトリは、特徴ベースの方法および直接的方法の混成方法を使用して実施され得る。種々の実施形態において、ビジュアルオドメトリは、慣性測定ユニットを使用して実施され得る。
種々の実施形態において、ビジュアルオドメトリは、以下のアルゴリズムステップを使用して実施され得る。第1のステップにおいて、入力画像が、単一のカメラ、ステレオカメラ、または全方位カメラのいずれかを使用して入手され得る。第2のステップにおいて、画像処理技法が、レンズ歪除去等のために適用される画像補正が、実施され得る。第3のステップにおいて、特徴検出が、実施され、着目演算子を定義し、フレームを横断して特徴を合致させ、光学流動場を構築し得る。特徴検出において、相関が、2つの画像の対応を確立するために使用され得、長期間の特徴追跡を行わない。特徴抽出および相関が、実施され得る。光学流動場が、構築され得る(例えば、Lucas-Kanade法)。第4のステップにおいて、流動場ベクトルが、潜在的な追跡誤差に関して確認され、外れ値を除去する。第5のステップにおいて、カメラ運動が、光学流から推定される。カメラ運動の推定は、(1)状態推定分布維持のためのカルマンフィルタ、または、(2)2つの隣接する画像間の再投影誤差に基づいてコスト関数を最小化する特徴の幾何学的および3D性質(これは、例えば、数学的最小化または無作為サンプリングによって行われ得る)を通して実施され得る。第6のステップにおいて、追跡点の周期的な再増殖が、画像にわたる対象範囲を維持するために実施され得る。種々の実施形態において、センサ空間における誤差を直接最小化し、続いて、特徴の合致および抽出を回避する直接的または外観ベースのビジュアルオドメトリ技法が、実施され得る。種々の実施形態において、「ビジオドメトリ」として公知であるビジュアルオドメトリの別の方法が、特徴を抽出することの代わりに、位相相関を使用して画像間の平面状の回転平行移動を推定することによって実施され得る。
種々の実施形態において、1つ以上のカメラが、場面内の1つ以上のマーカから位置および/または深度を決定し得る。種々の実施形態において、1つ以上のマーカは、解剖学的目印、人工マーカ(例えば、色素マーカ)、外科手術ツール(例えば、縫合糸)等を含み得る。
種々の実施形態において、1つ以上のカメラは、1つ以上の画像フレームをパノラマピクチャに合成(例えば、スティッチング)し得る。種々の実施形態において、解剖学的モデル上でフレームを強調することは、1つ以上の画像フレームから発生させられるパノラマピクチャに基づいて、調節され得る(例えば、サイズが増加される、またはサイズが縮小される)。
ここで図5を参照すると、本開示の実施形態による、外科手術手技中にカメラを向ける方法が、図示される。401において、体腔の内部の画像が、カメラから受信される。402において、カメラの位置情報が、受信される。403において、解剖学的モデル上のカメラの視野を示す基準ビューが、位置情報に基づいて発生させられる。404において、基準ビューが、画像との組み合わせにおいてユーザに表示される。
本開示の種々の実施形態は、内視鏡等の胃腸(GI)カテーテル内でユーザのために適合され得る。特に、内視鏡は、霧状噴霧器、赤外線源、カメラシステム、光学装置、1つ以上のロボットアーム、および/または画像プロセッサを含み得る。
種々の実施形態において、本明細書に説明されるシステムは、ランタイムにおいて構成可能であり得る。種々の実施形態において、1つ以上の患者画像(例えば、DICOM画像)が、外科手術手技に先立って予めロードされ得る。種々の実施形態において、患者画像は、PACSからロードされ得る。種々の実施形態において、ユーザの選好が、保存され得る。種々の実施形態において、ユーザの選好は、システムへの特定のユーザのログイン時、ロードされ得る。
医療用画像管理システム(PACS)は、複数のモダリティからの画像の記憶およびそれらへのアクセスを提供する医療用撮像システムである。多くの医療環境において、電子画像および報告書が、PACSを介してデジタル的に伝送され、したがって、手動でフィルムジャケットをファイリングし、読み出し、または転送する必要性を排除する。PACSの画像記憶および転送のための規格フォーマットは、DICOM(医学におけるデジタルイメージングおよび通信)である。走査文書等の非画像データは、DICOM内にカプセル化されたPDF(ポータブルドキュメントフォーマット)等の種々の規格フォーマットを使用して組み込まれ得る。
電子カルテ(EHR)または電子医療記録(EMR)は、デジタルフォーマットにおける患者および集団の電子的に記憶された健康情報の体系化された収集物を指し得る。これらの記録は、異なる健康管理設定を横断して共有されることができ、上で議論されるPACSにおいて利用可能な情報を超えて拡張され得る。記録は、ネットワーク接続された企業全体の情報システムまたは他の情報ネットワークおよび交換を通して共有され得る。EHRは、人口統計、医療履歴、薬剤およびアレルギー、免疫ステータス、検査室試験結果、放射線報告書、放射線画像、バイタルサイン、年齢および体重のような個人統計値、および請求書情報を含むある範囲のデータを含み得る。
EHRシステムは、データを記憶し、時間の経過とともに患者の状態を捕捉するように設計され得る。このように、患者の以前の紙の医療記録を追跡する必要性が、排除される。加えて、EHRシステムは、データが正確であり、読みやすいことを確実にすることを補助し得る。これは、データが、一元化されているので、データ複製のリスクを低減させ得る。デジタル情報が検索可能であることに起因して、EMRは、患者体内の可能な傾向および長期間の変化の検査のために医療データを抽出するとき、より効率的であり得る。医療記録の母集団ベースの研究も、EHRおよびEMRの幅広い採用によって促進され得る。
Health Level-7またはHL7は、種々の医療提供者によって使用されるソフトウェアアプリケーション間の臨床的および管理データの転送のための国際規格の組を指す。これらの規格は、OSIモデル内のレイヤ7であるアプリケーションレイヤ上に焦点を当てる。病院および他の医療提供者組織は、請求書記録から患者追跡までのあらゆるものに関して使用される多くの異なるコンピュータシステムを有し得る。理想的に、これらのシステムの全てが、新しい情報を受信するとき、または情報を読み出すことを所望するときに互いに通信し得るが、そのようなアプローチの採用は、普及していない。これらのデータ規格は、医療組織が容易に臨床情報を共有することを可能にすることが意図される。情報を交換するためのこの能力は、医療処置の変動性および医療処置が地理的に隔離される傾向を最小化することに役立ち得る。
種々のシステムにおいて、PACS、電子医療記録(EMR)、病院情報システム(HIS)、放射線情報システム(RIS)、または報告書格納場所間の接続が、提供される。このように、EMRからの記録および報告が、分析のために取り入れられ得る。例えば、HL7の指示および結果メッセージを取り入れ、記憶することに加えて、ADTメッセージが、使用され得るか、または、EMR、RIS、または報告書格納場所が、製品固有の機構を介して直接クエリされ得る。そのような機構は、関連のある臨床的情報に関する高速健康相互運用性リソース(FHIR)を含む。臨床的データも、ケア文書の継続性(CCD)等の種々のHL7CDA文書の受信を介して取得され得る。種々の追加の独自または現場カスタマイズされたクエリ方法も、標準的方法に加えて、採用され得る。
図6を参照すると、例示的なPACS600は、4つの主要なコンポーネントから成る。コンピュータ断層撮影(CT)601、磁気共鳴撮像(MRI)602、または超音波(US)603等の種々の撮像モダリティ601・・・609が、システムに像を提供する。いくつかの実装において、像が、アーカイブ612内に記憶される前、PACSゲートウェイ611に伝送される。アーカイブ612は、画像および報告の記憶および読み出しを提供する。ワークステーション621・・・629は、アーカイブ612内の画像を解釈および精査することを提供する。いくつかの実施形態において、セキュリティ保護されたネットワークが、システムのコンポーネント間での患者情報の伝送のために使用される。いくつかの実施形態において、ワークステーション621・・・629は、ウェブベースのビューアであり得る。PACSは、画像、解釈、および関連するデータへのタイムリーで効率的なアクセスをもたらし、従来的なフィルムベースの画像読み出し、配布、および表示の欠点を排除する。
PACSは、X線プレーンフィルム(PF)、超音波(US)、磁気共鳴(MR)、核医学撮像、陽電子放出断層撮影(PET)、コンピュータ断層撮影(CT)、内視鏡検査(ES)、マンモグラム(MG)、デジタルX線撮影(DR)、コンピュータX線撮影(CR)、組織病理学、または眼科等の種々の医学的撮像器具からの画像に対処し得る。しかしながら、PACSは、所定の画像のリストに限定されず、放射線学、心臓学、腫瘍学、または消化器学等の従来の撮像のソースを超えた臨床分野を支援する。
異なるユーザが、PACSシステム全体の中への異なるビューを有し得る。例えば、放射線医師が、典型的に、視認ステーションにアクセスし得る一方、技術者が、典型的に、QAワークステーションにアクセスし得る。
いくつかの実装において、PACSゲートウェイ611は、品質保証(QA)ワークステーションを備えている。QAワークステーションは、患者人口統計が、検査の他の重要な属性と同様に正しいことを確認するためのチェックポイントを提供する。検査情報が、正しい場合、画像は、記憶のためにアーカイブ612に渡される。中央記憶デバイス、すなわち、アーカイブ612は、画像、いくつかの実装において、画像とともに常駐する報告、測定値、および他の情報を記憶する。
画像が、アーカイブ612に記憶されると、それらは、読み取りワークステーション621・・・629からアクセスされ得る。読み取りワークステーションは、放射線医師が患者の検査を精査し、それらの診断をまとめる場所である。いくつかの実装において、報告パッケージが、読み取りワークステーションに結び付けられ、放射線医師が最終報告を決定することを補助する。従来的な決定に依拠するそれらを含む種々の報告システムが、PACSと統合され得る。いくつかの実装において、CDまたはDVD編集支援ソフトウェアが、患者または紹介医への配布のための患者検査をコピーするために、ワークステーション621・・・629内に含まれる。
いくつかの実装において、PACSは、ワークステーション621・・・629のためのウェブベースのインターフェースを含む。そのようなウェブインターフェースは、インターネットまたは広域ネットワーク(WAN)を介してアクセスされ得る。いくつかの実装において、接続セキュリティが、VPN(仮想プライベートネットワーク)またはSSL(セキュアソケットレイヤ)によって提供される。クライアント側ソフトウェアは、ActiveX、Java(登録商標)Script、またはJava(登録商標) Appletを含む。PACSクライアントは、それらがウェブ環境の外側において実行しているコンピュータの十分なリソースを活用するフルアプリケーションでもあり得る。
PACS内の通信は、概して、医学におけるデジタルイメージングおよび通信(DICOM)を介して提供される。DICOMは、医療用撮像における情報を取り扱い、記憶し、印刷し、伝送するための規格を提供する。これは、ファイルフォーマット定義と、ネットワーク通信プロトコルとを含む。通信プロトコルは、システム間で通信するためにTCP/IPを使用するアプリケーションプロトコルである。DICOMファイルは、DICOMフォーマットにおける画像および患者データを受信することが可能である2つのエンティティ間で交換されることができる。
DICOMは、情報をデータセットに群化する。例えば、特定の画像を含むファイルは、概して、ファイル内に患者IDを含み、それによって、画像は、誤ってこの情報から決して分離されることができない。DICOMデータオブジェクトは、氏名および患者ID等のアイテムを含むいくつかの属性、および画像ピクセルデータを含む特別な属性から成る。したがって、主要なオブジェクトは、そのようなヘッダを有していないが、代わりに、ピクセルデータを含む属性のリストを含む。ピクセルデータを含むDICOMオブジェクトは、単一の画像に対応し得るか、または、複数のフレームを含み得、シネループまたは他のマルチフレームデータの記憶を可能にする。DICOMは、単一のDICOMオブジェクト内にカプセル化される3または4次元データを支援する。ピクセルデータは、JPEG、ロスレスJPEG、JPEG 2000、およびランレングス符号化(RLE)を含む種々の規格を使用して圧縮され得る。LZW(zip)圧縮が、データセット全体またはピクセルデータのみに使用され得る。
ここで図7を参照すると、コンピューティングノードのある例の概略図が、示される。コンピューティングノード10は、好適なコンピューティングノードの一例にすぎず、本明細書に説明される実施形態の使用または機能性の範囲に関する任意の限界を示唆することを意図するものではない。それにもかかわらず、コンピューティングノード10は、実装される、および/または前述に記載される機能性のうちのいずれかを実施することが可能である。
コンピューティングノード10において、コンピュータシステム/サーバ12が、存在し、それは、多数の他の汎用目的または特殊目的コンピューティングシステム環境または構成で動作する。コンピュータシステム/サーバ12との使用のために好適であり得る周知のコンピューティングシステム、環境、および/または構成の例は、限定ではないが、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブル消費者電子機器、ネットワークPC、ミニコンピュータシステム、メインフレームコンピュータシステム、および上記のシステムまたはデバイスのいずれかを含む分散型クラウドコンピューティング環境等を含む。
コンピュータシステム/サーバ12は、コンピュータシステムによって実行されるプログラムモジュール等のコンピュータシステム実行可能命令の一般的コンテキストにおいて説明され得る。概して、プログラムモジュールは、特定のタスクを実施するルーチン、プログラム、オブジェクト、コンポーネント、論理、データ構造等、または特定の抽象データタイプを実装するそれらを含み得る。コンピュータシステム/サーバ12は、タスクが通信ネットワークを通してリンクされる遠隔処理デバイスによって実施される分散型クラウドコンピューティング環境内で実践され得る。分散型クラウドコンピューティング環境では、プログラムモジュールは、メモリ記憶デバイスを含むローカルおよび遠隔コンピュータシステム記憶媒体の両方内に位置し得る。
図7に示されるように、コンピューティングノード10内のコンピュータシステム/サーバ12は、汎用目的コンピューティングデバイスの形態で示される。コンピュータシステム/サーバ12のコンポーネントは、限定ではないが、1つ以上のプロセッサまたは処理ユニット16、システムメモリ28、およびシステムメモリ28を含む種々のシステムコンポーネントをプロセッサ16に結合するバス18を含み得る。
バス18は、種々のバスアーキテクチャのいずれかを使用するメモリバスまたはメモリコントローラ、周辺バス、加速グラフィックポート、およびプロセッサまたはローカルバスを含むいくつかのタイプのバス構造のいずれかのうちの1つ以上のものを表す。一例として、限定ではなく、そのようなアーキテクチャは、産業標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、Video Electronics Standards Association(VESA)ローカルバス、周辺コンポーネント相互接続(PCI)バス、Peripheral Component Interconnect Express(PCIe)、および高度マイクロコントローラバスアーキテクチャ(AMBA)を含む。
コンピュータシステム/サーバ12は、典型的に、種々のコンピュータシステム読み取り可能な媒体を含む。そのような媒体は、コンピュータシステム/サーバ12によってアクセス可能な任意の利用可能な媒体であり得、揮発性および不揮発性媒体のリムーバブルおよび非リムーバブル媒体の両方を含む。
システムメモリ28は、ランダムアクセスメモリ(RAM)30および/またはキャッシュメモリ32等の揮発性メモリの形態におけるコンピュータシステム読み取り可能な媒体を含むことができる。コンピュータシステム/サーバ12は、他のリムーバブル/非リムーバブル揮発性/不揮発性コンピュータシステム記憶媒体をさらに含み得る。一例にすぎないが、記憶システム34は、非リムーバブル不揮発性磁気媒体(示されないが、典型的に、「ハードドライブ」と呼ばれる)から読み取り、それに書き込むために提供されることができる。図示されないが、リムーバブル不揮発性磁気ディスク(例えば、「フロッピー(登録商標)ディスク」)から読み取り、それに書き込むための磁気ディスクドライブ、およびCD-ROM、DVD-ROM、または他の光学媒体等のリムーバブル不揮発性光ディスクから読み取り、それに書き込むための光ディスクドライブが、提供されることができる。そのようなインスタンスでは、それぞれ、1つ以上のデータ媒体インターフェースによって、バス18に接続されることができる。下記にさらに描写および説明されるであろうように、メモリ28は、本開示の実施形態の機能を行うように構成されるプログラムモジュールの組(例えば、少なくとも1つ)を有する少なくとも1つのプログラム製品を含み得る。
プログラムモジュール42の組(少なくとも1つ)を有するプログラム/ユーティリティ40は、一例として、限定ではなく、メモリ28、およびオペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュール、およびプログラムデータの中に記憶され得る。オペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュール、およびプログラムデータまたはそれらのある組み合わせの各々は、ネットワーキング環境の実装を含み得る。プログラムモジュール42は、概して、本明細書に説明される実施形態の機能および/または方法論を行う。
コンピュータシステム/サーバ12は、キーボード、ポインティングデバイス、ディスプレイ24等の1つ以上の外部デバイス14、ユーザがコンピュータシステム/サーバ12と相互作用することを可能にする1つ以上のデバイス、および/またはコンピュータシステム/サーバ12が1つ以上の他のコンピューティングデバイスと通信することを可能にする任意のデバイス(例えば、ネットワークカード、モデム等)とも通信し得る。そのような通信は、入力/出力(I/O)インターフェース22を介して生じ得る。なおもさらに、コンピュータシステム/サーバ12は、ネットワークアダプタ20を介して、ローカルエリアネットワーク(LAN)、一般的広域ネットワーク(WAN)、および/またはパブリックネットワーク(例えば、インターネット)等の1つ以上のネットワークと通信することができる。描写されるように、ネットワークアダプタ20は、バス18を介して、コンピュータシステム/サーバ12の他のコンポーネントと通信する。図示されないが、他のハードウェアおよび/またはソフトウェアコンポーネントも、コンピュータシステム/サーバ12と共に使用され得ることを理解されたい。例は、限定ではないが、マイクロコード、デバイスドライバ、冗長処理ユニット、外部ディスクドライブアレイ、RAIDシステム、テープドライブ、およびデータアーカイブ記憶システム等を含む。
本開示は、システム、方法、および/またはコンピュータプログラム製品として具現化され得る。コンピュータプログラム製品は、プロセッサに本開示の側面を行わせるためのコンピュータ読み取り可能なプログラム命令をその上に有するコンピュータ読み取り可能な記憶媒体(または複数の媒体)を含み得る。
コンピュータ読み取り可能な記憶媒体は、命令実行デバイスによる使用のための命令を保持し、記憶し得る有形デバイスであることができる。コンピュータ読み取り可能な記憶媒体は、例えば、限定ではないが、電子記憶デバイス、磁気記憶デバイス、光学記憶デバイス、電磁記憶デバイス、半導体記憶デバイス、または前述の任意の好適な組み合わせであり得る。コンピュータ読み取り可能な記憶媒体のより具体的例の非包括的リストは、以下を含む:ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラム可能読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピー(登録商標)ディスク、その上に記録される命令を有するパンチカードまたは溝内の隆起構造等の機械的にエンコードされたデバイス、および前述の任意の好適な組み合わせ。コンピュータ読み取り可能な記憶媒体は、本明細書で使用される場合、それ自体では、無線波または他の自由に伝搬する電磁波、導波管または他の伝送媒体を通して伝搬する電磁波(例えば、光ファイバケーブルを通して通過する光パルス)、またはワイヤを通して伝送される電気信号等の一過性信号であるとして解釈されるべきではない。
本明細書に説明されるコンピュータ読み取り可能なプログラム命令は、コンピュータ読み取り可能な記憶媒体からそれぞれのコンピューティング/処理デバイスに、またはネットワーク、例えば、インターネット、ローカルエリアネットワーク、広域ネットワーク、および/または無線ネットワークを介して、外部コンピュータまたは外部記憶デバイスにダウンロードされることができる。ネットワークは、銅伝送ケーブル、光学伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ、および/またはエッジサーバを備え得る。各コンピューティング/処理デバイス内のネットワークアダプタカードまたはネットワークインターフェースは、コンピュータ読み取り可能なプログラム命令をネットワークから受信し、それぞれのコンピューティング/処理デバイス内のコンピュータ読み取り可能な記憶媒体内への記憶のために、コンピュータ読み取り可能なプログラム命令を転送する。
本開示の動作を行うためのコンピュータ読み取り可能なプログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++等のオブジェクト指向プログラミング言語、および「C」プログラミング言語または類似プログラミング言語等の従来の手続型プログラミング言語を含む1つ以上のプログラミング言語の任意の組み合わせで書き込まれるソースコードまたはオブジェクトコードのいずれかであり得る。コンピュータ読み取り可能なプログラム命令は、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、独立型ソフトウェアパッケージとして、部分的にユーザのコンピュータ上および部分的に遠隔コンピュータ上で、または完全に遠隔コンピュータまたはサーバ上で実行され得る。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意のタイプのネットワークを通して、ユーザのコンピュータに接続され得るか、または、接続は、外部コンピュータに行われ得る(例えば、インターネットサービスプロバイダを使用して、インターネットを通して)。いくつかの実施形態において、例えば、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)、またはプログラマブル論理アレイ(PLA)を含む電子回路網が、本開示の側面を実施するために、コンピュータ読み取り可能なプログラム命令の状態情報を利用し、電子回路網を個人化することによって、コンピュータ読み取り可能なプログラム命令を実行し得る。
本開示の側面は、本開示の実施形態による、方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照して本明細書に説明される。フローチャート図および/またはブロック図の各ブロックおよびフローチャート図および/またはブロック図内のブロックの組み合わせが、コンピュータ読み取り可能なプログラム命令によって実装され得ることを理解されたい。
これらのコンピュータ読み取り可能なプログラム命令は、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行される命令がフローチャートおよび/またはブロック図のブロックまたは複数のブロックにおいて規定される機能/行為を実装するための手段を作成するような機械を生産するために、汎用目的コンピュータ、特殊目的コンピュータ、または他のプログラマブルデータ処理装置のプロセッサに提供され得る。これらのコンピュータ読み取り可能なプログラム命令は、命令を記憶しているコンピュータ読み取り可能な記憶媒体がフローチャートおよび/またはブロック図のブロックまたは複数のブロックにおいて規定される機能/行為の側面を実装する命令を含む製造品を構成するように、コンピュータ、プログラマブルデータ処理装置、および/または他のデバイスに、特定の様式において機能するように指示し得るコンピュータ読み取り可能な記憶媒体内にも記憶され得る。
コンピュータ読み取り可能なプログラム命令は、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行される命令がフローチャートおよび/またはブロック図のブロックまたは複数のブロックにおいて規定される機能/行為を実装するように、コンピュータ、他のプログラマブルデータ処理装置、または他のデバイス上にもロードされ、一連の動作ステップをコンピュータ、他のプログラマブル装置、または他のデバイス上で実施させ、コンピュータ実装プロセスを生産し得る。
図中のフローチャートおよびブロック図は、本開示の種々の実施形態による、システム、方法、およびコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性、および動作を図示する。この点において、フローチャートまたはブロック図内の各ブロックが、規定された論理機能を実装するための1つ以上の実行可能命令を備えているモジュール、セグメント、または命令の一部を表し得る。いくつかの代替実装において、ブロック内に記載される機能は、図に記載の順序から外れて生じ得る。例えば、連続して示される2つのブロックは、実際は、実質的に並行して実行され得るか、または、ブロックは、時として、関わる機能性に応じて、逆の順序で実行され得る。ブロック図および/またはフローチャート図の各ブロック、およびブロック図および/またはフローチャート図内のブロックの組み合わせが、規定された機能または行為を実施する、または特殊目的ハードウェアおよびコンピュータ命令の組み合わせを行う特殊目的のハードウェアベースのシステムによって実装され得ることにも留意されたい。
本開示の種々の実施形態の説明は、例証目的のために提示されているが、包括的である、または開示される実施形態に限定されることを意図するものではない。多くの修正および変形例が、説明される実施形態の範囲および精神から逸脱することなく、当業者に明白となるであろう。本明細書で使用される専門用語は、実施形態の原理、市場に見出される技術に優る実践的用途または技術的改良を最良に説明する、または当業者が本明細書に開示される実施形態を理解することを可能にするように選定された。

Claims (63)

  1. 方法であって、前記方法は、
    カメラから、患者の体腔の内部の画像を受信することと、
    前記カメラの位置情報を受信することと、
    前記位置情報に基づいて、解剖学的モデル上に前記カメラの視野を示す基準ビューを発生させることと、
    前記基準ビューを前記画像との組み合わせにおいてユーザに表示することと
    を含む、方法。
  2. 前記カメラの向き情報を受信することと、
    前記向き情報に基づいて、解剖学的モデル上に前記カメラの方向を示す方向インジケータを発生させることと、
    前記方向インジケータを前記基準ビューとの組み合わせにおいて前記ユーザに表示することと
    をさらに含む、請求項1に記載の方法。
  3. 方向のインジケータは、矢印を含む、請求項2に記載の方法。
  4. 前記カメラは、前記位置情報を伝送するように構成された絶対位置センサを備えている、請求項1に記載の方法。
  5. 前記絶対位置センサは、1つ以上のエンコーダを備えている、請求項4に記載の方法。
  6. 前記絶対位置センサは、光学追跡システムを備えている、請求項4に記載の方法。
  7. 前記カメラは、前記向き情報を伝送するように構成された絶対向きセンサを備えている、請求項2に記載の方法。
  8. 前記絶対向きセンサは、1つ以上のエンコーダを備えている、請求項7に記載の方法。
  9. 前記絶対向きセンサは、光学追跡システムを備えている、請求項7に記載の方法。
  10. 前記解剖学的モデルは、汎用の解剖図を備えている、請求項1に記載の方法。
  11. 前記解剖学的モデルは、単純化された絵表現を備えている、請求項1に記載の方法。
  12. 前記解剖学的モデルは、前記患者の撮像を備えている、請求項1に記載の方法。
  13. 前記撮像は、医療用画像管理システム(PACS)から受信される、請求項12に記載の方法。
  14. 前記撮像は、コンピュータ断層撮影(CT)、磁気共鳴撮像(MRI)、X線、超音波、およびデジタル撮像のうちの少なくとも1つを備えている、請求項12に記載の方法。
  15. 前記患者の撮像は、医療手技中にリアルタイムで更新される、請求項12に記載の方法。
  16. 前記患者の基準ビューは、前記医療手技中にリアルタイムで更新される、請求項15に記載の方法。
  17. 前記カメラの座標空間を前記患者の座標空間に位置合わせすることと、
    前記カメラの座標空間を前記解剖学的モデルの座標空間に位置合わせすることと、
    前記カメラの深度情報を受信することと
    をさらに含む、請求項1に記載の方法。
  18. 前記カメラの位置の情報は、ビジュアルオドメトリを介して決定される、請求項17に記載の方法。
  19. 前記基準ビューを表示することは、前記基準ビューを前記画像上に重ねることを含む、請求項1に記載の方法。
  20. 前記基準ビューを表示することは、主ディスプレイ上に前記画像を表示しながら、補完的ディスプレイ上に前記基準ビューを表示することを含む、請求項1に記載の方法。
  21. 前記基準ビューは、前記基準ビューの小領域を示すフレームを含み、前記小領域は、前記視野に対応する、請求項1に記載の方法。
  22. システムであって、前記システムは、
    患者の体腔の内部を撮像にするように構成されたデジタルカメラと、
    ディスプレイと、
    コンピュータ読み取り可能な記憶媒体を備えているコンピューティングノードと
    を備え、
    前記記憶媒体は、それを用いて具現化されるプログラム命令を有し、前記プログラム命令は、プロセッサに方法を実施させるように前記コンピューティングノードの前記プロセッサによって実行可能であり、前記方法は、
    前記カメラから、前記患者の体腔の内部の画像を受信することと、
    前記カメラの位置情報を受信することと、
    前記位置情報に基づいて、解剖学的モデル上に前記カメラの視野を示す基準ビューを発生させることと、
    前記基準ビューを前記ディスプレイ上に前記画像との組み合わせにおいて表示することと
    を含む、システム。
  23. 前記カメラの向き情報を受信することと、
    前記向き情報に基づいて、解剖学的モデル上に前記カメラの方向を示す方向インジケータを発生させることと、
    前記方向インジケータを前記基準ビューとの組み合わせにおいて前記ユーザに表示することと
    をさらに含む、請求項22に記載のシステム。
  24. 前記方向のインジケータは、矢印を含む、請求項23に記載のシステム。
  25. 前記位置情報を伝送するように構成された絶対位置センサをさらに備えている、請求項22に記載のシステム。
  26. 前記絶対位置センサは、1つ以上のエンコーダを備えている、請求項25に記載のシステム。
  27. 前記絶対位置センサは、光学追跡システムを備えている、請求項25に記載のシステム。
  28. 前記向き情報を伝送するように構成された絶対向きセンサをさらに備えている、請求項23に記載のシステム。
  29. 前記絶対向きセンサは、1つ以上のエンコーダを備えている、請求項28に記載のシステム。
  30. 前記絶対向きセンサは、光学追跡システムを備えている、請求項28に記載のシステム。
  31. 前記解剖学的モデルは、汎用の解剖図を備えている、請求項22に記載のシステム。
  32. 前記解剖学的モデルは、単純化された絵表現を備えている、請求項22に記載のシステム。
  33. 前記解剖学的モデルは、前記患者の撮像を備えている、請求項22に記載のシステム。
  34. 前記撮像は、医療用画像管理システム(PACS)から受信される、請求項33に記載のシステム。
  35. 前記撮像は、コンピュータ断層撮影(CT)、磁気共鳴撮像(MRI)、X線、超音波、およびデジタル撮像のうちの少なくとも1つを備えている、請求項33に記載のシステム。
  36. 前記患者の撮像は、医療手技中にリアルタイムで更新される、請求項33に記載のシステム。
  37. 前記患者の基準ビューは、前記医療手技中にリアルタイムで更新される、請求項36に記載のシステム。
  38. 前記カメラの座標空間を前記患者の座標空間に位置合わせすることと、
    前記カメラの座標空間を前記解剖学的モデルの座標空間に位置合わせすることと、
    前記カメラの深度情報を受信することと
    をさらに含む、請求項22に記載のシステム。
  39. 前記カメラの位置の情報は、ビジュアルオドメトリを介して決定される、請求項38に記載のシステム。
  40. 前記基準ビューを表示することは、前記基準ビューを前記画像上に重ねることを含む、請求項22に記載のシステム。
  41. 前記基準ビューを表示することは、主ディスプレイ上に前記画像を表示しながら、補完的ディスプレイ上に前記基準ビューを表示することを含む、請求項22に記載のシステム。
  42. 前記基準ビューは、前記基準ビューの小領域を示すフレームを含み、前記小領域は、前記視野に対応する、請求項22に記載のシステム。
  43. 外科手術手技中にカメラを向けるためのコンピュータプログラム製品であって、前記コンピュータプログラム製品は、コンピュータ読み取り可能な記憶媒体を備え、前記記憶媒体は、それを用いて具現化されるプログラム命令を有し、前記プログラム命令は、プロセッサに方法を実施させるように前記プロセッサによって実行可能であり、前記方法は、
    カメラから、患者の体腔の内部の画像を受信することと、
    前記カメラの位置情報を受信することと、
    前記位置情報に基づいて、解剖学的モデル上に前記カメラの視野を示す基準ビューを発生させることと、
    前記基準ビューを前記画像との組み合わせにおいてユーザに表示することと
    を含む、コンピュータプログラム製品。
  44. 前記カメラの向き情報を受信することと、
    前記向き情報に基づいて、解剖学的モデル上に前記カメラの方向を示す方向インジケータを発生させることと、
    前記方向インジケータを前記基準ビューとの組み合わせにおいて前記ユーザに表示することと
    をさらに含む、請求項43に記載のコンピュータプログラム製品。
  45. 前記方向のインジケータは、矢印を含む、請求項44に記載のコンピュータプログラム製品。
  46. 前記カメラは、前記位置情報を伝送するように構成された絶対位置センサを備えている、請求項43に記載のコンピュータプログラム製品。
  47. 前記絶対位置センサは、1つ以上のエンコーダを備えている、請求項46に記載のコンピュータプログラム製品。
  48. 前記絶対位置センサは、光学追跡システムを備えている、請求項46に記載のコンピュータプログラム製品。
  49. 前記カメラは、前記向き情報を伝送するように構成された絶対向きセンサを備えている、請求項44に記載のコンピュータプログラム製品。
  50. 前記絶対向きセンサは、1つ以上のエンコーダを備えている、請求項49に記載のコンピュータプログラム製品。
  51. 前記絶対向きセンサは、光学追跡システムを備えている、請求項49に記載のコンピュータプログラム製品。
  52. 前記解剖学的モデルは、汎用の解剖図を備えている、請求項43に記載のコンピュータプログラム製品。
  53. 前記解剖学的モデルは、単純化された絵表現を備えている、請求項43に記載のコンピュータプログラム製品。
  54. 前記解剖学的モデルは、前記患者の撮像を備えている、請求項43に記載のコンピュータプログラム製品。
  55. 前記撮像は、医療用画像管理システム(PACS)から受信される、請求項54に記載のコンピュータプログラム製品。
  56. 前記撮像は、コンピュータ断層撮影(CT)、磁気共鳴撮像(MRI)、X線、超音波、およびデジタル撮像のうちの少なくとも1つを備えている、請求項54に記載のコンピュータプログラム製品。
  57. 前記患者の撮像は、医療手技中にリアルタイムで更新される、請求項54に記載のコンピュータプログラム製品。
  58. 前記患者の基準ビューは、前記医療手技中にリアルタイムで更新される、請求項57に記載のコンピュータプログラム製品。
  59. 前記カメラの座標空間を前記患者の座標空間に位置合わせすることと、
    前記カメラの座標空間を前記解剖学的モデルの座標空間に位置合わせすることと、
    前記カメラの深度情報を受信することと
    をさらに含む、請求項43に記載のコンピュータプログラム製品。
  60. 前記カメラの位置の情報は、ビジュアルオドメトリを介して決定される、請求項59に記載のコンピュータプログラム製品。
  61. 前記基準ビューを表示することは、前記基準ビューを前記画像上に重ねることを含む、請求項43に記載のコンピュータプログラム製品。
  62. 前記基準ビューを表示することは、主ディスプレイ上に前記画像を表示しながら、補完的ディスプレイ上に前記基準ビューを表示することを含む、請求項43に記載のコンピュータプログラム製品。
  63. 前記基準ビューは、前記基準ビューの小領域を示すフレームを含み、前記小領域は、前記視野に対応する、請求項43に記載のコンピュータプログラム製品。
JP2021537828A 2018-12-28 2019-12-27 外科手術中の遠隔カメラの向きに関するユーザインターフェース要素 Pending JP2022516474A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862786003P 2018-12-28 2018-12-28
US62/786,003 2018-12-28
PCT/US2019/068756 WO2020140042A1 (en) 2018-12-28 2019-12-27 User interface elements for orientation of remote camera during surgery

Publications (1)

Publication Number Publication Date
JP2022516474A true JP2022516474A (ja) 2022-02-28

Family

ID=71127317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537828A Pending JP2022516474A (ja) 2018-12-28 2019-12-27 外科手術中の遠隔カメラの向きに関するユーザインターフェース要素

Country Status (7)

Country Link
US (1) US20220020160A1 (ja)
EP (1) EP3902458A4 (ja)
JP (1) JP2022516474A (ja)
KR (1) KR20210144663A (ja)
CN (1) CN113853151A (ja)
CA (1) CA3125166A1 (ja)
WO (1) WO2020140042A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3545675A4 (en) 2016-11-24 2020-07-01 The University of Washington CAPTURE AND RESTITUTION OF LIGHT FIELD FOR HEADSETS

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US8079950B2 (en) * 2005-09-29 2011-12-20 Intuitive Surgical Operations, Inc. Autofocus and/or autoscaling in telesurgery
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
US10806532B2 (en) * 2017-05-24 2020-10-20 KindHeart, Inc. Surgical simulation system using force sensing and optical tracking and robotic surgery system

Also Published As

Publication number Publication date
EP3902458A1 (en) 2021-11-03
EP3902458A4 (en) 2022-09-21
WO2020140042A1 (en) 2020-07-02
US20220020160A1 (en) 2022-01-20
CA3125166A1 (en) 2020-07-02
KR20210144663A (ko) 2021-11-30
CN113853151A (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
JP6987893B2 (ja) 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法
EP2637593B1 (en) Visualization of anatomical data by augmented reality
EP2883353B1 (en) System and method of overlaying images of different modalities
US11443431B2 (en) Augmented reality patient positioning using an atlas
WO2017053056A1 (en) Registration of video camera with medical imaging
US20220012954A1 (en) Generation of synthetic three-dimensional imaging from partial depth maps
JP2003265408A (ja) 内視鏡誘導装置および方法
JP6349278B2 (ja) 放射線撮像装置、画像処理方法及びプログラム
JP6493885B2 (ja) 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
KR20240055167A (ko) 이미지-기반 프로브 포지셔닝
US20220020160A1 (en) User interface elements for orientation of remote camera during surgery
Pyciński et al. Image navigation in minimally invasive surgery
Pérez de Frutos et al. Laboratory test of Single Landmark registration method for ultrasound-based navigation in laparoscopy using an open-source platform
US11877809B2 (en) Using a current workflow step for control of medical data processing
US20230145531A1 (en) Systems and methods for registering visual representations of a surgical space
US20220156928A1 (en) Systems and methods for generating virtual images
WO2023148586A1 (en) Systems, methods, and devices for tracking one or more objects
Nicolau et al. Augmented Reality
CN115176283A (zh) 增强现实定位医学视图
Ciucci Intraoperative endoscopic augmented reality in third ventriculostomy