JP7197511B2 - 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法 - Google Patents

画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法 Download PDF

Info

Publication number
JP7197511B2
JP7197511B2 JP2019564889A JP2019564889A JP7197511B2 JP 7197511 B2 JP7197511 B2 JP 7197511B2 JP 2019564889 A JP2019564889 A JP 2019564889A JP 2019564889 A JP2019564889 A JP 2019564889A JP 7197511 B2 JP7197511 B2 JP 7197511B2
Authority
JP
Japan
Prior art keywords
surgical instrument
camera
view
controller
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019564889A
Other languages
English (en)
Other versions
JP2020520752A (ja
JP2020520752A5 (ja
Inventor
ウィリアム ペイン,
Original Assignee
コヴィディエン リミテッド パートナーシップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コヴィディエン リミテッド パートナーシップ filed Critical コヴィディエン リミテッド パートナーシップ
Publication of JP2020520752A publication Critical patent/JP2020520752A/ja
Publication of JP2020520752A5 publication Critical patent/JP2020520752A5/ja
Priority to JP2022075936A priority Critical patent/JP2022101696A/ja
Application granted granted Critical
Publication of JP7197511B2 publication Critical patent/JP7197511B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00973Surgical instruments, devices or methods, e.g. tourniquets pedal-operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/743Keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/744Mouse
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3618Image-producing devices, e.g. surgical cameras with a mirror
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • A61B2090/3975Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/71Manipulators operated by drive cable mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Business, Economics & Management (AREA)
  • Urology & Nephrology (AREA)
  • Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Databases & Information Systems (AREA)
  • Manipulator (AREA)
  • Endoscopes (AREA)

Description

ロボット手術システムは、低侵襲医療手技でますます使用されている。典型的には、ロボット手術システムは、手術器具および/またはカメラが連結された1つ以上のロボットアームから離れて位置する外科医コンソールを含む。外科医コンソールは、ロボットアームがある手術室の反対側、別の部屋、または別の建物に位置することができ、外科医からの入力を受信するための入力ハンドルまたは他の入力デバイスを含む。入力は、中央コントローラに通信され、中央コントローラは、入力を、患者の近くのロボットアームを操作するためのコマンドに変換する。
手術部位を視認するために、外科医コンソールは、三次元(3D)ディスプレイと称されることもある立体視ディスプレイを含み得る。いくつかの構成では、外科医が着用する、対応する対の立体視眼鏡と組み合わせて、かかるディスプレイは、左眼と右眼とにそれぞれ別々に提供される一対の別個の画像として外科医に画像を提示することによって、画像の深度知覚を容易にし、左眼と右眼との間のオフセットの効果を再現し、これにより、ディスプレイ内で各眼が見るものに差異が生じる。ディスプレイ内で各眼が見る異なる画像は、画像内の物体の深度の違いとして知覚される。他の構成では、立体視ディスプレイは、眼鏡の必要なしに、視認される。
立体視ディスプレイは、手術部位からロボット手術システムを介して提供される画像を提供する。ロボット手術システムのいくつかの構成では、1つ以上のカメラが取り付けられているものを含む各ロボットアームが、それ自体の基部またはカートから延在する。手術前の準備中、外科医の好みに応じて、各ロボットアームを手術室のさまざまな位置に移動することができる。各カートを所定の位置に固定するために、各ホイールは、動き防止するためのロックまたはその他の固定機構を含む。手術中、カメラは、手術部位の視野を提供する。外科医がロボットアーム、ひいては、その上の手術器具を移動させるための入力を提供すると、手術器具をカメラの視界の中および外に移動させることができる。
上記のロボット手術システムの構成は適切であるが、その構成を改善することができる。例えば、一部の医療手技は持続期間が比較的長い場合があるため、コンソール内で制限された位置を維持することは、一部の外科医に不快感を引き起こし得る。さらに、ロボットアームに関しては、外科医は、ロボットアームおよび/または器具がカメラの視界から外れたときに、1つのロボットアームおよび/または器具の、別のものに対する場所を判定するために外科医自身の記憶に頼ることがある。しかしながら、視野外のロボットアームは、手技中のある時点で移動する可能性があり、ひいては、外科医が最後に記憶した場所に位置しない場合がある。その結果、外科医は、視野外のロボットアームを見つけるのに時間を費やす必要がある場合があり、効率が低下する。
本開示によるロボット手術システムは、外科医が、患者のベッドサイドでどのような行動が取られ、どのように行動が実装されるかについての制御を改善することを可能にする。
本開示の一態様によれば、1つ以上の手術器具の位置を追跡するための方法が提供される。この方法は、カメラの視界内の第1の手術器具の遠位端に配設された複数のマーカーを検出することと、カメラの視界内で検出された複数のマーカーの場所に基づいて第1の手術器具の位置を計算することと、第2の手術器具に対する第1の手術器具の位置を判定することと、を含む。
本開示の別の態様では、第1の手術器具は、ロボットアームに連結され、第1の手術器具の位置を計算するために使用される所定の点を有する。
本開示のまた別の態様では、第1の手術器具の位置を計算することは、ロボットアームの所定の点の位置を計算して、ロボットアームの基部の位置を識別することを含む。
本開示の別の態様では、本方法は、検出された複数のマーカーの場所を連続的に更新することによって、第1の手術器具の位置を追跡することをさらに含む。
本開示のまた別の態様では、第1の手術器具の位置を計算することは、検出された複数のマーカーの場所に基づいて、第1の手術器具の三次元位置を三角測量することを含む。
本開示のまた別の態様では、本方法は、第1の手術器具の位置を記憶することをさらに含む。
本開示の別の態様では、本方法は、第1の手術器具がカメラの視界の外側にあるとき、第1の手術器具の位置を識別するインジケータをディスプレイ上に表示することをさらに含む。
本開示のさらに別の態様では、本方法は、カメラの視界を増加させて、その中に複数のマーカーを含めることを含む。
本開示の別の態様では、本方法はまた、第1の手術器具がカメラの視界内にもはや存在しないという警告を表示することを含む。
本開示のまた別の態様では、警告を表示することは、メッセージを用いてユーザを促すことを含む。
本開示のまた別の態様では、本方法はまた、手術室内の第1の手術器具の最適な位置を判定することを含む。
本開示の別の態様では、本方法は、手術室内の第1の手術器具の場所のマップを生成することをさらに含む。
本開示のまた別の態様では、マップを生成することは、手術台と第1の手術器具との相対位置を示すマップを生成することを含む。
本開示のまた別の態様では、本方法は、検出された複数のマーカーがカメラの視界の外側にあるとき、第1の手術器具を制御する能力を無効にすることをさらに含む。
本開示の別の態様では、本方法は、第1の手術器具がカメラの視界から離れている距離を計算することをさらに含む。本開示のまた別の態様では、本方法は、計算された距離をディスプレイデバイスに表示することをさらに含む。
本開示の別の態様に従って、1つ以上の手術器具の位置を追跡するように構成されたロボット手術システムが提供される。ロボット手術システムは、第1の手術器具に連結されたロボットアームと、手術部位の画像を取得するように構成されたカメラと、カメラから取得した手術部位の画像を表示するように構成されたディスプレイと、カメラの視界内で第1の手術器具の遠位端に配設された複数のマーカーを検出するように構成された画像プロセッサと、視界内の複数のマーカーの場所に基づいて第1の手術器具の位置を計算し、第2の手術器具に対する第1の手術器具の位置を判定するように構成されたコントローラと、を含む。
本開示の別の態様では、ロボットアームは、所定の点を有し、コントローラは、所定の点に部分的に基づいて第1の手術器具の位置を計算するようにさらに構成されている。
本開示の別の態様では、コントローラは、ロボットアームの所定の点の位置を計算して、ロボットアームの基部の位置を識別することによって、第1の手術器具の位置を計算するようにさらに構成されている。
本開示の別の態様では、コントローラは、検出された複数のマーカーの場所を連続的に更新することによって、第1の手術器具の位置を追跡するようにさらに構成されている。
本開示のまた別の態様では、コントローラは、検出された複数のマーカーの場所に基づいて、第1の手術器具の三次元位置を三角測量することによって、第1の手術器具の位置を計算するようにさらに構成されている。
本開示のまた別の態様では、システムは、コントローラに連結されたメモリをさらに含み、メモリは、第1の手術器具の位置を記憶する。
本開示のまた別の態様では、コントローラは、ディスプレイに、第1の手術器具がカメラの視界の外側にあるときに、第1の手術器具の位置を識別するインジケータを表示させるようにさらに構成されている。
本開示の別の態様では、コントローラは、カメラの視界を増加させて、その中に複数のマーカーを含めるようにさらに構成されている。
本開示の別の態様では、コントローラは、ディスプレイに、第1の手術器具がカメラの視界内にもはや存在しないという警告を表示させるようにさらに構成されている。
本開示の別の態様では、警告を表示することは、メッセージを用いてユーザを促すことを含む。
本開示の別の態様では、コントローラは、手術室内の第1の手術器具の最適な位置を判定するようにさらに構成されている。
本開示のまた別の態様では、コントローラは、手術室内の第1の手術器具の位置を示すマップを生成するようにさらに構成されている。
本開示のまた別の態様では、マップを生成することは、手術台と第1の手術器具との相対位置を示すマップを生成することを含む。
本開示のまた別の態様では、コントローラは、検出された複数のマーカーがカメラの視界の外側にあるとき、第1の手術器具を制御する能力を無効にするようにさらに構成されている。
本開示のまた別の態様では、コントローラは、第1の手術器具がカメラの視界から離れている距離を計算するようにさらに構成されている。
本開示のさらに別の態様では、コントローラは、ディスプレイデバイスに、計算された距離を表示させるようにさらに構成されている。
本開示のまた別の態様によれば、非一時的コンピュータ可読媒体は、そこに記憶された命令を有し、命令は、プロセッサによって実行されると、カメラの視界内の第1の手術器具の遠位端に配設された複数のマーカーを検出することと、カメラの視界内で検出された複数のマーカーの場所に基づいて第1の手術器具の位置を計算することと、第2の手術器具に対する第1の手術器具の位置を判定することと、を引き起こす。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、第1の手術器具が連結されているロボットアーム上の所定の点を使用することによって、第1の手術器具の位置を計算することを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、ロボットアームの所定の点の位置を計算して、ロボットアームの基部の位置を識別することを含む、第1の手術器具の位置を計算することを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、検出された複数のマーカーの場所を連続的に更新することによって、第1の手術器具の位置を追跡することを引き起こす、さらなる命令が含まれる。
本開示のまた別の態様では、第1の手術器具の位置を計算することは、検出された複数のマーカーの場所に基づいて、第1の手術器具の三次元位置を三角測量することを含む。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、第1の手術器具の位置を記憶することを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、第1の手術器具がカメラの視界の外側にあるとき、第1の手術器具の位置を識別するインジケータをディスプレイ上に表示することを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、カメラの視界を増加させて、その中に複数のマーカーを含めることを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、第1の手術器具がカメラの視界内にもはや存在しないという警告を表示することを引き起こす、さらなる命令が含まれる。
本開示のまた別の態様では、警告を表示することは、メッセージを用いてユーザを促すことを含む。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、手術室内の第1の手術器具の最適な位置を判定することを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、手術室内の第1の手術器具の位置のマップを生成することを引き起こす、さらなる命令が含まれる。
本開示のまた別の態様では、マップを生成することは、手術台と第1の手術器具との相対位置を示すマップを生成することを含む。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、検出された複数のマーカーがカメラの視界の外側にあるとき、第1の手術器具を制御する能力を無効にすることを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、第1の手術器具がカメラの視界から離れている距離を計算することを引き起こす、さらなる命令が含まれる。
本開示の別の態様では、さらなる命令であって、プロセッサによって実行されると、計算された距離をディスプレイデバイスに表示することを引き起こす、さらなる命令が含まれる。
本発明は、例えば、以下を提供する。
(項目1)
1つ以上の手術器具の位置を追跡する方法であって、
カメラの視界内の第1の手術器具の遠位端に配設された複数のマーカーを検出することと、
前記カメラの前記視界内で検出された前記複数のマーカーの場所に基づいて、前記第1の手術器具の位置を計算することと、
第2の手術器具に対する前記第1の手術器具の前記位置を判定することと、を含む、方法。
(項目2)
前記第1の手術器具が、前記第1の手術器具の前記位置を計算するために使用される所定の点を有するロボットアームに連結される、項目1に記載の方法。
(項目3)
前記第1の手術器具の前記位置を計算することが、前記ロボットアームの前記所定の点の位置を計算して、前記ロボットアームの基部の位置を識別することを含む、項目2に記載の方法。
(項目4)
前記検出された複数のマーカーの前記場所を連続的に更新することによって、前記第1の手術器具の前記位置を追跡することをさらに含む、項目1に記載の方法。
(項目5)
前記第1の手術器具の前記位置を計算することが、前記検出された複数のマーカーの前記場所に基づいて、前記第1の手術器具の三次元位置を三角測量することを含む、項目1に記載の方法。
(項目6)
前記第1の手術器具の前記位置を記憶することをさらに含む、項目1に記載の方法。
(項目7)
前記第1の手術器具が前記カメラの前記視界の外側にあるとき、前記第1の手術器具の前記位置を識別するインジケータをディスプレイ上に表示することをさらに含む、項目6に記載の方法。
(項目8)
前記カメラの前記視界を増加させて、その中に前記複数のマーカーを含めることをさらに含む、項目6に記載の方法。
(項目9)
前記第1の手術器具が前記カメラの前記視界内にもはや存在しないという警告を表示することをさらに含む、項目6に記載の方法。
(項目10)
警告を表示することが、メッセージを用いてユーザを促すことを含む、項目9に記載の方法。
(項目11)
手術室内の前記第1の手術器具の最適な位置を判定することをさらに含む、項目6に記載の方法。
(項目12)
前記手術室内の前記第1の手術器具の前記位置を示すマップを生成することをさらに含む、項目11に記載の方法。
(項目13)
前記マップを生成することが、手術台と前記第1の手術器具との相対位置を示すマップを生成することを含む、項目12に記載の方法。
(項目14)
前記検出された複数のマーカーが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にすることをさらに含む、項目6に記載の方法。
(項目15)
前記第1の手術器具が前記カメラの前記視界から離れている距離を計算することをさらに含む、項目6に記載の方法。
(項目16)
前記計算された距離をディスプレイデバイスに表示することをさらに含む、項目15に記載の方法。
(項目17)
1つ以上の手術器具の位置を追跡するように構成されたロボット手術システムであって、
第1の手術器具に連結されたロボットアームと、
手術部位の画像を取得するように構成されたカメラと、
前記カメラから取得した前記手術部位の前記画像を表示するように構成されたディスプレイと、
前記カメラの視界内で前記第1の手術器具上に配設された複数のマーカーを検出するように構成された画像プロセッサと、
前記カメラの前記視界内の前記複数のマーカーの場所に基づいて前記第1の手術器具の位置を計算し、第2の手術器具に対する前記第1の手術器具の前記位置を判定するように構成されたコントローラと、を備える、ロボット手術システム。
(項目18)
前記ロボットアームが、所定の点を有し、前記コントローラが、前記所定の点に部分的に基づいて前記第1の手術器具の前記位置を計算するようにさらに構成されている、項目17に記載のロボット手術システム。
(項目19)
前記コントローラが、前記ロボットアームの前記所定の点の位置を計算して、前記ロボットアームの基部の位置を識別することによって、前記第1の手術器具の前記位置を計算するようにさらに構成されている、項目18に記載のロボット手術システム。
(項目20)
前記コントローラが、前記検出された複数のマーカーの前記場所を連続的に更新することによって、前記第1の手術器具の前記位置を追跡するようにさらに構成されている、項目17に記載のロボット手術システム。
(項目21)
前記コントローラが、前記検出された複数のマーカーの前記場所に基づいて、前記第1の手術器具の三次元位置を三角測量することによって、前記第1の手術器具の前記位置を計算するようにさらに構成されている、項目17に記載のロボット手術システム。
(項目22)
前記コントローラに連結されたメモリをさらに備え、前記メモリが、前記第1の手術器具の前記位置を記憶する、項目17に記載のロボット手術システム。
(項目23)
前記コントローラが、前記ディスプレイに、前記第1の手術器具が前記カメラの前記視界の外側にあるときに、前記第1の手術器具の前記位置を識別するインジケータを表示させるようにさらに構成されている、項目22に記載のロボット手術システム。
(項目24)
前記コントローラが、前記カメラの前記視界を増加させて、その中に前記複数のマーカーを含めるようにさらに構成されている、項目22に記載のロボット手術システム。
(項目25)
前記コントローラが、前記ディスプレイに、前記第1の手術器具が前記カメラの前記視界内にもはや存在しないという警告を表示させるようにさらに構成されている、項目22に記載のロボット手術システム。
(項目26)
警告を表示することが、メッセージを用いて前記ユーザを促すことを含む、項目25に記載のロボット手術システム。
(項目27)
前記コントローラが、手術室内の前記第1の手術器具の最適な位置を判定するようにさらに構成されている、項目22に記載のロボット手術システム。
(項目28)
前記コントローラが、前記手術室内の前記第1の手術器具の前記位置を示すマップを生成するようにさらに構成されている、項目27に記載のロボット手術システム。
(項目29)
前記マップが、手術台と前記第1の手術器具との相対位置を示す、項目28に記載のロボット手術システム。
(項目30)
前記コントローラが、前記検出された複数のマーカーが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にするようにさらに構成されている、項目22に記載のロボット手術システム。
(項目31)
前記コントローラが、前記第1の手術器具が前記カメラの前記視界から離れている距離を計算するようにさらに構成されている、項目22に記載のロボット手術システム。
(項目32)
前記コントローラが、前記ディスプレイデバイスに、前記計算された距離を表示させるようにさらに構成されている、項目31に記載のロボット手術システム。
(項目33)
非一時的コンピュータ可読媒体であって、そこに記憶された命令を有し、前記命令が、プロセッサによって実行されると、
カメラの視界内の第1の手術器具上に配設された複数のマーカーを検出することと、
前記カメラの前記視界内の前記複数のマーカーの場所に基づいて、前記第1の手術器具の位置を計算することと、
第2の手術器具に対する前記第1の手術器具の前記位置を判定することと、を含む、非一時的コンピュータ可読媒体。
(項目34)
命令であって、プロセッサによって実行されると、前記第1の手術器具が連結されているロボットアーム上の所定の点を使用することによって、前記第1の手術器具の前記位置を計算することを引き起こす、命令をさらに含む、項目33に記載の非一時的コンピュータ可読媒体。
(項目35)
命令であって、プロセッサによって実行されると、前記ロボットアームの前記所定の点の位置を計算して、前記ロボットアームの基部の位置を識別することによって、前記第1の手術器具の前記位置を計算することを引き起こす、命令をさらに含む、項目34に記載の非一時的コンピュータ可読媒体。
(項目36)
命令であって、プロセッサによって実行されると、前記検出された複数のマーカーの前記場所を連続的に更新することによって、前記第1の手術器具の前記位置を追跡することを引き起こす、命令をさらに含む、項目33に記載の非一時的コンピュータ可読媒体。
(項目37)
命令であって、プロセッサによって実行されると、前記検出された複数のマーカーの前記場所に基づいて、前記第1の手術器具の三次元位置を三角測量することによって、前記第1の手術器具の前記位置を計算することを引き起こす、命令をさらに含む、項目33に記載の非一時的コンピュータ可読媒体。
(項目38)
命令であって、プロセッサによって実行されると、前記第1の手術器具の前記位置を記憶することを引き起こす、命令をさらに含む、項目33に記載の非一時的コンピュータ可読媒体。
(項目39)
命令であって、プロセッサによって実行されると、前記第1の手術器具が前記カメラの前記視界の外側にあるとき、前記第1の手術器具の前記位置を識別するインジケータをディスプレイ上に表示することを引き起こす、命令をさらに含む、項目38に記載の非一時的コンピュータ可読媒体。
(項目40)
命令であって、プロセッサによって実行されると、前記カメラの前記視界を増加させて、その中に前記複数のマーカーを含めることを引き起こす、命令をさらに含む、項目38に記載の非一時的コンピュータ可読媒体。
(項目41)
命令であって、プロセッサによって実行されると、前記第1の手術器具が前記カメラの前記視界内にもはや存在しないという警告を表示することを引き起こす、命令をさらに含む、項目38に記載の非一時的コンピュータ可読媒体。
(項目42)
警告を表示することが、メッセージを用いて前記ユーザを促すことを含む、項目41に記載の非一時的コンピュータ可読媒体。
(項目43)
命令であって、プロセッサによって実行されると、手術室内の前記第1の手術器具の最適な位置を判定することを引き起こす、命令をさらに含む、項目38に記載の非一時的コンピュータ可読媒体。
(項目44)
命令であって、プロセッサによって実行されると、前記手術室内の前記第1の手術器具の前記位置を示すマップを生成することを引き起こす、命令をさらに含む、項目43に記載の非一時的コンピュータ可読媒体。
(項目45)
前記マップを生成することが、手術台と前記第1の手術器具との相対位置を示すマップを生成することを含む、項目44に記載の非一時的コンピュータ可読媒体。
(項目46)
命令であって、プロセッサによって実行されると、前記検出された複数のマーカーが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にすることを引き起こす、命令をさらに含む、項目38に記載の非一時的コンピュータ可読媒体。
(項目47)
命令であって、プロセッサによって実行されると、前記第1の手術器具が前記カメラの前記視界から離れている距離を計算することを引き起こす、命令をさらに含む、項目38に記載の非一時的コンピュータ可読媒体。
(項目48)
命令であって、プロセッサによって実行されると、前記計算された距離をディスプレイデバイスに表示することを引き起こす、命令をさらに含む、項目47に記載の非一時的コンピュータ可読媒体。
本開示の例示的な実施形態のさらなる詳細および態様を、添付の図面を参照しながら以下により詳細に記載する。
添付の図面を参照しながら本開示の実施形態を本明細書に記載する。
本開示による、ロボット手術システムの概略図である。 本開示による、図1のロボット手術システムに実装するためのディスプレイシステムの一部の斜視図である。 一実施形態による、図1のロボット手術システムで使用するためのマーカーおよび画像捕捉デバイスの簡略図である。 別の実施形態による、図1のロボット手術システムで使用するためのマーカーおよび画像捕捉デバイスの簡略図である。 また別の実施形態による、図1のロボット手術システムで使用するためのマーカーおよび画像捕捉デバイスの簡略図である。 一実施形態による、図1のロボット手術システムで使用するためのヘッドセット上のマーカーおよび画像捕捉バイスの簡略図である。 本開示による、ロボット手術システムの機能ブロック図である。 本開示による、ロボット手術システムのディスプレイデバイスに対する外科医の位置を判定するための方法のフロー図である。 本開示による、ロボット手術システムの構成要素の位置を判定するための方法のフロー図である。 本開示による、ロボット手術システムのディスプレイデバイスに対する外科医の位置を判定するための別の方法のフロー図である。
本開示は、光学要素またはマーカー、およびカメラまたは画像捕捉デバイスを用いて、物体または人の位置を判定する。以下により詳細に記載されるように、マーカーがカメラまたは画像捕捉デバイスによって検出されると、検出されたマーカーの場所を使用して、物体または人の位置が計算される。ここで本開示の実施形態が図面を参照して詳細に記載され、図面の中で同様の参照番号は、いくつかの図の各々において同一のまたは対応する要素を示す。本明細書に使用される際、「臨床医」という用語は、医師、看護師、または任意の他の医療提供者を指し、医療支援従事者を含み得る。この説明全体を通して、「近位」という用語は、患者からより遠いデバイスまたはその構成要素の部分を指し、「遠位」という用語は、患者により近いデバイスまたはその構成要素の部分を指す。
図1を参照すると、低侵襲外科手術を履行するために手術台「T」に横たわっている患者「P」で使用するように構成されたロボット手術システム10が提供される。一実施形態によれば、ロボット手術システム10は、概して、遠隔に位置する外科医コンソール40で受信した入力に応答して、ロボットアーム12のうちの1つ以上を操作するためのコントローラ30からコマンドを受信するように構成された複数のロボットアーム12を含む。
ロボットアーム12の各々は、基部18に連結され、基部18から延在する関節を介して接続された複数の部材から構成されている。各基部18は、異なる場所であって、そこから各ロボットアーム12が延在する、異なる位置を提供する。例えば、基部18は、複数の移動可能なカートから構成され得る。別の実施形態では、ロボットアーム12のすべてが単一の基部から延在する。一実施形態では、各ロボットアーム12の遠位端に接続されているのは、手術用アセンブリ14であり、手術用アセンブリ14は、手術器具20と取り外し可能に連結するように構成された手術器具ホルダ16を含む。各ロボットアーム12は、異なる目的のために構成された手術器具20を含み得る。例えば、1つのロボットアーム12は、把持用ジョー器具20を含む手術器具を含むことができ、別のロボットアーム12は、はさみを含む手術器具を含むことができる。他の好適な器具20a、20bは、ステープラ、クリップアプライヤ、縫合糸通し具、スパチュラなどを含むが、これらに限定されない。
4つのロボットアーム12が描写されているが、手術システム10は、4つより少ないかまたは多いロボットアーム12を含み得る。これに関して、追加のロボットアーム(図示せず)も同様にコントローラ30に接続され、コンソール40を介して遠隔操作可能である。したがって、1つ以上の追加の手術用アセンブリ14、手術器具ホルダ16、および/または手術器具20a、20bを、追加のロボットアームに取り付けることもできる。別の実施形態では、ロボットアーム12のうちの1つ以上は、手術部位「S」上に位置決めされた画像捕捉デバイス66、手術部位「S」内に配設された画像捕捉デバイス66(図示せず)などを含む。画像捕捉デバイス66は、手術部位「S」の視覚画像、赤外線画像、超音波画像、X線画像、熱画像、および/または任意の他の既知のリアルタイム画像を捕捉する。一実施形態では、画像捕捉デバイス66は、以下でさらに詳細に記載されるマーカーまたは光学要素64a~d、64s(集合的にマーカー64とも称される)を検出するための、バンドパスフィルタなどのフィルタを含む。また別の実施形態では、画像捕捉デバイス66のうちの1つ以上は、ロボットアーム12に取り付けられず、手術室の周りの所定の場所に配置される。いずれにせよ、画像捕捉デバイス66は、捕捉された撮像データをコントローラ30に伝送し、コントローラ30は、撮像データから、手術部位「S」および/または手術室の画像をリアルタイムで作成し、その画像を表示用にディスプレイデバイス44に伝送する。別の実施形態では、表示される画像は、画像捕捉デバイスによって捕捉されたデータの二次元レンダリングである。
手術用アセンブリ14、手術器具ホルダ16、手術器具20a、20b、および/またはロボットアーム12の遠位端のうちの1つ以上の各々は、2つ以上のマーカー64を含み、2つ以上のマーカー64は各々、前述の構成要素上の所定の場所に取り付けられるか、連結されるか、塗装されるか、または別様に配置される。マーカー64は、画像捕捉デバイス66の視界内で検出可能となるように構成されている。一例では、マーカー64は、特有の塗装されたマーク、例えば、円形状、点形状、または他の塗りつぶされた形状もしくは塗りつぶされていない形状であり得る。別の例では、マーカー64は、画像捕捉デバイス66によって視覚的にまたは別の方法でのいずれかで検出可能な材料で作製されていても、その上に配設された材料を含んでいてもよい。特に、材料は、3M(商標)Advanced Light Control Film(ミネソタ州ミネアポリスの3Mが所有)、またはカナダのオンタリオ州のNDI Internationalによるものなどの反射マーカー球のような特定の波長範囲に光の反射を制限する、拡散要素および/または反射要素などの視界阻害物(a field of view inhibitor)であり得る。また別の例では、マーカー64は、無線周波数識別タグ、または対応する検出機構を含むように構成された画像捕捉デバイス66によって検出可能な波を発することができる他のタグであり得る。
ロボットアーム12は、コントローラ30に接続された電気駆動装置(図示せず)によって駆動され得る。一実施形態によれば、コントローラ30は、例えば、コンピュータプログラムを介して、ロボットアーム12、ならびにロボットアーム12に対応する手術用アセンブリ14、手術器具ホルダ16、および/または手術器具20a、20bがコンソール40を通して受容される所望の動きを実行するように、駆動装置を作動させるように構成されている。コントローラ30はまた、ロボットアーム12および/または駆動装置の動きを調節するように構成され得る。
コントローラ30は、複数のモータ32を制御することができ、各モータは、手術器具20に連結されたケーブル(図示せず)などの1つ以上のケーブルの押し込みまたは引っ張りを駆動するように構成されている。使用中に、これらのケーブルが押し込まれたとき、および/または当該ケーブルが引っ張られたとき、1つ以上のケーブルは、手術器具20a、20bの動作および/または動きをもたらす。コントローラ30は、1つ以上の手術器具20の動作および/または動きを調整するために、さまざまなモータ32の作動を調整して、1つ以上のケーブルの押し込み運動または引っ張り運動を調整する。一実施形態では、各モータ32は、1つ以上のケーブルに加えて、またはその代わりに、駆動ロッドまたはレバーアームを作動させて、手術器具20a、20bの動作および/または動きをもたらすように構成されている。
コントローラ30は、命令のセットに従って計算を実施し、かつ/または動作するように適合された任意の好適な論理制御回路を含む。コントローラ30は、無線接続(例えば、Wi-Fi、Bluetooth(登録商標)、LTEなど)および/または有線接続のいずれかを介して遠隔システム(図示せず)と通信するように構成され得る。遠隔システムは、コンソール40のさまざまな構成要素、アルゴリズム、および/または動作に関するデータ、命令、および/または情報を含み得る。遠隔システムは、任意の好適な電子サービス、データベース、プラットフォーム、クラウド、またはそのようなものを含み得る。コントローラ30は、メモリ34に動作可能に接続された中央処理ユニットを含み得る。メモリは、一時的タイプのメモリ(例えば、RAM)および/または非一時的タイプのメモリ(例えば、フラッシュ媒体、ディスク媒体など)を含み得る。いくつかの実施形態では、メモリは、遠隔システムの一部であり、かつ/または遠隔システムに動作可能に連結されている。
コントローラ30は、ドライバ回路などを介してコンソール40の構成要素とインターフェースするための複数の入力および出力を含み得る。コントローラ30は、入力信号を受信し、かつ/または出力信号を生成して、コンソール40のさまざまな構成要素のうちの1つ以上(例えば、1つ以上のモータおよび/またはディスプレイデバイス44)を制御するように構成され得る。出力信号は、ユーザが事前にプログラムおよび/または入力することができるアルゴリズムの命令を含み得、かつ/または当該命令に基づき得る。コントローラ30は、システム10に遠隔的に連結され得るユーザインターフェース(例えば、コンソール40を動作させるスイッチ、ボタン、タッチ画面など)から複数のユーザ入力を受け入れるように構成され得る。
メモリ34をコントローラ30に直接および/または間接的に連結して、生き物(複数可)および/または解剖学的アトラス(複数可)からの術前データを含む、命令および/またはデータベースを記憶することができる。一実施形態によれば、メモリ34は、各対応する器具に対するマーカー64a~d、64sの場所に関するデータ、ロボットアーム12の各々の所定の点の場所に関するデータ、手術室内の所定の点の場所(手術室の隅の場所、手術室の床の上の所定の点の場所、およびそのようなものなど)に関するデータ、手術台「T」上の所定の点の場所に関するデータ、ならびに/または互いにおよび/もしくは手術室内の場所に対する1つ以上の手術器具20a、20bの場所の判定に有用な他のデータを記憶する。メモリ34は、遠隔システム10の一部であり得、かつ/または遠隔システム10に動作可能に連結され得る。
入力をコントローラ30に提供するために、外科医コンソール40は、さまざまな入力デバイスを含む。一実施形態では、外科医コンソール40は、作動を通じて外科医によって操作されるように構成された入力ハンドル70または入力ペダルを含む。特に、外科医は、外科医自身の手を使用して、入力ハンドル70を把持し、移動させ、入力ハンドル70の動きを、コントローラ30を介して変換して、それによって、対応する動きをロボットアーム12および/または手術器具20a、20bに提供する。外科医は、入力ペダルを踏んで、ロボットアーム12または手術器具20a、20bのさらなる制御を提供するための選択を提供する。
ディスプレイデバイス44は、画像捕捉デバイス66から受信した二次元画像または三次元画像を表示するようにセットアップされている。三次元画像が提供される一実施形態では、ディスプレイデバイス44は、例えば、眼鏡または別の好適な構成として構成されたものなど、ヘッドセット50の形態で提供される特殊な視認レンズの有無にかかわらず、視認するための三次元画像を提供するように構成されている。
ヘッドセット50は、その上に配設されたマーカー64sを含む。一実施形態では、マーカー64sの検出は、ヘッドセット50を着用している外科医の眼がディスプレイデバイス44に向けられていることを指標する。ヘッドセット50上のマーカー64sは、手術用アセンブリ14、手術器具ホルダ16、手術器具20a、20b、および/またはロボットアーム12の遠位端に含まれるものと同様の方法で構成され得る。一実施形態によれば、1つ以上のマーカー64sは、マーカー64sの検出が、外科医の頭部が特定の方法で、例えば、前を向いてディスプレイデバイス44を見る方法で位置決めされていることを指標するように、ヘッドセット50上の特定の場所に配置される。マーカー64を検出するために、外科医コンソール40は、システム動作中に画像捕捉デバイス48を外科医に向けることができるように、ディスプレイデバイス44または別の場所に装着された画像捕捉デバイス48を含む。一実施形態では、画像捕捉デバイス48は、マーカー64の検出のために、バンドパス光学フィルタなどの1つ以上のフィルタ52を含み得る。
図2は、ロボット手術システム10に実装するためのディスプレイシステムの一部の斜視図であり、本明細書のさまざまな実施形態による、ディスプレイデバイス44、ヘッドセット50、光源54、画像捕捉デバイス48、およびオーディオデバイス68の配列例を示す。一実施形態では、ディスプレイデバイス44は、画面70、および画面70の前に配設された1つ以上の層72を含む。画面70は、1つ以上の層72を介して、ある特定のピクセルによって表示される視覚的内容を外科医のある特定の眼に向けるピクセルを含む。特に、1つ以上の層72は、レンチキュラレンズ層を含み得る。例えば、レンチキュラレンズ層は、ピクセルの第1のセットの視覚的内容が外科医の第1の眼によって知覚され、ピクセルの第2のセットが外科医の第2の眼によって知覚されることを許容するのに好適な角度に向けられるように構成された、対応するピクセル行の上に配設された複数の垂直レンズを含む。
光源54は、光を提供するように構成され、(図1に例示されるように)ディスプレイデバイス44の縁に沿って装着され得るか、またはディスプレイデバイス44に隣接して、ディスプレイデバイス44の上方、もしくはディスプレイデバイス44の下方に位置決めされ得る。光源54は、ヘッドセット50上の所定の場所に含まれ得るマーカー64sによって反射される可視および/または不可視スペクトル(紫外線、赤外線、またはそのようなものなど)で光を提供し得る。マーカー64sは、画像捕捉デバイス48による検出のために、一実施形態による、所定の角度範囲内の角度で視認したときに、反射光の視認性を許容するための機構を含む光学要素であり得る。一実施形態では、ディスプレイシステムは、マーカー64sが検出されない場合に、通知が、例えば、オーディオデバイス68によって聴覚的に、ディスプレイデバイス44を介して触覚的または視覚的に提供されるように構成されている。
図3に例示されるように、マーカー64sは、反射要素300および拡散要素302から構成されている。反射要素300は、ミラーを含むことができ、拡散要素302は、反射要素300によって反射される光を制限することによって、画像捕捉デバイス48によるマーカー64sの視認性を限定することを許容するように、矩形断面形状を有する管状要素であり得る。具体的には、反射光の進行は、水平方向に第1の角度βによって制限され、垂直方向に第2の角度αによって制限され得る。矩形断面形状を有するように描写されているが、管状要素は、異なる断面形状を有し得る。別の実施形態では、図4に例示されるように、マーカー64sは、反射要素400、および矩形断面形状を有する複数の管状要素を含む拡散要素402を含む。管状要素は、実質的に互いに同一であり、同じ方向に延在し、反射要素400によって反射される光を限定するように協働して、マーカー64sが画像捕捉デバイス48によって検出されることを可能にする。
別の実施形態に従って、マーカー64sは、例えば、図5に描写されるような所定の角度範囲内の角度で視認したときに、反射光の視認性を許容するための機構を含む光学要素であり得る。ここでは、マーカー64sは、反射要素500および拡散要素502を有し、ここで、拡散要素502は、マーカー64sの視認を所定の角度範囲に限定するように構成された、透明度を有するフィルムの形態である。一実施形態では、拡散要素502は、反射要素500に対してある範囲(例えば、反射要素500に対して実質的に直角な角度を含む視野角の範囲)内に向けられた光が反射し、かつそれによって、画像捕捉デバイス48に対して可視になることを可能にするように構成されている。視野角の範囲外の角度で拡散要素502に向けられた光は、反射要素500によって反射されず、ひいては、画像捕捉デバイス48に対して可視ではない。
別の実施形態では、図6に描写されるように、マーカー64sは、波長の特定の範囲内(例えば、可視または不可視)の光を反射するように構成されている。かかる実施形態では、画像捕捉デバイス48は、マーカー64sの波長の特定の範囲に対応するように選択されたバンドパス光学フィルタ52を含む。したがって、画像捕捉デバイス48は、マーカー64sから反射された光の波長がバンドパス光学フィルタ52を通過するときにマーカー64sを検出し、それによって、画像捕捉デバイス48がマーカー64sを視認することを許容する。この実施形態では、マーカー64sは、一対の眼鏡の形態でヘッドセット50上に配設されているものとして例示される。マーカー64sは、代替的に、ヘッドバンドもしくは他のウェアラブルなものの上に含まれ得るか、またはユーザの顔もしくは頭部のさまざまな場所に配置されるステッカであり得ることが理解されよう。
図7は、図1のロボット手術システム10の簡略ブロック図である。ロボット手術システム10は、コントローラ720、タワー730、およびコンソール740を含む。コントローラ720は、コンソール740から受信した入力に応答して、タワー730と通信して、それによって、動作の命令を提供するように構成されている。
コントローラ720は、概して、処理ユニット722、メモリ724、タワーインターフェース726、およびコンソールインターフェース728を含む。処理ユニット722は、特に、メモリ724に記憶されたコンピュータプログラムによって、タワー730の構成要素に、コンソール740の入力デバイス742によって定義された動きに従って所望の動きを実行させるように機能する。これに関して、処理ユニット722は、命令のセットに従って計算を実施し、かつ/または動作するように適合された任意の好適な論理制御回路を含む。処理ユニット722は、マイクロプロセッサタイプの処理デバイス、またはメモリ724および/または処理データに記憶された命令を実行することができる他の物理的デバイスなどの1つ以上の処理デバイスを含み得る。メモリ724は、一時的タイプのメモリ(例えば、RAM)および/または非一時的タイプのメモリ(例えば、フラッシュ媒体、ディスク媒体など)を含み得る。タワーインターフェース726およびコンソールインターフェース728は、無線(例えば、Wi-Fi、Bluetooth(登録商標)、LTEなど)でおよび/または有線構成を介してのいずれかで、それぞれタワー730およびコンソール740と通信する。別々のモジュールとして描写されているが、インターフェース732、734は、他の実施形態では単一の構成要素であり得る。
タワー730は、モータ機構734を操作して、それによって、ロボットアーム736a~736dを移動させるために、タワーインターフェース726からの通信および/またはデータを受信するように構成された通信インターフェース732を含む。一実施形態に従って、モータ機構734は、処理ユニット722からの命令に応答して、ロボットアーム736a~736dに取り付けられたケーブル(図示せず)の機械的操作のための電流の印加を受信して、ロボットアーム736a~736dのうちの選択された1つおよび/またはロボットアーム736a~736dのうちの1つに連結された器具の所望の動きを引き起こすように構成されている。タワー730はまた、リアルタイム画像を捕捉し、その画像を表現するデータを、通信インターフェース732を介してコントローラ730に伝送する、画像捕捉デバイス738を含む。
外科医がタワー730のデバイスを操作するのを支援するために、コンソール740は、入力デバイス742、ディスプレイ746、コンピュータ748、およびカメラ750を有する。入力デバイス742は、コンピュータ748に連結され、入力を提供するために臨床医によって使用される。これに関して、入力デバイス742は、ハンドルもしくはペダル、またはキーボード、ジョイスティック、マウス、ボタン、トラックボール、もしくは他の構成要素などの他のコンピュータアクセサリであり得る。コンピュータ748は、処理ユニットと、タワー730のさまざまな構成要素、アルゴリズム、および/または動作に関するデータ、命令、および/または情報を含むメモリと、を含み、任意の好適な電子サービス、データベース、プラットフォーム、クラウド、またはそのようなものを使用して動作し得る。ディスプレイ746は、コンピュータ748からの命令を受信して、画像捕捉デバイス738および/または通信インターフェース732から受信した情報を表示する。カメラ750は、コンソール740で外科医の画像を捕捉する。
上記で簡単に説明したマーカー64は、さまざまな位置決め機構および安全機構を実装するのに有用である。一例では、手術中、システム10がディスプレイデバイス44に対する外科医の位置決めを認識することが有利である場合がある。ここで図8に移り、一実施形態による、ロボット手術システム10のディスプレイデバイス44に対する外科医の位置決めを判定するための方法800のフロー図を提供する。方法800は、メモリ724(図7)に記憶された命令を実行する処理ユニット722によって、少なくとも部分的に実装され得る。さらに、図8の方法800に示されるステップの特定の順序を限定ではなく例として提供する。方法800のステップは、本開示の範囲から逸脱することなく、図8に示される順序以外の順序で実行され得る。さらに、図8の方法800に示されるいくつかのステップは、逐次的に実行される代わりに、並行して実行されてもよい。
図8を参照すると、光源54からの光は、ステップ802でマーカー64sの方へ向けられる。上で述べたように、マーカー64sは、外科医の頭部または顔の上に、例えば、ヘッドセット50上に配設される。したがって、外科医の頭部または顔の位置決めに応じて、マーカー64sは、光源54からの光を反射しても、しなくてもよい。例えば、一実施形態では、複数のマーカー64sは、マーカー64sのすべての検出が、外科医の眼がディスプレイデバイス44に向けられていることを指標するように、特定の場所でヘッドセット50上に含まれる。別の実施形態では、マーカー64s(複数可)は、ヘッドセット50を少なくとも部分的に被覆して、特定の形状を形成し、特定の形状の検出は、外科医の眼がディスプレイデバイス44に向けられていることを指標する。
いずれにせよ、1つ以上のマーカー64sが検出されたかどうかを判定するために、画像捕捉デバイス48は、ステップ804で外科医の画像を捕捉する。ステップ804からの画像に基づいて、特定の場所に配設された複数のマーカー64sであろうと、特定の形状を形成する1つ以上のマーカー64sであろうと、マーカー64sのすべてがステップ806で検出されるかどうかに関して判定が行われる。マーカー64sが検出される場合、方法800は、ステップ804を反復して、画像捕捉デバイス48を使用して外科医の追加の画像を捕捉する。マーカー64sのすべてが検出されない場合、ステップ808でシステム10によって、外科医の眼がディスプレイデバイス44に向けられていないことを指標する通知が提供される。例えば、システム10は、オーディオデバイス68を介した可聴通知、触覚的通知、および/または視覚的通知を提供することができる。一実施形態に従って、通知を提供することに加えて、システム10は、入力ハンドル70、またはペダルなどの他の入力デバイス(含まれる場合)で入力が受信されるのを防止する。
別の例では、手術中、臨床医が各ロボットアーム12および/または手術器具20a、20bがどこに位置するかを認識することが有利である場合がある。これに関して、システム10は、捕捉された画像データ内のマーカー64の位置を検出するために、捕捉された画像データを使用して、それによって、ロボットアーム12および/または手術器具20a、20bの位置を判定する。ここで図9に移り、一実施形態による、ロボット手術システム10に含まれる構成要素の位置を判定するための方法900のフロー図を提供する。方法900は、メモリ724(図7)に記憶された命令を実行する処理ユニット722によって、少なくとも部分的に実装され得る。さらに、図9の方法900に示されるステップの特定の順序を限定ではなく例として提供する。方法900のステップは、本開示の範囲から逸脱することなく、図9に示される順序以外の順序で実行され得る。さらに、図9の方法900に示されるいくつかのステップは、逐次的に実行される代わりに、並行して実行されてもよい。
システム10の較正中および/または手術手技全体にわたって、画像は、ステップ902で視界内の画像捕捉デバイス66によって捕捉される。画像捕捉デバイス66が内視鏡である一実施形態では、画像捕捉デバイス66によって受信された画像は、手術部位「S」を描写する。手術部位「S」は、患者の体内、切開部位、および/または患者の体の上にあってもよい。別の実施形態では、画像捕捉デバイス66は、患者の体の上または手術室内のある場所に配設されたカメラであり、画像捕捉デバイス66によって捕捉された画像は、患者の空中像または手術室の全体像である。個々のデバイス66の特定のレンズ構成により、画像捕捉デバイス66の視界が限定される場合があることが理解されよう。いずれにせよ、捕捉された画像は、ディスプレイデバイス44に伝送されて表示され、これは、臨床医が画像捕捉デバイス66の視界を認識することを許容する。
ステップ904で、器具20a上のマーカー64aが捕捉された画像内で検出されるかどうかに関して判定が行われる。器具20a上のマーカー64aは、互いに所定の距離だけ離間している2つ以上のマーカーのセットとして含まれる。各セット内の各マーカーの配置は、同じセット内の他のマーカー(複数可)に対して既知である。二次元画像から器具の場所を判定するために、マーカーのセットには少なくとも2つのマーカーが含まれる。三次元画像から器具20aの場所を判定するために、マーカー64aのセットには少なくとも3つのマーカーが含まれる。マーカーのセット内のマーカーの特定の数に関係なく、画像は、画像内のマーカー64aのセットの存在を検出するために、例えば、好適なデジタル処理アルゴリズムを使用して処理される。画像捕捉デバイス66は、ズームアウトして、視界を増加させることができ、方法300は、ステップ902で反復して、画像捕捉デバイス66が追加の画像を捕捉することを許容する。
別の実施形態では、視野外器具20aの意図しない操作を防止するために、ステップ904で画像捕捉デバイス66の視界内でマーカーが検出されないか、またはマーカー64aのセットのうちの1つのマーカー64のみが検出される場合、ステップ920で、マーカー64aのいずれも検出されないかどうかに関して判定が行われる。そうである場合、システム10は、器具20aが視野外器具であると判定し、視野外器具20aは、ステップ922で無効になる。具体的には、視野外器具を制御する能力が無効になる。次いで、方法900は、ステップ902で反復して、追加の画像を捕捉する。ステップ920で、器具20a上のマーカー64aのいずれかが検出される場合、対応する器具20aは、ステップ924で有効のままであるか、または再び有効になる。器具20aは、マーカーが画像捕捉デバイス66の視界内に戻されると、再び有効になる。いずれの場合でも、方法900は、ステップ906に進む。
器具20a上のマーカー64aの場所は、ステップ906で、捕捉された画像内の検出されたマーカーのセットから判定される。一実施形態によれば、マーカー64aの場所は、器具20a上のセット内のマーカー64aの各々の既知の配置に基づいて計算される。マーカーの場所は、空間内のxyz座標によって、ベクトルとして、または他の好適な空間的な場所の表現として表現され得る。
ステップ908では、器具20の位置が、捕捉された画像内の器具20a上のマーカー64aの場所、および器具20aに対応するロボットアーム12上の1つ以上の所定の点に基づいて計算される。器具20aに対応するロボットアーム12上の1つ以上の所定の点は、ロボットアーム12の対応する連動装置のうちの1つおよび/または基部18上の空間内の座標またはそのようなものによって表現される特定の場所など、ロボットアーム12上の任意の場所から選択され得ることが理解されよう。一実施形態では、ロボットアーム12上の所定の点は、ロボットアーム12上に配置されたマーカー64aである。次いで、器具20aに対応するロボットアーム12上の所定の点、および器具20a上のセット内のマーカー64aの各々の場所を使用して、器具20aの位置を三角測量および計算する。特に、二次元画像では、器具20a上の2つのマーカー64aは三角形の2つの点として役に立ち、ロボットアーム12上の所定の点は三角形の1つの点として役に立つので、対応するロボットアーム12上の所定の点に対する器具20aの正確な位置を判定するために、三角形の3つの点により計算を行うことができる。別の例では、ロボットアーム12の基部の位置を識別するために、ロボットアーム12および器具20aの対象となる点(複数可)の場所(複数可)を使用する計算。任意の所与の時間における器具20aおよび/またはロボットアーム12の基部の位置のうちの1つ以上を、後で使用するためにメモリ34に記憶することができる。例えば、器具20aおよび/またはロボットアーム12の基部の記憶された位置を、後の手術のためのロボットアーム12の最適な位置決めを判定する際に使用することができる。
一対のカメラ(例えば、ステレオカメラ)であって、それらから作成される2つの画像間の既知の分離および既知の角度を有する、一対のカメラが使用され得ることが企図される。このようにして、より少ない点から3D構築を行うことができ、かつ/またはより正確な/信頼性の高い位置検知を達成することができる。さらに、かかる配列は、Rカメラでは見えないかもしれないが、Lカメラでは見えるかもしれないマーカーを視覚化するのを助ける。
ロボットアーム12および/または器具20aの位置を追跡するために、システム10の動作の過程でステップ902~908が繰り返され得ることが理解されよう。一実施形態では、ステップ902~908を繰り返すことにより、マーカー64の場所、ひいては、アーム12および/または器具20aの場所の連続的な更新が可能になる。一実施形態では、フィルタリングまたは予測アルゴリズムを用いてマーカーを追跡して、モーショントラッキングを強化し、マーカーの一時的な閉塞に適応することができる。
別の器具20b(以下「第2の器具」とも称される)の位置に対する器具20a(以下「第1の器具」とも称される)の位置を判定するために、ステップ910で、第2の器具20bの位置は、第1の器具20aの位置と比較される。一実施形態では、第2の器具20bの位置を含むデータは、メモリ34に記憶され、第1の器具20aの位置と比較される。
別の実施形態では、第2の器具20bの位置はまだ判定されていない。かかる事例では、画像捕捉デバイス66によって捕捉された画像を使用して、第2の器具20bの位置を判定する。例えば、第2の器具20b上のマーカー64bのセットは、ステップ902で捕捉された画像からなど、捕捉された画像から検出される。例えば、両方の器具20a、20bは、同じ画像捕捉デバイス66によって捕捉され、第2の器具20b上のマーカー64bのセットは、ステップ904で、第1の器具20a上のマーカー64aのセットを検出するために使用される画像から検出される。次いで、方法900は、ステップ906に進み、ここで、第2の器具20b上のマーカー64bの場所が、捕捉された画像内のマーカー64bの検出されたセットから判定される。任意選択で、ステップ920および922も実施される。次に、ステップ908では、第2の器具20bの位置が、捕捉された画像内の第2の器具20b上のマーカー64bの場所、および第2の器具20bに対応するロボットアーム12上の1つ以上の所定の点に基づいて計算される。次いで、第2の器具20bの計算された位置を第1の器具20aの計算された位置と比較して、それによって、第2の器具20bの場所に対する第1の器具20aの場所を判定する。
一実施形態によれば、第1および第2の器具20a、20bの計算された位置は、手術手技中に改善された遠近感を臨床医に提供するのに有用である。これに関して、第2の器具20bに対する第1の器具20aの位置がステップ912で指標される。例えば、画像捕捉デバイス66が手術部位「S」の画像を捕捉し、第1の器具20aのみが画像捕捉デバイス66の視界内にある場合、矢印などのインジケータを、第2の器具20bが第1の器具20aに対して位置する方向を指すように、ディスプレイデバイス44上の画像内に表示することができる。別の例では、2つの器具20a、20bが同時に使用されているが、第2の器具20bなど、1つの器具が画像捕捉デバイス66の視界の外に移動される場合、インジケータは、第2の器具20bが移動された方向を指して表示され得る。別の実施形態では、インジケータは、カメラ48の視界を増加させるように、外科医に命令するメッセージであり得る。さらに別の実施形態では、表示されるメッセージは、第2の器具20bがカメラの視界外にある距離を含む。別の実施形態では、インジケータは、入力ハンドル70を介して臨床医に伝達される触覚的指標、またはスピーカ(図示せず)を介して臨床医に伝達される可聴指標である。このようにして、臨床医が第1の器具20aの使用と同時にまたは使用の後に第2の器具20bの使用を開始したい場合、臨床医は、その係合前に第2の器具20bの位置を認識する。
外科医に向きを提供することに加えて、第1および第2の器具20a、20bの計算された位置は、ステップ914で、手術室内の第1および第2の器具20a、20bの位置を示すマップを生成するのに有用である。一例では、手術室の床、壁、および/または隅の場所などの手術室内の固定された場所は、メモリ34内に記憶され、手術室のマップを生成するために使用される。第1および第2の器具20a、20bの位置、ならびにいくつかの実施形態では、既知の場合、器具20a、20bが連結されているロボットアーム12の対応する基部18の位置、および/または手術台「T」の場所は、手術室の生成されたマップにプロットされる。次いで、手術室のマップが表示されて、臨床医にロボット手術システムの構成要素の位置の概要が提供され、これは、コンソール40が手術室の視認範囲の外側に位置する場合にとりわけ有用であり得る。さらに、器具20a、20bおよび/または以前の手術手技からメモリ34に記憶されたロボットアーム12の基部18の位置は、生成されたマップ上に指標することができ、かつ/または後の手術のための手術室内のロボットアーム12の最適な位置決めを判定する際に有用であり得る。
マーカー64を使用する別の例では、ロボットアーム12の追加制御を提供するために、システム10は、外科医の眼がディスプレイデバイス44に向けられているかどうかを判定するために、外科医が着用するヘッドセット50上の1つ以上のマーカーを使用することによって、意図しない動きをさらに防止するように構成されている。これに関して、システム10は、カメラ48を介して、(上部に1つ以上のマーカー64が配設されている)ヘッドセット50を含む画像データを捕捉し、捕捉された画像データ内のマーカー64を検出するように構成されている。ここで図10に移り、一実施形態による、ディスプレイデバイス44に対する外科医の頭部の位置を判定する方法1000のフロー図を提供する。方法1000は、メモリ724(図7)に記憶された命令を実行する処理ユニット722によって、少なくとも部分的に実装され得る。さらに、図10の方法1000に示されるステップの特定の順序を限定ではなく例として提供する。方法1000のステップは、本開示の範囲から逸脱することなく、図10に示される順序以外の順序で実行され得る。さらに、図10の方法1000に示されるいくつかのステップは、逐次的に実行される代わりに、並行して実行されてもよい。
一実施形態では、外科医の画像は、ステップ1002でカメラ48によって捕捉される。次いで、ステップ1004で、捕捉された画像内でマーカー64のうちの1つ以上が検出されるかどうかに関して判定が行われる。一実施形態では、カメラ48は、マーカー(複数可)64がカメラ48の視界内にあり、カメラ48に対して特定の角度または場所に位置決めされているかどうかを検出するように構成されている。マーカー64の検出は、上部にマーカー64が配設されているヘッドセット50を着用している外科医の眼がディスプレイデバイス44に向けられていることを指標する。一実施形態では、マーカー64は、拡散材料および/または反射材料を含み、カメラ48は、マーカー64がある特定の角度で提示された場合のみ、マーカー64の視覚的知覚を可能にする、対応するフィルタ52を含む。マーカー64は、光学標的の視認性が壁または仕切りによって制限され、それによって、光学標的が、ある特定の角度で視認された場合のみ、視覚的に知覚されることを許容するタイプのものを含む。別の例では、マーカー64は、中で光が反射される特定の範囲の角度に限定された工学設計された透明フィルムで被覆された前面ミラーから構築されている。別の例では、マーカー64は、ニュージャージー州ニュートンのThorLabsによって販売されているものなどの、マーカー64の視認性を水平面および/または垂直面内の特定の角度に限定する工学設計されたディフューザで被覆された反射材料を含む。したがって、外科医が着用するヘッドセット50が、マーカー64から反射され、カメラ48のフィルタ52を通してフィルタされた光がカメラ48に対して可視であることを許容する角度で傾けられると、マーカー64が検出される。そうでなければ、マーカー64は検出されない。
ヘッドセット50上のマーカー(複数可)64が検出されないという判定がなされた場合、システム10は、ステップ1006で、ロボットアーム12および器具20a、20bの動きを無効にする。一例では、入力ハンドル70から受信した入力は、ロボットアーム12または器具20a、20bに通信されない。このようにして、外科医がディスプレイデバイス44を見ていないときに、システム10は、患者「P」に影響を与える可能性のある動作を可能にすることを防止する。任意選択で、ステップ408において、外科医が自身の頭部を再び位置決めして、ロボットアーム12および/または器具20a、20bの機能を再び有効にするべきであることを指標するために、通知がディスプレイデバイス44上に、聴覚的に、または触覚的に、のいずれかで提供される。マーカー64がカメラ48の視界内で検出されないという判定がなされた場合、システム10は、ロボットアーム12および器具20a、20bの動作を通常どおり許容し、ステップ1002で反復させて、追加の画像を捕捉する。
一実施形態に従って、ロボットアーム12および/または器具20a、20bの動きの無効化および有効化は、マーカー64のうちの1つが検出されるかどうかに依存する。別の実施形態では、ロボットアーム12および/または器具20a、20bの動きの無効化および有効化は、ヘッドセット50上のマーカー64のセットに含まれるマーカー64のすべてが検出されるかどうかに依存する。
本明細書に記載されるシステムはまた、1つ以上のコントローラを利用して、さまざまな情報を受信し、受信した情報を変換して、出力を生成することができる。コントローラは、メモリに記憶された一連の命令を実行することができる任意のタイプのコンピューティングデバイス、計算回路、または任意のタイプのプロセッサもしくは処理回路を含むことができる。コントローラは、複数のプロセッサおよび/またはマルチコア中央処理ユニット(CPU)を含むことができ、マイクロプロセッサ、デジタル信号プロセッサ、マイクロコントローラ、またはそのようなものなどの任意のタイプのプロセッサを含むことができる。コントローラはまた、一連の命令を実施するためのデータおよび/またはアルゴリズムを記憶するメモリを含むことができる。
本明細書に記載される方法、プログラム、アルゴリズム、またはコードのいずれかを、プログラミング言語もしくはコンピュータプログラムに変換することができるか、またはプログラミング言語もしくはコンピュータプログラムで表すことができる。「プログラミング言語」および「コンピュータプログラム」には、コンピュータへの命令を指定するために使用される任意の言語が含まれ、これらの言語とそれらの派生物(アセンブラー、ベーシック(Basic)、バッチファイル、BCPL、C、C+、C++、Delphi、フォートラン(Fortran)、ジャバ(Java(登録商標))、ジャバスクリプト(JavaScript(登録商標))、マシンコード、オペレーティングシステムコマンド言語、Pascal、Perl、PL1、スクリプト言語、Visual Basic、プログラム自体を指定するメタ言語、ならびにすべての第1、第2、第3、第4、および第5世代のコンピュータ言語)が含まれる(が限定はされない)。また、データベースおよびその他のデータスキーマ、ならびに任意の他のメタ言語も含まれる。解釈される言語、コンパイルされる言語、またはコンパイルされるアプローチおよび解釈されるアプローチの両方を使用する言語の間で区別は行われない。プログラムのコンパイルされたバージョンとソースバージョンとの間でも区別は行われない。したがって、プログラミング言語が2つ以上の状態(ソース状態、コンパイルされた状態、オブジェクト状態、またはリンクされた状態)で存在する可能性があるプログラムへの参照は、かかる状態のいずれか、およびかかる状態のすべてへの参照である。プログラムへの参照は、実際の命令および/またはそれらの命令の意図を包含し得る。
本明細書に記載される方法、プログラム、アルゴリズム、またはコードのいずれも、1つ以上の機械可読媒体またはメモリに含まれ得る。「メモリ」という用語は、プロセッサ、コンピュータ、またはデジタル処理デバイスなどの機械によって読み取り可能な形態で情報を提供(例えば、記憶および/または伝送)する機構を含み得る。例えば、メモリとしては、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスクストレージ媒体、光学ストレージ媒体、フラッシュメモリデバイス、またはその他の揮発性もしくは不揮発性のメモリストレージデバイスを挙げることができる。コードまたはコードに含まれる命令は、搬送波信号、赤外線信号、デジタル信号、および他の同様の信号によって表現され得る。
本開示のいくつかの実施形態が図面に示されているが、本開示は当該技術分野が許容する広い範囲として捉えられるべきであり、本明細書も同様に読み取られるべきと考えられるので、本開示はこれらの実施形態に限定されるものではないことが意図される。上記の実施形態の任意の組み合わせもまた想定され、これらは、添付の特許請求の範囲内である。したがって、上記の説明は、限定として解釈されるべきではなく、特定の実施形態の単なる例示として解釈されるべきである。当業者は、本明細書に添付される特許請求の範囲の範囲内での他の修正を想定するであろう。

Claims (48)

  1. 1つ以上の手術器具の位置を追跡するためのシステムを動作させる方法であって、前記システムは、カメラとコントローラと画像プロセッサとを含み、前記方法は、
    前記画像プロセッサが、前記カメラの視界内の第1の手術器具の遠位端に配置されている複数のマーカーを検出することと、
    前記画像プロセッサが、前記カメラの前記視界内で外科医のヘッドセット上に配置されている複数のマーカーを検出することと、
    前記コントローラが、前記カメラの前記視界内で検出された前記第1の手術器具の前記遠位端に配置されている前記複数のマーカーの場所に基づいて、前記第1の手術器具の位置を計算することと、
    前記コントローラが、第2の手術器具に対する前記第1の手術器具の位置を決定することと、
    前記外科医の前記ヘッドセット上に配置されている前記複数のマーカーのうちの少なくとも1つが前記カメラの前記視界の外側にあるとき、前記コントローラが、前記第1の手術器具を制御する能力を無効にすることと
    を含む、方法。
  2. 前記第1の手術器具は、前記第1の手術器具の位置を計算するために使用される所定の点を有するロボットアームに結合されている、請求項1に記載の方法。
  3. 前記第1の手術器具の位置を計算することは、前記ロボットアームの前記所定の点の位置を計算することにより、前記ロボットアームの基部の位置を識別することを含む、請求項2に記載の方法。
  4. 前記方法は、前記コントローラが、前記第1の手術器具の前記遠位端に配置されている前記検出された複数のマーカーの前記場所を連続的に更新することによって、前記第1の手術器具の位置を追跡することをさらに含む、請求項1に記載の方法。
  5. 前記第1の手術器具の位置を計算することは、前記第1の手術器具の前記遠位端に配置されている前記検出された複数のマーカーの前記場所に基づいて、前記第1の手術器具の三次元位置を三角測量することを含む、請求項1に記載の方法。
  6. 前記方法は、前記コントローラが、前記コントローラに結合されているメモリ内に前記第1の手術器具の位置を記憶することをさらに含む、請求項1に記載の方法。
  7. 前記方法は、前記コントローラが、前記第1の手術器具が前記カメラの前記視界の外側にあるとき、前記第1の手術器具の位置を識別するインジケータをディスプレイ上に表示することをさらに含む、請求項6に記載の方法。
  8. 前記方法は、前記コントローラが、前記第1の手術器具の前記遠位端に配置されている前記複数のマーカーを前記カメラの前記視界内に含めるように、前記カメラの前記視界を増加させることをさらに含む、請求項6に記載の方法。
  9. 前記方法は、前記コントローラが、前記第1の手術器具が前記カメラの前記視界内にもはや存在しないという警告を表示することをさらに含む、請求項6に記載の方法。
  10. 警告を表示することは、メッセージを用いてユーザを促すことを含む、請求項9に記載の方法。
  11. 前記方法は、前記コントローラが、手術室内の前記第1の手術器具の最適な位置を決定することをさらに含む、請求項6に記載の方法。
  12. 前記方法は、前記コントローラが、前記手術室内の前記第1の手術器具の位置を示すマップを生成することをさらに含む、請求項11に記載の方法。
  13. 前記マップを生成することは、手術台と前記第1の手術器具との相対位置を示すマップを生成することを含む、請求項12に記載の方法。
  14. 前記方法は、前記コントローラが、前記第1の手術器具の前記遠位端に配置されている前記検出された複数のマーカーが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にすることをさらに含む、請求項6に記載の方法。
  15. 前記方法は、前記コントローラが、前記第1の手術器具が前記カメラの前記視界から離れている距離を計算することをさらに含む、請求項6に記載の方法。
  16. 前記方法は、前記コントローラが、前記計算された距離をディスプレイデバイス上に表示することをさらに含む、請求項15に記載の方法。
  17. 1つ以上の手術器具の位置を追跡するように構成されているロボット手術システムであって、
    外科医が着用するヘッドセットと、
    第1の手術器具に結合されているロボットアームと、
    手術部位の画像を取得するように構成されているカメラと、
    前記カメラから取得された前記手術部位の前記画像を表示するように構成されているディスプレイと、
    前記カメラの視界内で前記第1の手術器具上に配置されている複数のマーカーを検出するように構成されている画像プロセッサであって、前記画像プロセッサは、前記カメラの前記視界内で前記外科医の前記ヘッドセット上に配置されている複数のマーカーを検出するように構成されている、画像プロセッサと、
    コントローラであって、
    前記カメラの前記視界内の前記複数のマーカーの場所に基づいて前記第1の手術器具の位置を計算し、第2の手術器具に対する前記第1の手術器具の位置を決定することと、
    前記外科医の前記ヘッドセット上に配置されている前記複数のマーカーのうちの少なくとも1つが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にすることと
    を行うように構成されているコントローラと
    を備える、ロボット手術システム。
  18. 前記ロボットアームは、所定の点を有し、前記コントローラは、前記所定の点に部分的に基づいて前記第1の手術器具の位置を計算するようにさらに構成されている、請求項17に記載のロボット手術システム。
  19. 前記コントローラは、前記ロボットアームの前記所定の点の位置を計算することにより、前記ロボットアームの基部の位置を識別することによって、前記第1の手術器具の位置を計算するようにさらに構成されている、請求項18に記載のロボット手術システム。
  20. 前記コントローラは、前記第1の手術器具上に配置されている前記検出された複数のマーカーの前記場所を連続的に更新することによって、前記第1の手術器具の位置を追跡するようにさらに構成されている、請求項17に記載のロボット手術システム。
  21. 前記コントローラは、前記第1の手術器具上に配置されている前記検出された複数のマーカーの前記場所に基づいて、前記第1の手術器具の三次元位置を三角測量することによって、前記第1の手術器具の位置を計算するようにさらに構成されている、請求項17に記載のロボット手術システム。
  22. 前記ロボット手術システムは、前記コントローラに結合されているメモリをさらに備え、前記メモリは、前記第1の手術器具の位置を記憶する、請求項17に記載のロボット手術システム。
  23. 前記コントローラは、前記第1の手術器具が前記カメラの前記視界の外側にあるときに、前記第1の手術器具の位置を識別するインジケータを表示することを前記ディスプレイに行わせるようにさらに構成されている、請求項22に記載のロボット手術システム。
  24. 前記コントローラは、前記第1の手術器具上に配置されている前記複数のマーカーを
    前記カメラの前記視界内に含めるように、前記カメラの前記視界を増加させるようにさらに構成されている、請求項22に記載のロボット手術システム。
  25. 前記コントローラは、前記第1の手術器具が前記カメラの前記視界内にもはや存在しないという警告を表示することを前記ディスプレイに行わせるようにさらに構成されている、請求項22に記載のロボット手術システム。
  26. 警告を表示することは、メッセージを用いてユーザを促すことを含む、請求項25に記載のロボット手術システム。
  27. 前記コントローラは、手術室内の前記第1の手術器具の最適な位置を決定するようにさらに構成されている、請求項22に記載のロボット手術システム。
  28. 前記コントローラは、前記手術室内の前記第1の手術器具の位置を示すマップを生成するようにさらに構成されている、請求項27に記載のロボット手術システム。
  29. 前記マップは、手術台と前記第1の手術器具との相対位置を示す、請求項28に記載のロボット手術システム。
  30. 前記コントローラは、前記第1の手術器具上に配置されている前記検出された複数のマーカーが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にするようにさらに構成されている、請求項22に記載のロボット手術システム。
  31. 前記コントローラは、前記第1の手術器具が前記カメラの前記視界から離れている距離を計算するようにさらに構成されている、請求項22に記載のロボット手術システム。
  32. 前記コントローラは、前記計算された距離を表示することを前記ディスプレイデバイスに行わせるようにさらに構成されている、請求項31に記載のロボット手術システム。
  33. 非一時的なコンピュータ読み取り可能な媒体であって、前記非一時的なコンピュータ読み取り可能な媒体には、命令が記憶されており、前記命令は、プロセッサによって実行されると、
    カメラの視界内の第1の手術器具上に配置されている複数のマーカーを検出することと、
    前記カメラの前記視界内で外科医のヘッドセット上に配置されている複数のマーカーを検出することと、
    前記カメラの前記視界内の前記第1の手術器具上に配置されている前記複数のマーカーの場所に基づいて、前記第1の手術器具の位置を計算することと、
    第2の手術器具に対する前記第1の手術器具の位置を決定することと、
    前記外科医の前記ヘッドセット上に配置されている前記複数のマーカーのうちの少なくとも1つが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にすることと
    を引き起こす、非一時的なコンピュータ読み取り可能な媒体。
  34. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具が結合されているロボットアーム上の所定の点を使用することによって、前記第1の手術器具の位置を計算することを引き起こす、請求項33に記載の非一時的なコンピュータ読み取り可能な媒体。
  35. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記ロボットアームの前記所定の点の位置を計算することにより、前記ロボットアームの基部の位置を識別することによって、前記第1の手術器具の位置を計算することを引き起こす、請求項34に記載の非一時的なコンピュータ読み取り可能な媒体。
  36. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具上に配置されている前記検出された複数のマーカーの前記場所を連続的に更新することによって、前記第1の手術器具の位置を追跡することを引き起こす、請求項33に記載の非一時的なコンピュータ読み取り可能な媒体。
  37. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具上に配置されている前記検出された複数のマーカーの前記場所に基づいて、前記第1の手術器具の三次元位置を三角測量することによって、前記第1の手術器具の位置を計算することを引き起こす、請求項33に記載の非一時的なコンピュータ読み取り可能な媒体。
  38. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具の位置を記憶することを引き起こす、請求項33に記載の非一時的なコンピュータ読み取り可能な媒体。
  39. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具が前記カメラの前記視界の外側にあるとき、前記第1の手術器具の位置を識別するインジケータをディスプレイ上に表示することを引き起こす、請求項38に記載の非一時的なコンピュータ読み取り可能な媒体。
  40. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具上に配置されている前記複数のマーカーを前記カメラの前記視界内に含めるように、前記カメラの前記視界を増加させることを引き起こす、請求項38に記載の非一時的なコンピュータ読み取り可能な媒体。
  41. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具が前記カメラの前記視界内にもはや存在しないという警告を表示することを引き起こす、請求項38に記載の非一時的なコンピュータ読み取り可能な媒体。
  42. 警告を表示することは、メッセージを用いてユーザを促すことを含む、請求項41に記載の非一時的なコンピュータ読み取り可能な媒体。
  43. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、手術室内の前記第1の手術器具の最適な位置を決定することを引き起こす、請求項38に記載の非一時的なコンピュータ読み取り可能な媒体。
  44. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記手術室内の前記第1の手術器具の位置を示すマップを生成することを引き起こす、請求項43に記載の非一時的なコンピュータ読み取り可能な媒体。
  45. 前記マップを生成することは、手術台と前記第1の手術器具との相対位置を示すマップを生成することを含む、請求項44に記載の非一時的なコンピュータ読み取り可能な媒体。
  46. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具上に配置されている前記検出された複数のマーカーが前記カメラの前記視界の外側にあるとき、前記第1の手術器具を制御する能力を無効にすることを引き起こす、請求項38に記載の非一時的なコンピュータ読み取り可能な媒体。
  47. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記第1の手術器具が前記カメラの前記視界から離れている距離を計算することを引き起こす、請求項38に記載の非一時的なコンピュータ読み取り可能な媒体。
  48. 非一時的なコンピュータ読み取り可能な媒体は、命令をさらに含み、前記命令は、プロセッサによって実行されると、前記計算された距離をディスプレイデバイスに表示することを引き起こす、請求項47に記載の非一時的なコンピュータ読み取り可能な媒体。
JP2019564889A 2017-05-25 2018-05-07 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法 Active JP7197511B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022075936A JP2022101696A (ja) 2017-05-25 2022-05-02 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762511022P 2017-05-25 2017-05-25
US62/511,022 2017-05-25
PCT/US2018/031327 WO2018217433A1 (en) 2017-05-25 2018-05-07 Systems and methods for detection of objects within a field of view of an image capture device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022075936A Division JP2022101696A (ja) 2017-05-25 2022-05-02 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2020520752A JP2020520752A (ja) 2020-07-16
JP2020520752A5 JP2020520752A5 (ja) 2021-04-08
JP7197511B2 true JP7197511B2 (ja) 2022-12-27

Family

ID=64395854

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019564889A Active JP7197511B2 (ja) 2017-05-25 2018-05-07 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法
JP2022075936A Withdrawn JP2022101696A (ja) 2017-05-25 2022-05-02 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022075936A Withdrawn JP2022101696A (ja) 2017-05-25 2022-05-02 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法

Country Status (7)

Country Link
US (1) US11918299B2 (ja)
EP (1) EP3629978A4 (ja)
JP (2) JP7197511B2 (ja)
CN (1) CN110650704B (ja)
AU (1) AU2018273693A1 (ja)
CA (1) CA3063693A1 (ja)
WO (1) WO2018217433A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018097831A1 (en) 2016-11-24 2018-05-31 Smith Joshua R Light field capture and rendering for head-mounted displays
US11007018B2 (en) * 2018-06-15 2021-05-18 Mako Surgical Corp. Systems and methods for tracking objects
US11001380B2 (en) * 2019-02-11 2021-05-11 Cnh Industrial Canada, Ltd. Methods for acquiring field condition data
US11059582B2 (en) 2019-02-11 2021-07-13 Cnh Industrial Canada, Ltd. Systems for acquiring field condition data
US20220125500A1 (en) * 2019-03-08 2022-04-28 Covidien Lp Robotic surgery methods
CN113677283A (zh) * 2019-04-12 2021-11-19 柯惠Lp公司 用于基于颜色指示缝线张力的方法和系统
US10758309B1 (en) 2019-07-15 2020-09-01 Digital Surgery Limited Methods and systems for using computer-vision to enhance surgical tool control during surgeries
US10949986B1 (en) 2020-05-12 2021-03-16 Proprio, Inc. Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
CN115120353A (zh) * 2020-12-15 2022-09-30 深圳市精锋医疗科技股份有限公司 手术机器人、计算机可读存储介质及控制装置
CN112587244A (zh) * 2020-12-15 2021-04-02 深圳市精锋医疗科技有限公司 手术机器人及其控制方法、控制装置
CN114652449A (zh) * 2021-01-06 2022-06-24 深圳市精锋医疗科技股份有限公司 手术机器人及其引导手术臂移动的方法、控制装置
CN113349933A (zh) * 2021-07-08 2021-09-07 杭州柳叶刀机器人有限公司 一种机器人系统
US12016642B2 (en) 2021-09-08 2024-06-25 Proprio, Inc. Constellations for tracking instruments, such as surgical instruments, and associated systems and methods
US20230096268A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments
JP2024048960A (ja) * 2022-09-28 2024-04-09 株式会社メディカロイド 遠隔手術支援システムおよび指導医側操作装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060149418A1 (en) 2004-07-23 2006-07-06 Mehran Anvari Multi-purpose robotic operating system and method
US20090088634A1 (en) 2007-09-30 2009-04-02 Intuitive Surgical, Inc. Tool tracking systems and methods for image guided surgery
JP2009542362A (ja) 2006-06-29 2009-12-03 インテュイティブ サージカル インコーポレイテッド コンピュータディスプレイ画面の境界領域に表示されるツール位置および識別指標
JP2010200894A (ja) 2009-03-02 2010-09-16 Tadashi Ukimura 手術支援システム及び手術ロボットシステム
JP2011125687A (ja) 2009-11-20 2011-06-30 National Institute Of Advanced Industrial Science & Technology 標識検定装置
US20160256225A1 (en) 2012-06-21 2016-09-08 Globus Medical, Inc. Surgical robotic automation with tracking markers

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4184749A (en) 1978-06-22 1980-01-22 Mcdonnell Douglas Corporation Wide angle narrow bandpass optical filter system
JP3540362B2 (ja) 1994-06-14 2004-07-07 オリンパス株式会社 手術用マニピュレータの制御システム及びその制御方法
US5649021A (en) * 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control
US6324011B1 (en) 1997-12-11 2001-11-27 Casio Computer Co., Ltd. Reflection plate having directivity and a display apparatus using the same
JPH11174214A (ja) 1997-12-11 1999-07-02 Casio Comput Co Ltd 指向性反射板およびそれを用いた反射型表示装置
US6927694B1 (en) 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US7835498B2 (en) 2005-02-18 2010-11-16 Koninklijke Philips Electronics N. V. Automatic control of a medical device
WO2009040677A2 (en) * 2007-04-16 2009-04-02 The Governors Of The University Of Calgary Methods, devices, and systems useful in registration
ES2774799T3 (es) 2007-08-14 2020-07-22 Koninklijke Philips Nv Sistemas de instrumentos robóticos que utilizan sensores de fibra óptica
US8488243B2 (en) 2008-10-27 2013-07-16 Realid Inc. Head-tracking enhanced stereo glasses
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
KR101181569B1 (ko) * 2010-05-25 2012-09-10 정창욱 단일 통로 수술 모드와 다통로 수술 모드를 실현할 수 있는 수술용 로봇 시스템 및 그 제어 방법
US8830329B2 (en) 2010-10-07 2014-09-09 Sony Computer Entertainment Inc. 3-D glasses with camera based head tracking
US9072523B2 (en) 2010-11-05 2015-07-07 Ethicon Endo-Surgery, Inc. Medical device with feature for sterile acceptance of non-sterile reusable component
KR101284087B1 (ko) * 2011-04-29 2013-07-10 한국과학기술원 시각센서를 이용한 수술용 로봇, 그 수술용 로봇의 위치 및 각도 분석방법, 그 수술용 로봇의 제어방법, 그 수술용 로봇의 위치 및 각도 분석시스템 및 그 수술용 로봇의 제어 시스템
JP5800616B2 (ja) 2011-07-15 2015-10-28 オリンパス株式会社 マニピュレータシステム
US9204939B2 (en) * 2011-08-21 2015-12-08 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery—rule based approach
US9106903B2 (en) 2011-11-18 2015-08-11 Zspace, Inc. Head tracking eyewear system
JP2015528713A (ja) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム
US20150049952A1 (en) 2013-08-14 2015-02-19 Vsp Labs, Inc. Systems and methods of measuring facial characteristics
JP5927366B1 (ja) * 2014-09-24 2016-06-01 オリンパス株式会社 医療システム
US10413373B2 (en) * 2016-08-16 2019-09-17 Ethicon, Llc Robotic visualization and collision avoidance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060149418A1 (en) 2004-07-23 2006-07-06 Mehran Anvari Multi-purpose robotic operating system and method
JP2009542362A (ja) 2006-06-29 2009-12-03 インテュイティブ サージカル インコーポレイテッド コンピュータディスプレイ画面の境界領域に表示されるツール位置および識別指標
US20090088634A1 (en) 2007-09-30 2009-04-02 Intuitive Surgical, Inc. Tool tracking systems and methods for image guided surgery
JP2010200894A (ja) 2009-03-02 2010-09-16 Tadashi Ukimura 手術支援システム及び手術ロボットシステム
JP2011125687A (ja) 2009-11-20 2011-06-30 National Institute Of Advanced Industrial Science & Technology 標識検定装置
US20160256225A1 (en) 2012-06-21 2016-09-08 Globus Medical, Inc. Surgical robotic automation with tracking markers

Also Published As

Publication number Publication date
US11918299B2 (en) 2024-03-05
JP2020520752A (ja) 2020-07-16
US20200170718A1 (en) 2020-06-04
AU2018273693A1 (en) 2019-11-28
CN110650704A (zh) 2020-01-03
CA3063693A1 (en) 2018-11-29
EP3629978A4 (en) 2021-03-03
CN110650704B (zh) 2023-05-26
WO2018217433A1 (en) 2018-11-29
EP3629978A1 (en) 2020-04-08
JP2022101696A (ja) 2022-07-06

Similar Documents

Publication Publication Date Title
JP7197511B2 (ja) 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法
JP7130003B2 (ja) 画像捕捉デバイスの視野内の物体の検出のためのシステムおよび方法
US11638999B2 (en) Synthetic representation of a surgical robot
KR102512876B1 (ko) 입체 뷰어를 위한 눈 시선 추적을 통합하는 의료 디바이스, 시스템, 및 방법
US10064682B2 (en) Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms
KR102117273B1 (ko) 수술 로봇 시스템 및 그 제어 방법
JP2021126519A (ja) 外科手術におけるコンピュータ支援ナビゲーションのための光学器具追跡ボリュームのエクステンデッドリアリティ視覚化
CN111317567A (zh) 胸腔成像、距离测量以及通知系统和方法
EP3867921A1 (en) Augmented reality with medical imaging
US20220071716A1 (en) 3d visualization enhancement for depth perception and collision avoidance
US20230249354A1 (en) Synthetic representation of a surgical robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221215

R150 Certificate of patent or registration of utility model

Ref document number: 7197511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150