JP2020531099A - 手術処置中に関心地点を空間的に場所特定する方法 - Google Patents

手術処置中に関心地点を空間的に場所特定する方法 Download PDF

Info

Publication number
JP2020531099A
JP2020531099A JP2020508616A JP2020508616A JP2020531099A JP 2020531099 A JP2020531099 A JP 2020531099A JP 2020508616 A JP2020508616 A JP 2020508616A JP 2020508616 A JP2020508616 A JP 2020508616A JP 2020531099 A JP2020531099 A JP 2020531099A
Authority
JP
Japan
Prior art keywords
interest
display
surgical site
region
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020508616A
Other languages
English (en)
Other versions
JP2020531099A5 (ja
Inventor
ドワイト メグラン,
ドワイト メグラン,
Original Assignee
コヴィディエン リミテッド パートナーシップ
コヴィディエン リミテッド パートナーシップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コヴィディエン リミテッド パートナーシップ, コヴィディエン リミテッド パートナーシップ filed Critical コヴィディエン リミテッド パートナーシップ
Publication of JP2020531099A publication Critical patent/JP2020531099A/ja
Publication of JP2020531099A5 publication Critical patent/JP2020531099A5/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3784Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument both receiver and transmitter being in the instrument or receiver being also transmitter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Abstract

本開示の一態様では、手術部位を視覚化する方法は、超音波システムによって手術部位を走査することと、第1のタグによって、手術部位の断面視野内の第1の関心領域または関心地点をマークすることと、カメラによって手術部位を視認することと、カメラによって取り込まれた手術部位の画像を第2のディスプレイに示すことと、を含む。第2のディスプレイは、第1のタグを表す第1の指示を、カメラによって取り込まれた手術部位の画像上に表示する。

Description

低侵襲手術(MIS)中に、術中超音波プローブを使用して、手術部位の二次元(2D)断面視野を提供することができる。MIS中に、臨床医は、典型的に、手術用把持ツールによって、またはそれ自体が従属するツールシャフトの一部である超音波プローブによって、超音波プローブを保持する。超音波プローブは、手術部位の2D断面視野画像を超音波ディスプレイ上で見られるように、組織の関心領域と接触して配置され、移動される。超音波ディスプレイは、典型的に、手術部位を直接観察するために使用されている内視鏡から取り込まれた画像を示している内視鏡ディスプレイとは異なる。内視鏡ディスプレイを使用して、超音波プローブの操作を方向付けることができる。
2D断面視野は、手術部位またはその近傍の組織表面の下側の構造の状態に関する情報を明らかにすることができる。典型的に、臨床医は、超音波プローブを操作して、手術部位またはその近傍の構造に心の中で注目する。臨床医が超音波プローブを取り除いて、手術処置を開始または継続した後に、臨床医は、手術部位またはその近傍の構造の場所を記憶していなければならない。手術処置中に、臨床医が2D断面視野を思い出す必要がある場合は、手術処置を中断し、超音波プローブを再起動し、2D断面視野を再度獲得して、臨床医の記憶をリフレッシュする。この手術処置の中断は、手術処置の流れの分断を生じさせることがあり得る。この手術処置の流れの分断は、臨床医が、超音波プローブによって2D断面視野を再度獲得するために、手術処置を中断しないように促し得る。手術処置中に2D断面視野を再度獲得することを中断させないことによって、手術処置中の意思決定の質が低下し得る。
臨床医が、手術処置中に関心地点において、手術処置中に超音波画像を視認することを可能にする必要性が存在する。手術処置中に関心地点を識別することによって、手術の意思決定を改善することができる。
本開示の一態様では、手術部位を視覚化する方法は、超音波システムによって手術部位を走査することと、第1のタグによって、手術部位の断面視野内の第1の関心領域または関心地点をマークすることと、第2のディスプレイ上でカメラによって手術部位を視認することと、を含む。第2のディスプレイは、第1のタグを表す第1の指示を表示する。
態様では、超音波システムによって手術部位を走査することは、超音波プローブを患者の体腔の中へ挿入することを含む。第1のタグを表す第1の指示を表示することは、第1の関心領域または関心地点に関する情報を第2のディスプレイに表示することを含むことができる。本方法は、第1の指示をトグルして、第1の関心領域または関心地点に関する情報を第2のディスプレイに表示することを含むことができる。
いくつかの態様では、第2カメラによって第2のディスプレイ上で手術部位を視認することは、制御ユニットが、第1のカメラによって取り込まれた画像内の第1のタグを場所特定することを含む。カメラによって取り込まれた画像内の第1のタグを場所特定することは、カメラによって取り込まれた複数の画像から、手術部位内の第1のタグの深さを決定することを含むことができる。カメラによって取り込まれた画像内の第1のタグを場所特定することは、カメラからの画像のピクセルベースの識別情報を使用して、カメラによって取り込まれた画像内の第1のタグの場所を決定することを含むことができる。
特定の態様では、本方法は、手術部位の特定の断面視野が第1のディスプレイ上で視認可能なように、第1の表示をフリーズさせることを含む。カメラによって第2のディスプレイの手術部位を視認することは、手術部位の画像を第2のディスプレイに表示する前に、カメラによって取り込まれた手術部位の画像から歪曲を取り除くことを含むことができる。
特定の態様において、本方法は、第2のタグによって、手術部位の断面視野内の第2の関心領域または関心地点をマークすることと、第2のディスプレイ上で第2のタグを表す第2の指示を視認することと、を含む。第2のタグを表す第2の指示を視認することは、第2の関心領域または関心地点に関する情報を第2のディスプレイに表示することを含む。本方法は、第2の指示をトグルして、第2の関心領域または関心地点に関する情報を第2のディスプレイに表示することを含むことができる。本方法はまた、第2の指示をトグルすることから独立して、第1の指示をトグルして、第1の関心領域または関心地点に関する情報を第2のディスプレイに表示することも含むことができる。
本開示の別の態様では、手術システムは、超音波システムと、内視鏡システムと、処理ユニットと、を含む。超音波システムは、超音波プローブと、超音波表示と、を含む。超音波プローブは、手術部位の断面視野を取り込むように構成される。超音波ディスプレイは、超音波プローブによって取り込まれた手術部位の断面視野を表示するように構成される。内視鏡システムは、内視鏡と、内視鏡ディスプレイと、を含む。内視鏡は、手術部位の画像を取り込むように構成されたカメラを有する。内視鏡ディスプレイは、カメラによって取り込まれた手術部位の画像を表示するように構成される。処理ユニットは、手術部位の断面視野内の第1の関心領域または関心地点の場所を受信するように、かつ第1の関心領域または関心地点を表す第1の指示を第2ディスプレイに表示するように構成される。
態様では、超音波ディスプレイは、手術部位の断面視野内の第1の関心領域または関心地点の場所を表すタグを受信するように構成されたタッチスクリーンディスプレイである。処理ユニットは、手術部位の画像を第2のディスプレイに表示する前に、カメラによって取り込まれた手術部位の画像から歪曲を取り除くように構成することができる。処理ユニットは、カメラからの画像のピクセルベースの識別情報を使用して、カメラによって取り込まれた画像内の第1の関心領域または関心地点を場所特定するように構成することができる。
さらに、矛盾しない程度に、本明細書に記載される態様のいずれかは、本明細書に記載される他の態様のいずれかまたは全てと併せて使用されてもよい。
本開示の様々な態様を、本明細書に組み込まれ、その一部を構成する図面を参照して下で説明する。
超音波プローブ、位置場発生器、処理ユニット、超音波ディスプレイ、および内視鏡ディスプレイを含む、本開示による超音波システムの斜視図である。 図1に示される超音波プローブおよび患者の体腔内の内視鏡を例示する、図1に示される詳細領域の切り取り図である。 手術部位の二次元断面画像を例示する、図1の超音波ディスプレイの図である。 手術部位の画像および手術部位内の手術器具の遠位部分を例示する、図1の内視鏡ディスプレイの図である。
ここで本開示の実施形態が図面を参照して詳細に記載され、図面の中で同様の参照番号は、いくつかの図の各々において同一のまたは対応する要素を示す。本明細書に使用される際、「臨床医」という用語は、医師、看護師、または任意の他の医療提供者を指し、医療支援従事者を含み得る。この説明の全体を通して、「近位」という用語は、臨床医に最も近い装置またはその構成要素の一部分を指し、「遠位」という用語は、臨床医から最も遠い装置またはその構成要素の一部分を指す。
以下、図1を参照すると、本開示に従って提供される手術システム1は、超音波撮像システム10と、内視鏡システム30と、を含む。超音波撮像システム10は、処理ユニット11と、超音波ディスプレイ18と、超音波プローブ20と、を含む。
超音波撮像システム10は、患者「P」の体腔内の関心領域の2D断面視野または2D画像スライスを超音波ディスプレイ18に提供するように構成される。臨床医は、下で詳述するように、超音波撮像システム10、およびカメラを含むことができる内視鏡36と相互作用して、手術処置中に、患者「P」の手術部位「S」の表面部分および表面下部分を視覚化することができる。
超音波プローブ20は、患者「P」の体腔の表面から手術部位「S」の2D断面視野を生成するように構成され、および/または手術部位「S」に隣接する体腔内にある開口部、自然の開口部もしくは切れ目のいずれかを通して挿入することができる。処理ユニット11は、手術部位「S」の2D断面視野を受信して、2D断面視野の表示を超音波ディスプレイ18に伝送する。
内視鏡システム30は、制御ユニット31と、内視鏡36と、内視鏡ディスプレイ38と、を含む。図2をさらに参照すると、内視鏡36は、カメラ33と、センサ37と、を含むことができ、これらはそれぞれ、内視鏡36の遠位部分またはその中に配置される。カメラ33は、内視鏡ディスプレイ38に表示される手術部位「S」の画像を取り込むように構成される。制御ユニット31は、カメラ33と通信しており、カメラ33によって取り込まれた画像を内視鏡ディスプレイ38に送信するように構成される。制御ユニット31は、処理ユニット11と通信しており、処理ユニット11と統合することができる。
図1〜4を参照して、手術部位「S」を撮像するための超音波システム10および内視鏡システム30の使用を本開示に従って説明する。最初に、超音波プローブ20を、患者の体腔内またはその外側のいずれかで手術部位「S」に隣接して位置付けて、手術部位「S」の2D断面視野を取り込む。超音波プローブ20を操作して、手術部位「S」の、またはそこに隣接する関心領域または関心地点の2D断面視野を提供する。2D断面視野を獲得するときに超音波プローブ20の位置を手術部位「S」の2D断面視野と関連付けることができるように、超音波プローブ20が内視鏡36のカメラ33の視野内ある間に、手術部位「S」全体が走査されることが認識されるであろう。手術部位「S」を走査している間、処理ユニット11および/または制御ユニット31は、2D断面視野を記録し、各2D断面視野を獲得した時点で、2D断面視野を手術部位「S」内の超音波プローブ20の位置と関連付ける。
内視鏡36が手術部位「S」を視認すると、内視鏡36のカメラ33は、内視鏡ディスプレイ38で視認するための手術部位「S」のリアルタイム画像を取り込む。超音波プローブ20によって手術部位「S」を走査した後に、他の手術器具、例えば把持器または開創器46の形態の手術器具を、同じまたは異なる開口部を通して内視鏡36から挿入して、手術部位「S」にアクセスして、手術部位「S」において手術処置を行うことができる。
下で詳述するように、手術部位「S」の走査中に記録された手術部位「S」の2D断面視野は、手術処置中に臨床医が視認するために利用することができる。カメラ33がリアルタイム画像を取り込むと、画像が内視鏡ディスプレイ38に表示される。臨床医は、手術部位「S」の関心領域または関心地点を選択して、内視鏡ディスプレイ38上でレビューすることができる。内視鏡ディスプレイ38で関心領域または関心地点が選択されると、制御ユニット31は、手術部位「S」内の関心領域または関心地点の位置を決定し、処理ユニット11に信号を送信する。処理ユニット11は、制御ユニット31から信号を受信し、手術部位「S」の走査中に超音波プローブ20が関心領域または関心地点に位置付けられたおよび/または近づいたときに記録された2D断面視野を表示する。記録された2D断面視野は、固定画像とすることができ、または関心領域もしくは関心地点のビデオクリップとすることができる。
記録された2D断面視野が関心領域または関心地点のビデオクリップであるとき、ビデオクリップは、約1秒〜約10秒の長さを有することができる。ビデオクリップの持続時間は、手術処置前またはその間に、臨床医によって予め設定することができ、または選択することができる。ビデオクリップは、連続的に繰り返すようにループされ得ることが想定される。
関心領域または関心地点を内視鏡ディスプレイ38に示すために、臨床医は、内視鏡ディスプレイ38上の画像内の関心領域または関心地点を電子的または視覚的に「マークする」または「タグ付けする」ことができる。内視鏡ディスプレイ38上の画像内の関心領域または関心地点を電子的または視覚的にマークするために、臨床医は、指またはスタイラスによってディスプレイにタッチすること、マウス、トラックパッド、または類似するデバイスを使用して内視鏡ディスプレイ38のインジケータを移動させること、音声認識システムを使用すること、視線追跡システムを使用すること、キーボードでタイプすること、および/またはこれらの組み合わせ、が挙げられるが、これらに限定されない、任意の既知の手段を使用することができる。
手術部位「S」内の関心領域または関心地点の位置を決定するために、制御ユニット31は、カメラ33からのリアルタイム画像を処理する。制御ユニット31は、リアルタイム画像から歪曲を取り除いて、関心領域または関心地点の位置を決定する精度を向上させることができる。制御ユニット31は、カメラ33からのリアルタイム画像のピクセルベースの識別情報を利用して、カメラ33からのリアルタイム画像内の関心領域または関心地点の場所を識別することができることが想定される。追加的または代替的に、関心領域または関心地点の場所は、カメラ33からの複数のリアルタイム画像から推定することができる。具体的には、手術部位「S」の周りの内視鏡36の移動中に取り込まれた複数のカメラ画像を使用して、手術部位「S」内の関心領域または関心地点の深さを推定することができる。
実施形態では、立体内視鏡を使用して、立体内視鏡の深さ撮像能力に基づいて、手術部位「S」内の構造の深さを決定することができる。構造の深さを使用して、カメラ33からの画像内の関心領域または関心地点の場所をより正確に推定することができる。
手術部位「S」の関心領域または関心地点の場所を決定することによって、処理ユニット11は、関心領域または関心地点の識別された場所と関連付けられた、上で詳述した手術部位「S」の走査中に記録された2D断面視野を表示する。臨床医は、2D断面視野を観察して、関心領域または関心地点の表面下の構造を視覚化することができる。関心領域または関心地点の表面下の構造を視覚化することによって、超音波プローブ20による関心領域または関心地点の再走査を必要とすることなく、臨床医の関心領域または関心地点の状況認識が改善される。
追加的または代替的に、手術処置中に、臨床医は、超音波プローブ20によって手術部位「S」内の関心領域または関心地点を再走査して、手術処置によって達成された変化を視覚化することができる。臨床医は、関心領域または関心地点のリアルタイム2D断面視野と記録された2D断面視野とを比較することによって、変化を超音波ディスプレイ18上に視覚化できることが想定される。変化を超音波ディスプレイ18上に視覚化するために、臨床医は、リアルタイムまたは記録された2D断面視野のいずれかと他方とを重ね合わせることができる、
2D断面視野を視認する前、視認中、または視認した後に、臨床医は、図4においてタグ62、64、66によって表されるように、内視鏡ディスプレイ38上の画像内の関心領域または関心地点を「タグ付けする」ことができる。タグ62〜66は、内視鏡36によって関心領域または関心地点の周り、例えば神経、血管、瘢痕組織、血流、などを視認したときに明確でない場合がある、関心領域または関心地点に関する情報を含むことができる。臨床医は、関心領域または関心地点をタグ付けする前、タグ付けした後、またはタグ付け中に、内視鏡ディスプレイ38上の画像をフリーズさせることができることが想到される。内視鏡ディスプレイ38上の関心領域または関心地点をタグ付けすることによって、臨床医は、手術処置を続けることができる。関心領域または関心地点をマークすることに類似して、臨床医は、任意の周知の手段を使用して、内視鏡ディスプレイ38上の関心領域または関心地点をタグ付けすることができる。
加えて、超音波ディスプレイ18を視認しながら、臨床医は、手術部位「S」の、またはそこに隣接する関心領域または関心地点を識別することができる。臨床医がディスプレイ18上の関心領域または関心地点を識別するとき、臨床医は、図3においてタグ68によって表されるように、ディスプレイ18上の画像内の関心領域または関心地点を電子的または視覚的に「マークする」または「タグ付けする」ことができる。ディスプレイ18上の画像の関心領域または関心地点を電子的または視覚的にタグ付けするために、臨床医は、上で詳述した任意の既知の手段を使用することができる。タグ68は、内視鏡36によって関心領域または関心地点の周り、例えば神経、血管、瘢痕組織、血流、などを視認したときに明確でない場合がある、関心領域または関心地点に関する情報を含むことができる。臨床医は、関心領域または関心地点をタグ付けする前、タグ付けした後、またはタグ付け中に、超音波ディスプレイ18上の画像をフリーズさせることができることが想到される。関心領域または関心地点を緒音波ディスプレイ18上でタグ付けすることによって、臨床医は、超音波プローブ20による手術部位「S」の走査を続けて、手術部位「S」の、またはそこに隣接する関心領域または関心地点を表すディスプレイ18上の後続の関心領域または関心地点を電子的または視覚的にタグ付けすることができる。関心領域または関心地点を超音波ディスプレイ18上でタグ付けした状態で、臨床医は、超音波プローブ20による手術部位「S」の走査を続けて、手術部位「S」の、またはそこに隣接する関心領域または関心地点を表す超音波ディスプレイ18上の後続の関心領域または関心地点に電子的または視覚的にタグ付けすることができる。
関心領域または関心地点が超音波ディスプレイ18上でタグ付けされたとき(例えば、タグ68)、手術部位「S」内の超音波プローブ20の場所は、超音波ディスプレイ18上のタグを表すために、タグ(例えば、タグ68’)によって内視鏡ディスプレイ38上にマークされる。
臨床医が処置を中断することなく、手術処置中に手術部位の、またはそこに隣接する関心領域または関心地点の情報を有するタグ62、64、66、68’を提供することは、手術処置中の臨床医の状況認識を改善することができ、および/または手術処置中の臨床医の認知的負荷を低減させることができる。臨床医の状況認識を改善すること、および/または臨床医の認知的負荷を低減させることは、患者の手術結果を改善することができる。
示されるように、タグ62、64、66、68’は、球形、立方体、菱形、感嘆符を含む、様々な形状で表示することができる。タグ62、64、66、68’の形状は、関連付けられたタグ62、64、66、68’に関する情報のタイプを示すことができる。加えて、タグ62、64、66、68’は、タグに含まれる情報を示す色を有することができる。例えば、タグ62は、タグの情報が血管に関連するときに青色にすることができ、またはタグの情報が組織に関連するときには黄色にすることができる。
タグ62、64、66、68’が後続の手術処置のために保存することができることが想定される。患者への手術処置の前に、臨床医は、以前の処置からのタグを含む患者のプロファイルを処理ユニット11および/または制御ユニット31に読み込むことができる。内視鏡36のカメラ33がリアルタイム画像を取り込むと、制御ユニット31は、手術部位「S」内の構造を識別して、以前の手術処置からのタグ62、64、66、68’タグを場所特定し、配置する。類似の構造が手術部位「S」内で識別されたとき、制御ユニット31は、内視鏡ディスプレイ38上の画像内にタグを配置して、上で詳述したものに類似する様態で、以前の手術処置からの関心領域または関心地点に関する付加情報および/またはその2D断面視野を臨床医に提供する。
上で詳述したように、および図1を参照して、手術システム1は、超音波ディスプレイ18と、別体の内視鏡ディスプレイ38と、を含む。しかしながら、手術システム1は、複数のウインドウおよび/またはパネルの分割画面を有する単一のモニタを含むことができ、超音波ディスプレイ18および内視鏡ディスプレイ38のそれぞれは、モニタ上のウインドウまたはパネルのそれぞれの1つにおいて視認可能である。
本開示のいくつかの実施形態が図面に示されているが、本開示は当該技術分野が許容する広い範囲として捉えられるべきであり、本明細書も同様に読み取られるべきと考えられるので、本開示はこれらの実施形態に限定されるものではないことが意図される。上記の実施形態の任意の組み合わせもまた想定され、これらは、添付の特許請求の範囲内である。したがって、上記の説明は、限定として解釈されるべきではなく、特定の実施形態の単なる例示として解釈されるべきである。当業者は本明細書に添付される特許請求の範囲内での他の修正を想定するであろう。

Claims (19)

  1. 手術部位を視覚化する方法であって、
    前記手術部位の断面視野を記録することを含む、前記手術部位の断面視野を示す第1のディスプレイを含む超音波システムによって手術部位を走査することであって、前記それぞれの断面視野が記録されたときに、前記記録された断面視野の各々が、前記手術部位内の前記超音波システムのプローブを位置と関連付けられる、走査することと、
    第2のディスプレイ上でカメラによって前記手術部位を視認することと、
    前記第2のディスプレイ上の第1の関心領域と関連付けられた前記手術部位の記録された断面視野が前記第1のディスプレイに表示されるように、前記第2ディスプレイ上の前記第1の関心領域を識別することと、を含む、方法。
  2. 前記超音波システムによって前記手術部位を走査することが、超音波プローブを患者の体腔の中へ挿入することを含む、請求項1に記載の方法。
  3. 前記第2の関心領域に関する情報を含む第1のタグによって、前記第2のディスプレイ上の第2の関心領域をマークすることをさらに含む、請求項1に記載の方法。
  4. 前記第1のタグをトグルして、前記第2の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項3に記載の方法。
  5. 前記第2の関心領域をマークすることが、前記第1の関心領域内の前記第2の関心領域を識別することを含む、請求項3に記載の方法。
  6. 以前の手術処置中の以前の関心領域の位置に基づいて、前記カメラによって取り込まれた画像内の第1のタグを場所特定することをさらに含む、請求項1に記載の方法。
  7. 前記以前の関心領域を表す前記第1のタグを表示することが、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することを含む、請求項6に記載の方法。
  8. 前記第1のタグをトグルして、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項7に記載の方法。
  9. 前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することが、前記カメラによって取り込まれた複数の画像から、前記手術部位内の前記第1のタグの深さを決定することを含む、請求項6に記載の方法。
  10. 前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することが、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた前記画像内の前記第1のタグの位置を決定することを含む、請求項6に記載の方法。
  11. 前記カメラによって前記第2のディスプレイの前記手術部位を視認することが、前記手術部位の前記画像を前記第2のディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の画像から歪曲を取り除くことを含む、請求項1に記載の方法。
  12. 第2のタグによって、前記第1のディスプレイ上の前記手術部位の断面視野内の第3の関心領域をマークすることと、
    前記第3の関心領域が識別されたときに、前記カメラによって取り込まれた画像内の前記超音波の前記プローブの前記位置を表す、前記第2のディスプレイ上の第3のタグを視認することと、をさらに含む、請求項1に記載の方法。
  13. 前記第2のタグを表す前記第3のタグを視認することが、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することを含む、請求項12に記載の方法。
  14. 前記第3のタグをトグルして、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項13に記載の方法。
  15. 前記第3のタグをトグルすることから独立して、前記第1のタグをトグルして、前記第1の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項14に記載の方法。
  16. 手術システムであって、
    超音波システムであって、
    手術部位の断面視野を取り込むように構成された超音波プローブと、
    前記超音波プローブによって取り込まれた前記手術部位の前記断面視野を表示するように構成された超音波ディスプレイと、を含む、超音波システムと、
    内視鏡システムであって、
    前記手術部位の画像を取り込むように構成されたカメラを有する内視鏡と、
    前記カメラによって取り込まれた前記手術部位の前記画像を表示するように構成された内視鏡ディスプレイと、を含む、内視鏡システムと、
    前記内視鏡ディスプレイから、前記手術部位の取り込まれた画像内の第1の関心領域の場所を受信するように、かつ前記場所の前記手術部位の断面視野を前記内視鏡ディスプレイに表示するように構成された処理ユニットと、を備える、手術システム。
  17. 前記内視鏡ディスプレイが、前記手術部位の前記画像内の前記第1の関心領域の前記場所を表すタグを受信するように構成されたタッチスクリーンディスプレイである、請求項16に記載の手術システム。
  18. 前記処理ユニットが、前記手術部位の画像を前記内視鏡ディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の前記画像から歪曲を取り除くように構成される、請求項16に記載の手術システム。
  19. 前記処理ユニットが、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた画像内の第2の関心領域を場所特定するように構成され、前記第2の関心領域が、第2の関心領域が前記超音波ディスプレイ上で識別されたときの前記手術部位の前記画像内の前記超音波プローブの場所に基づいて位置付けられる、請求項16に記載の手術システム。
JP2020508616A 2017-08-16 2018-08-13 手術処置中に関心地点を空間的に場所特定する方法 Withdrawn JP2020531099A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762546054P 2017-08-16 2017-08-16
US62/546,054 2017-08-16
PCT/US2018/046419 WO2019036318A2 (en) 2017-08-16 2018-08-13 METHOD FOR SPATIAL LOCATION OF POINTS OF INTEREST DURING SURGICAL INTERVENTION

Publications (2)

Publication Number Publication Date
JP2020531099A true JP2020531099A (ja) 2020-11-05
JP2020531099A5 JP2020531099A5 (ja) 2021-07-26

Family

ID=65362697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020508616A Withdrawn JP2020531099A (ja) 2017-08-16 2018-08-13 手術処置中に関心地点を空間的に場所特定する方法

Country Status (5)

Country Link
US (1) US20210186460A1 (ja)
EP (1) EP3668437A2 (ja)
JP (1) JP2020531099A (ja)
CN (1) CN111031957A (ja)
WO (1) WO2019036318A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124737A1 (ko) * 2020-12-11 2022-06-16 가천대학교 산학협력단 수술 부위 모니터링 방법 및 이를 이용한 디바이스

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164514A1 (en) * 2018-02-23 2019-08-29 Google Llc Transitioning between map view and augmented reality view
CN111588468A (zh) * 2020-04-28 2020-08-28 苏州立威新谱生物科技有限公司 一种具有定位手术区域功能的外科手术机器人
CN115803706A (zh) * 2020-06-30 2023-03-14 直观外科手术操作公司 用于基于标签的器械控制的系统和方法
WO2022147074A1 (en) * 2020-12-30 2022-07-07 Intuitive Surgical Operations, Inc. Systems and methods for tracking objects crossing body wall for operations associated with a computer-assisted system
CN113674342B (zh) * 2021-08-30 2022-02-11 民航成都物流技术有限公司 一种基于面阵3d相机的行李筐快速识别与定位的方法
CN115005998B (zh) * 2022-08-08 2022-10-04 科弛医疗科技(北京)有限公司 一种手术机器人系统及其机械臂防干涉调整方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050085718A1 (en) * 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
US20060184003A1 (en) * 2005-02-03 2006-08-17 Lewin Jonathan S Intra-procedurally determining the position of an internal anatomical target location using an externally measurable parameter
WO2008017051A2 (en) * 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
JP4951382B2 (ja) * 2007-03-29 2012-06-13 オリンパスメディカルシステムズ株式会社 システムコントローラ
FR2920084B1 (fr) * 2007-08-24 2010-08-20 Endocontrol Systeme d'imagerie pour le suivi d'un outil chirurgical dans un champ operatoire
KR101070663B1 (ko) * 2008-09-30 2011-10-07 주식회사 바이오넷 초음파 영상장치와 복강경 내시경을 결합한 최소절개 수술 장치
US20110178395A1 (en) * 2009-04-08 2011-07-21 Carl Zeiss Surgical Gmbh Imaging method and system
CN101862205A (zh) * 2010-05-25 2010-10-20 中国人民解放军第四军医大学 一种结合术前影像的术中组织跟踪方法
EP2724275A2 (en) * 2011-06-27 2014-04-30 Koninklijke Philips N.V. Exam review facilitated by clinical findings management with anatomical tagging
IN2014CN03498A (ja) * 2011-11-08 2015-10-09 Koninkl Philips Nv
KR102301021B1 (ko) * 2012-08-14 2021-09-13 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 다중 비전 시스템의 정합을 위한 시스템 및 방법
US20140187946A1 (en) * 2012-12-31 2014-07-03 General Electric Company Active ultrasound imaging for interventional procedures
US10835203B2 (en) * 2013-11-11 2020-11-17 Acessa Health Inc. System for visualization and control of surgical devices utilizing a graphical user interface
WO2017098505A1 (en) * 2015-12-07 2017-06-15 M.S.T. Medical Surgery Technologies Ltd. Autonomic system for determining critical points during laparoscopic surgery

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124737A1 (ko) * 2020-12-11 2022-06-16 가천대학교 산학협력단 수술 부위 모니터링 방법 및 이를 이용한 디바이스
KR20220083476A (ko) * 2020-12-11 2022-06-20 가천대학교 산학협력단 수술 부위 모니터링 방법 및 이를 이용한 디바이스
KR102566890B1 (ko) * 2020-12-11 2023-08-11 가천대학교 산학협력단 수술 부위 모니터링 방법 및 이를 이용한 디바이스

Also Published As

Publication number Publication date
WO2019036318A2 (en) 2019-02-21
WO2019036318A3 (en) 2019-04-04
EP3668437A2 (en) 2020-06-24
CN111031957A (zh) 2020-04-17
US20210186460A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP2020531099A (ja) 手術処置中に関心地点を空間的に場所特定する方法
JP7341660B2 (ja) 医療手技におけるナビゲーションを補助するための拡張現実の使用
KR101759534B1 (ko) 외과 수술 시 임상적으로 중요한 해부상의 랜드마크에 대한 시각 추적 및 주석 달기
JP4524353B2 (ja) 検査システムおよび検査システムの作動方法
US20220000559A1 (en) Providing surgical assistance via automatic tracking and visual feedback during surgery
JP2007531553A (ja) 術中ターゲティングのシステムおよび方法
JP5467295B2 (ja) 鏡視下手術における手術情報リアルタイム取得・解析システムおよび方法
JP2020531099A5 (ja)
US10302932B2 (en) Microscope system and microscopy method using digital markers
JP2007319327A (ja) 読影支援システム
WO2019202827A1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
EP3733047A1 (en) Surgical system, image processing device, and image processing method
US20220323161A1 (en) Systems and methods for displaying guidance images with spatial annotations during a guided medical procedure
US20080146933A1 (en) Ultrasonic image and visualization aid
US20210295980A1 (en) Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium
WO2020116701A1 (ko) 수술 동영상 제작 시스템 및 수술 동영상 제작 방법
US20140210971A1 (en) Navigation Using a Pre-Acquired Image
US20220265361A1 (en) Generating suture path guidance overlays on real-time surgical images
CN116077087A (zh) 用于启用人工智能的超声关联的系统和方法
CN114830638A (zh) 用于具有空间记忆的远程图解的系统和方法
WO2021146313A1 (en) Systems and methods for providing surgical assistance based on operational context
US20220110692A1 (en) Procedure visualization and guidance
Hamilton-Basich RSIP Vision Launches AI-Based Tool for Prostate MRI, Ultrasound Registration
WO2023114470A1 (en) Augmented and mixed reality incorporating pathology results in surgical settings
CN114948201A (zh) 一种用于腔镜手术的病灶定位方法及系统

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20210622