JP2020531099A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2020531099A5 JP2020531099A5 JP2020508616A JP2020508616A JP2020531099A5 JP 2020531099 A5 JP2020531099 A5 JP 2020531099A5 JP 2020508616 A JP2020508616 A JP 2020508616A JP 2020508616 A JP2020508616 A JP 2020508616A JP 2020531099 A5 JP2020531099 A5 JP 2020531099A5
- Authority
- JP
- Japan
- Prior art keywords
- display
- interest
- surgical site
- region
- tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims description 32
- 239000000523 sample Substances 0.000 claims description 12
- 238000002604 ultrasonography Methods 0.000 claims description 8
- 238000001356 surgical procedure Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
Description
さらに、矛盾しない程度に、本明細書に記載される態様のいずれかは、本明細書に記載される他の態様のいずれかまたは全てと併せて使用されてもよい。
本発明は、例えば、以下を提供する。
(項目1)
手術部位を視覚化する方法であって、
前記手術部位の断面視野を記録することを含む、前記手術部位の断面視野を示す第1のディスプレイを含む超音波システムによって手術部位を走査することであって、前記それぞれの断面視野が記録されたときに、前記記録された断面視野の各々が、前記手術部位内の前記超音波システムのプローブを位置と関連付けられる、走査することと、
第2のディスプレイ上でカメラによって前記手術部位を視認することと、
前記第2のディスプレイ上の第1の関心領域と関連付けられた前記手術部位の記録された断面視野が前記第1のディスプレイに表示されるように、前記第2ディスプレイ上の前記第1の関心領域を識別することと、を含む、方法。
(項目2)
前記超音波システムによって前記手術部位を走査することが、超音波プローブを患者の体腔の中へ挿入することを含む、項目1に記載の方法。
(項目3)
前記第2の関心領域に関する情報を含む第1のタグによって、前記第2のディスプレイ上の第2の関心領域をマークすることをさらに含む、項目1に記載の方法。
(項目4)
前記第1のタグをトグルして、前記第2の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目3に記載の方法。
(項目5)
前記第2の関心領域をマークすることが、前記第1の関心領域内の前記第2の関心領域を識別することを含む、項目3に記載の方法。
(項目6)
以前の手術処置中の以前の関心領域の位置に基づいて、前記カメラによって取り込まれた画像内の第1のタグを場所特定することをさらに含む、項目1に記載の方法。
(項目7)
前記以前の関心領域を表す前記第1のタグを表示することが、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することを含む、項目6に記載の方法。
(項目8)
前記第1のタグをトグルして、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目7に記載の方法。
(項目9)
前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することが、前記カメラによって取り込まれた複数の画像から、前記手術部位内の前記第1のタグの深さを決定することを含む、項目6に記載の方法。
(項目10)
前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することが、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた前記画像内の前記第1のタグの位置を決定することを含む、項目6に記載の方法。
(項目11)
前記カメラによって前記第2のディスプレイの前記手術部位を視認することが、前記手術部位の前記画像を前記第2のディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の画像から歪曲を取り除くことを含む、項目1に記載の方法。
(項目12)
第2のタグによって、前記第1のディスプレイ上の前記手術部位の断面視野内の第3の関心領域をマークすることと、
前記第3の関心領域が識別されたときに、前記カメラによって取り込まれた画像内の前記超音波の前記プローブの前記位置を表す、前記第2のディスプレイ上の第3のタグを視認することと、をさらに含む、項目1に記載の方法。
(項目13)
前記第2のタグを表す前記第3のタグを視認することが、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することを含む、項目12に記載の方法。
(項目14)
前記第3のタグをトグルして、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目13に記載の方法。
(項目15)
前記第3のタグをトグルすることから独立して、前記第1のタグをトグルして、前記第1の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目14に記載の方法。
(項目16)
手術システムであって、
超音波システムであって、
手術部位の断面視野を取り込むように構成された超音波プローブと、
前記超音波プローブによって取り込まれた前記手術部位の前記断面視野を表示するように構成された超音波ディスプレイと、を含む、超音波システムと、
内視鏡システムであって、
前記手術部位の画像を取り込むように構成されたカメラを有する内視鏡と、
前記カメラによって取り込まれた前記手術部位の前記画像を表示するように構成された内視鏡ディスプレイと、を含む、内視鏡システムと、
前記内視鏡ディスプレイから、前記手術部位の取り込まれた画像内の第1の関心領域の場所を受信するように、かつ前記場所の前記手術部位の断面視野を前記内視鏡ディスプレイに表示するように構成された処理ユニットと、を備える、手術システム。
(項目17)
前記内視鏡ディスプレイが、前記手術部位の前記画像内の前記第1の関心領域の前記場所を表すタグを受信するように構成されたタッチスクリーンディスプレイである、項目16に記載の手術システム。
(項目18)
前記処理ユニットが、前記手術部位の画像を前記内視鏡ディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の前記画像から歪曲を取り除くように構成される、項目16に記載の手術システム。
(項目19)
前記処理ユニットが、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた画像内の第2の関心領域を場所特定するように構成され、前記第2の関心領域が、第2の関心領域が前記超音波ディスプレイ上で識別されたときの前記手術部位の前記画像内の前記超音波プローブの場所に基づいて位置付けられる、項目16に記載の手術システム。
本発明は、例えば、以下を提供する。
(項目1)
手術部位を視覚化する方法であって、
前記手術部位の断面視野を記録することを含む、前記手術部位の断面視野を示す第1のディスプレイを含む超音波システムによって手術部位を走査することであって、前記それぞれの断面視野が記録されたときに、前記記録された断面視野の各々が、前記手術部位内の前記超音波システムのプローブを位置と関連付けられる、走査することと、
第2のディスプレイ上でカメラによって前記手術部位を視認することと、
前記第2のディスプレイ上の第1の関心領域と関連付けられた前記手術部位の記録された断面視野が前記第1のディスプレイに表示されるように、前記第2ディスプレイ上の前記第1の関心領域を識別することと、を含む、方法。
(項目2)
前記超音波システムによって前記手術部位を走査することが、超音波プローブを患者の体腔の中へ挿入することを含む、項目1に記載の方法。
(項目3)
前記第2の関心領域に関する情報を含む第1のタグによって、前記第2のディスプレイ上の第2の関心領域をマークすることをさらに含む、項目1に記載の方法。
(項目4)
前記第1のタグをトグルして、前記第2の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目3に記載の方法。
(項目5)
前記第2の関心領域をマークすることが、前記第1の関心領域内の前記第2の関心領域を識別することを含む、項目3に記載の方法。
(項目6)
以前の手術処置中の以前の関心領域の位置に基づいて、前記カメラによって取り込まれた画像内の第1のタグを場所特定することをさらに含む、項目1に記載の方法。
(項目7)
前記以前の関心領域を表す前記第1のタグを表示することが、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することを含む、項目6に記載の方法。
(項目8)
前記第1のタグをトグルして、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目7に記載の方法。
(項目9)
前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することが、前記カメラによって取り込まれた複数の画像から、前記手術部位内の前記第1のタグの深さを決定することを含む、項目6に記載の方法。
(項目10)
前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することが、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた前記画像内の前記第1のタグの位置を決定することを含む、項目6に記載の方法。
(項目11)
前記カメラによって前記第2のディスプレイの前記手術部位を視認することが、前記手術部位の前記画像を前記第2のディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の画像から歪曲を取り除くことを含む、項目1に記載の方法。
(項目12)
第2のタグによって、前記第1のディスプレイ上の前記手術部位の断面視野内の第3の関心領域をマークすることと、
前記第3の関心領域が識別されたときに、前記カメラによって取り込まれた画像内の前記超音波の前記プローブの前記位置を表す、前記第2のディスプレイ上の第3のタグを視認することと、をさらに含む、項目1に記載の方法。
(項目13)
前記第2のタグを表す前記第3のタグを視認することが、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することを含む、項目12に記載の方法。
(項目14)
前記第3のタグをトグルして、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目13に記載の方法。
(項目15)
前記第3のタグをトグルすることから独立して、前記第1のタグをトグルして、前記第1の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、項目14に記載の方法。
(項目16)
手術システムであって、
超音波システムであって、
手術部位の断面視野を取り込むように構成された超音波プローブと、
前記超音波プローブによって取り込まれた前記手術部位の前記断面視野を表示するように構成された超音波ディスプレイと、を含む、超音波システムと、
内視鏡システムであって、
前記手術部位の画像を取り込むように構成されたカメラを有する内視鏡と、
前記カメラによって取り込まれた前記手術部位の前記画像を表示するように構成された内視鏡ディスプレイと、を含む、内視鏡システムと、
前記内視鏡ディスプレイから、前記手術部位の取り込まれた画像内の第1の関心領域の場所を受信するように、かつ前記場所の前記手術部位の断面視野を前記内視鏡ディスプレイに表示するように構成された処理ユニットと、を備える、手術システム。
(項目17)
前記内視鏡ディスプレイが、前記手術部位の前記画像内の前記第1の関心領域の前記場所を表すタグを受信するように構成されたタッチスクリーンディスプレイである、項目16に記載の手術システム。
(項目18)
前記処理ユニットが、前記手術部位の画像を前記内視鏡ディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の前記画像から歪曲を取り除くように構成される、項目16に記載の手術システム。
(項目19)
前記処理ユニットが、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた画像内の第2の関心領域を場所特定するように構成され、前記第2の関心領域が、第2の関心領域が前記超音波ディスプレイ上で識別されたときの前記手術部位の前記画像内の前記超音波プローブの場所に基づいて位置付けられる、項目16に記載の手術システム。
Claims (19)
- 手術部位を視覚化する方法であって、
前記手術部位の断面視野を記録することを含む、前記手術部位の断面視野を示す第1のディスプレイを含む超音波システムによって手術部位を走査することであって、前記それぞれの断面視野が記録されたときに、前記記録された断面視野の各々は、前記手術部位内の前記超音波システムのプローブの位置と関連付けられる、ことと、
第2のディスプレイ上でカメラによって前記手術部位を視認することと、
前記第2のディスプレイ上の第1の関心領域と関連付けられた前記手術部位の記録された断面視野が前記第1のディスプレイに表示されるように、前記第2のディスプレイ上の前記第1の関心領域を識別することと
を含む、方法。 - 前記超音波システムの前記プローブは、患者の体腔の中へ挿入されるように構成される、請求項1に記載の方法。
- 第2の関心領域に関する情報を含む第1のタグによって、前記第2のディスプレイ上の前記第2の関心領域をマークすることをさらに含む、請求項1に記載の方法。
- 前記第1のタグをトグルして、前記第2の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項3に記載の方法。
- 前記第2の関心領域をマークすることは、前記第1の関心領域内の前記第2の関心領域を識別することを含む、請求項3に記載の方法。
- 以前の手術処置中の以前の関心領域の位置に基づいて、前記カメラによって取り込まれた画像内の第1のタグを場所特定することをさらに含む、請求項1に記載の方法。
- 前記以前の関心領域を表す前記第1のタグを表示することは、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することを含む、請求項6に記載の方法。
- 前記第1のタグをトグルして、前記以前の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項7に記載の方法。
- 前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することは、前記カメラによって取り込まれた複数の画像から、前記手術部位内の前記第1のタグの深さを決定することを含む、請求項6に記載の方法。
- 前記カメラによって取り込まれた画像内の前記第1のタグを場所特定することは、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた前記画像内の前記第1のタグの位置を決定することを含む、請求項6に記載の方法。
- 前記カメラによって前記第2のディスプレイ上で前記手術部位を視認することは、前記手術部位の前記画像を前記第2のディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の画像から歪曲を取り除くことを含む、請求項1に記載の方法。
- 第2のタグによって、前記第1のディスプレイ上の前記手術部位の断面視野内の第3の関心領域をマークすることと、
前記第3の関心領域が識別されたときに、前記カメラによって取り込まれた画像内の前記超音波システムの前記プローブの前記位置を表す、前記第2のディスプレイ上の第3のタグを視認することと
をさらに含む、請求項1に記載の方法。 - 前記第2のタグを表す前記第3のタグを視認することは、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することを含む、請求項12に記載の方法。
- 前記第3のタグをトグルして、前記第3の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項13に記載の方法。
- 前記第3のタグをトグルすることから独立して、前記第1のタグをトグルして、前記第1の関心領域に関する情報を前記第2のディスプレイに表示することをさらに含む、請求項14に記載の方法。
- 手術システムであって、
超音波システムであって、
手術部位の断面視野を取り込むように構成された超音波プローブと、
前記超音波プローブによって取り込まれた前記手術部位の前記断面視野を表示するように構成された超音波ディスプレイと
を含む、超音波システムと、
内視鏡システムであって、
前記手術部位の画像を取り込むように構成されたカメラを有する内視鏡と、
前記カメラによって取り込まれた前記手術部位の前記画像を表示するように構成された内視鏡ディスプレイと
を含む、内視鏡システムと、
前記内視鏡ディスプレイから、前記手術部位の取り込まれた画像内の第1の関心領域の場所を受信するように、かつ前記場所における前記手術部位の断面視野を前記内視鏡ディスプレイに表示するように構成された処理ユニットと
を備える、手術システム。 - 前記内視鏡ディスプレイは、前記手術部位の前記画像内の前記第1の関心領域の前記場所を示すタグを受信するように構成されたタッチスクリーンディスプレイである、請求項16に記載の手術システム。
- 前記処理ユニットは、前記手術部位の画像を前記内視鏡ディスプレイに表示する前に、前記カメラによって取り込まれた前記手術部位の前記画像から歪曲を取り除くように構成される、請求項16に記載の手術システム。
- 前記処理ユニットは、前記カメラからの画像のピクセルベースの識別情報を使用して、前記カメラによって取り込まれた画像内の第2の関心領域を場所特定するように構成され、前記第2の関心領域は、第2の関心領域が前記超音波ディスプレイ上で識別されたときの前記手術部位の前記画像内の前記超音波プローブの場所に基づいて位置付けられる、請求項16に記載の手術システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762546054P | 2017-08-16 | 2017-08-16 | |
US62/546,054 | 2017-08-16 | ||
PCT/US2018/046419 WO2019036318A2 (en) | 2017-08-16 | 2018-08-13 | METHOD FOR SPATIAL LOCATION OF POINTS OF INTEREST DURING SURGICAL INTERVENTION |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020531099A JP2020531099A (ja) | 2020-11-05 |
JP2020531099A5 true JP2020531099A5 (ja) | 2021-07-26 |
Family
ID=65362697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020508616A Withdrawn JP2020531099A (ja) | 2017-08-16 | 2018-08-13 | 手術処置中に関心地点を空間的に場所特定する方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210186460A1 (ja) |
EP (1) | EP3668437A2 (ja) |
JP (1) | JP2020531099A (ja) |
CN (1) | CN111031957A (ja) |
WO (1) | WO2019036318A2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
CN111588468A (zh) * | 2020-04-28 | 2020-08-28 | 苏州立威新谱生物科技有限公司 | 一种具有定位手术区域功能的外科手术机器人 |
WO2022005954A2 (en) * | 2020-06-30 | 2022-01-06 | Intuitive Surgical Operations, Inc. | Systems and methods for tag-based instrument control |
KR102566890B1 (ko) * | 2020-12-11 | 2023-08-11 | 가천대학교 산학협력단 | 수술 부위 모니터링 방법 및 이를 이용한 디바이스 |
US20240070875A1 (en) * | 2020-12-30 | 2024-02-29 | Intuitive Surgical Operations, Inc. | Systems and methods for tracking objects crossing body wallfor operations associated with a computer-assisted system |
CN113674342B (zh) * | 2021-08-30 | 2022-02-11 | 民航成都物流技术有限公司 | 一种基于面阵3d相机的行李筐快速识别与定位的方法 |
CN115005998B (zh) * | 2022-08-08 | 2022-10-04 | 科弛医疗科技(北京)有限公司 | 一种手术机器人系统及其机械臂防干涉调整方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050085718A1 (en) * | 2003-10-21 | 2005-04-21 | Ramin Shahidi | Systems and methods for intraoperative targetting |
US20060184003A1 (en) * | 2005-02-03 | 2006-08-17 | Lewin Jonathan S | Intra-procedurally determining the position of an internal anatomical target location using an externally measurable parameter |
US7728868B2 (en) * | 2006-08-02 | 2010-06-01 | Inneroptic Technology, Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
JP4951382B2 (ja) * | 2007-03-29 | 2012-06-13 | オリンパスメディカルシステムズ株式会社 | システムコントローラ |
FR2920084B1 (fr) * | 2007-08-24 | 2010-08-20 | Endocontrol | Systeme d'imagerie pour le suivi d'un outil chirurgical dans un champ operatoire |
KR101070663B1 (ko) * | 2008-09-30 | 2011-10-07 | 주식회사 바이오넷 | 초음파 영상장치와 복강경 내시경을 결합한 최소절개 수술 장치 |
US20110178395A1 (en) * | 2009-04-08 | 2011-07-21 | Carl Zeiss Surgical Gmbh | Imaging method and system |
CN101862205A (zh) * | 2010-05-25 | 2010-10-20 | 中国人民解放军第四军医大学 | 一种结合术前影像的术中组织跟踪方法 |
WO2013001443A2 (en) * | 2011-06-27 | 2013-01-03 | Koninklijke Philips Electronics N.V. | Exam review facilitated by clinical findings management with anatomical tagging |
US9980692B2 (en) * | 2011-11-08 | 2018-05-29 | Koninklijke Philips N.V. | System and method for interactive annotation of an image using marker placement command with algorithm determining match degrees |
EP3679881A1 (en) * | 2012-08-14 | 2020-07-15 | Intuitive Surgical Operations, Inc. | Systems and methods for registration of multiple vision systems |
US20140187946A1 (en) * | 2012-12-31 | 2014-07-03 | General Electric Company | Active ultrasound imaging for interventional procedures |
US10835203B2 (en) * | 2013-11-11 | 2020-11-17 | Acessa Health Inc. | System for visualization and control of surgical devices utilizing a graphical user interface |
EP3414737A4 (en) * | 2015-12-07 | 2019-11-20 | M.S.T. Medical Surgery Technologies Ltd. | AUTONOMOUS SYSTEM FOR DETERMINING CRITICAL POINTS IN LAPAROSCOPIC SURGERY |
-
2018
- 2018-08-13 JP JP2020508616A patent/JP2020531099A/ja not_active Withdrawn
- 2018-08-13 WO PCT/US2018/046419 patent/WO2019036318A2/en unknown
- 2018-08-13 CN CN201880052748.2A patent/CN111031957A/zh active Pending
- 2018-08-13 US US16/636,053 patent/US20210186460A1/en not_active Abandoned
- 2018-08-13 EP EP18846241.0A patent/EP3668437A2/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020531099A5 (ja) | ||
US11058497B2 (en) | Use of augmented reality to assist navigation during medical procedures | |
JP6348078B2 (ja) | 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム | |
CN107485455B (zh) | 手术系统中有效的交互式出血检测 | |
EP2996557B1 (en) | Anatomical site relocalisation using dual data synchronisation | |
JP4758355B2 (ja) | 患者の体内に医療用機器を案内するためのシステム | |
JP4891637B2 (ja) | 画像解析装置 | |
JP2020531099A (ja) | 手術処置中に関心地点を空間的に場所特定する方法 | |
EP3193727A1 (en) | Ultrasound imaging apparatus | |
JP5569711B2 (ja) | 手術支援システム | |
JP2001500772A (ja) | 画像誘導手術システム | |
JP2010274044A (ja) | 手術支援装置、手術支援方法及び手術支援プログラム | |
EP3554383B1 (en) | System for providing images for guiding surgery | |
JP2020516408A (ja) | 内視鏡測定の方法および器具 | |
KR20160118037A (ko) | 의료 영상으로부터 병변의 위치를 자동으로 감지하는 장치 및 그 방법 | |
EP3298949B1 (en) | Image processing apparatus, image processing method, and surgical system | |
US9754404B2 (en) | Method for generating display image data | |
JP2007097902A (ja) | 超音波検査システム | |
WO2020116701A1 (ko) | 수술 동영상 제작 시스템 및 수술 동영상 제작 방법 | |
US20140210971A1 (en) | Navigation Using a Pre-Acquired Image | |
US9934569B2 (en) | Image processing method and apparatus for tracking a site in a series of images | |
CN116077087A (zh) | 用于启用人工智能的超声关联的系统和方法 | |
WO2018109227A1 (en) | System providing images guiding surgery | |
JP2005081046A (ja) | 定位脳手術支援システム | |
US10049480B2 (en) | Image alignment device, method, and program |