JP6419080B2 - 外科的処置管理システム及び方法 - Google Patents

外科的処置管理システム及び方法 Download PDF

Info

Publication number
JP6419080B2
JP6419080B2 JP2015545873A JP2015545873A JP6419080B2 JP 6419080 B2 JP6419080 B2 JP 6419080B2 JP 2015545873 A JP2015545873 A JP 2015545873A JP 2015545873 A JP2015545873 A JP 2015545873A JP 6419080 B2 JP6419080 B2 JP 6419080B2
Authority
JP
Japan
Prior art keywords
surgical
tracking
camera
surgical tool
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015545873A
Other languages
English (en)
Other versions
JP2015536738A (ja
Inventor
ガービー,マーク
バス,バーバラ,リー
ダンキン,ブライアン,ジェームズ
シャーマン,ヴァディム
トティ,ジュリア
Original Assignee
ユニバーシティ オブ ヒューストン システム
ユニバーシティ オブ ヒューストン システム
ザ・メソジスト・ホスピタル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーシティ オブ ヒューストン システム, ユニバーシティ オブ ヒューストン システム, ザ・メソジスト・ホスピタル filed Critical ユニバーシティ オブ ヒューストン システム
Publication of JP2015536738A publication Critical patent/JP2015536738A/ja
Application granted granted Critical
Publication of JP6419080B2 publication Critical patent/JP6419080B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Electromagnetism (AREA)
  • Endoscopes (AREA)
  • Surgical Instruments (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本出願は、2012年12月7日出願の米国仮特許出願第61/734506号に対する優先権を主張するものであり、上記米国仮特許出願の内容全体は本出願に援用されるものとする。
本開示の例示的実施形態は、カメラを利用して様々な外科用ツールを追跡し、処置管理情報をユーザに提供する、外科用ツール追跡システムに関する。
腹腔鏡手術は、回復時間、痛み及び複雑さが大幅に低減されるため、開腹手術の一般的で多用される代替案である。しかしながら、手術野へのアクセスが限定されていること、視野が間接的であること、手術室がそもそも開腹手術用に構成されていることを含む多くの障害によって、外科医の作業は困難かつ非効率的となる。この分野では、「手術室アウェアネス」を補助するためのシステムを開発することに対して関心が寄せられてきた。手術室アウェアネスは、進行中の手術に関連するデータを収集でき、このデータを使用して外科医及び医療スタッフを支援できる手術室を形成することを指す。また、収集したデータを使用して外科医/スタッフの訓練及び評価を支援することにも関心が寄せられている。
手術室アウェアネスの1つの構成要素は、ツールの識別、配置及びナビゲーションである。外科用ツールは従来、外科医及び/又は医療スタッフによる目視観察によって識別されてきた。しかしながらいくつかの自動化されたシステムが存在する。これらのシステムの精度は、手術空間内に金属及び流体が存在していること、並びに追跡デバイスのための常に変化する基準点に依存したものであることによって損なわれ得る。
従って、医療処置中に生成されるデータを分析し、リアルタイム状況アウェアネスを外科チーム及び手術後評価ツールに提供するための、侵襲性が最小であるにもかかわらず堅牢なシステムに対する需要が存在する。
外科用ツール追跡のためのシステム及び方法、並びに医療処置情報を管理するための情報管理システムを提示する。
特定の実施形態は、患者の体外に配置されるよう構成された近位端と、患者の身体の内部に配置されるよう構成された遠位端とを備える外科用ポート、及び上記近位端と上記遠位端との間に延在するチャネルを備える、外科用ツール追跡システムを含む。特定の実施形態は、外科用ツールに連結するよう構成された追跡要素と、追跡要素に関連する画像データをキャプチャするよう構成された、外科用ポートの近位端に設置されるカメラとを含む。
具体的な実施形態では、外科用ポートはトロカールであり、このトロカールは近位端に基部を、そして遠位端にカニューレを備え、カメラは上記基部に設置される。特定の実施形態では、カメラは外科用ポートに対して固定位置にあり、他の実施形態では、カメラは外科用ポートに対して可動である。特定の実施形態では、カメラは追跡要素に向かって配向される。具体的な実施形態では、カメラは患者の身体から離れる方向に配向される。特定の実施形態では、カメラは追跡要素を照明するための発光要素を含む。
特定の実施形態はコンピュータシステムを備え、カメラはこのコンピュータシステムと通信して、画像データをコンピュータシステムに伝送する。具体的な実施形態では、追跡要素は、色、形状、パターン、バーコード及び記号のうちの少なくとも1つを含む。特定の実施形態は外科用ツールを備え、この外科用ツールは、外科用ポートのチャネルを通して患者の身体の内部にアクセスできるようサイズ設定及び構成され、追跡要素は外科用ツールに連結される。具体的な実施形態では、追跡要素は、外科用ツールの識別、外科用ツールの配向及び外科用ツールの位置のうちの少なくとも1つに対応する。特定の実施形態では、追跡要素は、外科用ツールに関連付けられたハンドルの近傍の位置に位置決めされる。特定の実施形態では、カメラは更に、外科医に関連する画像データをキャプチャするよう構成される。
例示的実施形態は、外科用ツールを追跡する方法も含み、この方法は:外科用ツールを外科用ポートに提供するステップ(外科用ツールは追跡要素を含み、外科用ポートはこの外科用ポートに設置されたカメラを含む);カメラにおいて画像データをキャプチャするステップ;画像データをプロセッサに供給するステップ;プロセッサにおいて外科用ツールに関連する追跡情報を決定するステップを含む。特定の実施形態では、外科用ツールを外科用ポートに提供するステップは更に、外科用ツールの一部分を、外科用ポートの近位端と遠位端との間に延在するチャネルに挿入するステップを含む。特定の実施形態では、追跡情報は、外科用ツールの識別、外科用ツールの配向、外科用ツールの位置及び外科医の識別のうちの少なくとも1つを含む。具体的な実施形態では、画像データは、追跡要素及び外科医のうちの少なくとも1つに関連する。
例示的実施形態は、医療処置情報を管理するための方法を含み、この方法は:外科用ポートに関連付けられたカメラから画像データを受信するステップ(この画像データは、外科用ツールに関連付けられた追跡要素を表す);画像データに基づいて、外科用ツールの識別及び位置を決定するステップ;画像データを使用して、医療処置の外科的ステップを決定するステップ;並びに上記外科的ステップに関連する画像データを医療処置と比較することによって、処置管理情報を決定するステップを含み、ここで画像データは、既知の複数のツールのうちの特定の有限個のセットに関連するものではない。
特定の実施形態では、画像データは更に、外科医に関連する画像データを含む。特定の実施形態では、外科用ツールの識別を決定するステップは、追跡要素に関連する画像データを記憶されているデータと比較して、対応する記憶されている外科用ツール識別を識別するステップを含む。具体的な実施形態では、外科用ツールの位置を決定するステップは、追跡要素に関連する画像データを、外科用ポートに関連する位置情報と比較するステップを含む。
特定の実施形態では、外科用ツールの位置を決定するステップは、追跡要素に関連する画像データを分析して、外科用ポートに対する外科用ツールの配向及び外科用ポートに対する外科用ツールの位置のうちの少なくとも1つを決定するステップを含む。特定の実施形態では、外科用ツールの位置を決定するステップは、外科的処置に関連する手術室内における外科用ツールの位置を決定するステップを含む。具体的な実施形態は、上記外科的ステップに関連する外科的処置の完了のための時間を計算するステップを含む。
特定の実施形態はまた、外科用ツール及び外科用ポートのうちの少なくとも一方に関連する使用時間を決定するステップを含む。特定の実施形態では、管理情報は外科的処置の効率を含む。特定の実施形態では、管理情報は、外科的処置を実施する外科医に関連する技術レベルを含む。特定の実施形態では、画像データは、複数の外科用ポートからの画像データを含み、この画像データは、対応する複数の外科用ツールに関連する複数の追跡要素を表す。
特定の実施形態は更に:第2の外科用ポートに関連する第2のカメラから画像データを受信するステップ(この画像データは、第2の外科用ツールに関連する第2の追跡要素を表す);上記画像データに基づいて、第2の外科用ツールの識別及び位置を決定するステップ;並びに上記画像データを用いて次の外科的ステップを決定するステップを含む。特定の実施形態では、処置管理情報を決定するステップは更に:上記次の外科的ステップに関連する画像データを、医療処置と比較するステップ;及び上記次の外科的ステップを第1の外科的ステップと比較するステップを含む。
本開示のある態様は、外科用ツール追跡システムを対象とする。この外科用ツール追跡システムは、外科用ポートと、外科用ツール及びカメラに関連する追跡要素とを含む。外科用ポートは、患者の体外に配置されるよう構成された近位端と、患者の身体の内部に配置されるよう構成された遠位端とを有してよい。外科用ポートはまた、上記近位端と上記遠位端との間に延在するチャネルを有してよい。外科用ツールは、外科用ポートのチャネルを通して患者の身体の内部にアクセスできるようサイズ設定及び構成してよい。追跡要素は外科用ツールに着脱可能に連結してよく、外科用ポートの近位端に設置されるカメラは、追跡要素に関連する画像データをキャプチャするよう構成してよい。
本開示の別の態様は、外科用ツールを追跡する方法を対象とする。この方法は:外科用ツールを外科用ポートに提供するステップを含んでよく、この外科用ツールは追跡要素を含んでよく、外科用ポートはこの外科用ポートに設置されたカメラを含んでよい。本方法は更に、カメラにおいて画像データをキャプチャするステップを含んでよい。本方法は更に、画像データをプロセッサに供給するステップ、及びプロセッサにおいて外科用ツールに関連する追跡情報を決定するステップを含んでよい。
本開示の更なる態様は、医療処置情報を管理するための情報管理システムを対象とする。このシステムは、外科用ポートに関連付けられたカメラから画像データを受信してよく、この画像データは、外科用ツールに関連付けられた追跡要素を表す。この画像データは、既知の複数のツールのうちの特定の有限個のセットに関連するものではない。このシステムは更に、画像データに基づいて、外科用ツールの識別及び位置を決定してよい。このシステムはまた、画像データを使用して、医療処置の外科的ステップを決定し、上記外科的ステップに関連する画像データを医療処置と比較することによって、処置管理情報を決定してよい。
本発明の1つ又は複数の実施形態の詳細を、添付の図面及び以下の説明において明らかにする。
本発明の他の目的、特徴及び利点は、以下の詳細から明らかになるであろう。しかしながら、この詳細な説明及び具体的な実施例は、本発明の具体的な実施形態を示すものの、単なる例示として挙げられているものであることに留意されたい。というのは、本発明の精神及び範囲内の様々な変更及び修正は、当業者にはこの詳細な説明から明らかであるためである。
本開示の例示的実施形態を以下の図面において提供する。これら図面は、例示的なデバイスの構造、及び単独で又は他の特徴と組み合わせて使用できる特定の特徴を例示するための、単なる例である。本発明は図示されている実施例に限定されるものではない。
図1は、例示的な外科用追跡ツールの斜視図である。 図2は、例示的な外科用追跡ツールの斜視図である。 図3は、例示的な追跡システムの概略フローチャートである。 図4は、例示的な追跡要素の図である。 図5は、例示的な追跡された医療処置の概略フローチャートである。 図6は、例示的なシステムの概略的なコンピュータシステムアーキテクチャである。 図7は、例示的な追跡要素の平面図である。
以下の説明では、利便のみを目的として特定の用語法を使用し、この特定の用語法は限定を意味しない。単語「右(right)」、「左(left)」、「下側(lower)」、「上側(upper)」は、参照している図面における方向を示すものである。単語「内側(inner)」、「外側(outer)」はそれぞれ、説明されている特徴又はデバイスの幾何学的中心に対して近づく方向及び離れる方向を表す。単語「遠位(distal)」、「近位(proximal)」は、説明されているアイテムの文脈においての、及び本明細書で説明される機器に対しての方向を表し、典型的には上記機器を用いる外科医の視点に基づくものである。単語「前方(anterior)」、「後方(posterior)」、「上位(superior)」、「下位(inferior)」、「中央(medial)」、「側方(lateral)」、並びに関連する単語及び/又は語句は、参照している人体内での好ましい位置及び配向を指す。このような用語法は、上に列挙した単語、その単語の派生語、同様の意味の単語を含む。
これ以降、用語「連結される(coupled)」は、「接続される(connected)」ものの必ずしも直接的ではなく、かつ必ずしも機械的ではないこととして定義される。
請求項及び/又は明細書内で用語「を備える/含む(comprising)」と組み合わせて使用される場合の、単語「ある(a、an)」の使用は、「1つの(one)」を意味してよいが、「1つ又は複数の(one or more)」又は「少なくとも1つの(at least one)」とも矛盾しない。用語「約(about)」、「およそ(approximately)」又は「略(substantially)」は一般に、明示された値プラスマイナス5%を意味する。請求項内での用語「又は(or)」の使用は、代替物のみを指すことが明示されている場合又は代替物が相互に排他的である場合を除いて、「及び/又は(and/or)」を意味するために使用されるが、本開示は、代替物のみ及び「及び/又は」を表す定義をサポートする。
用語「を備える/含む(comprise)」(及び「comprises」、「comprising」といった「comprise」のいずれの形態)、「を有する(have)」(及び「has」、「having」といった「have」のいずれの形態)、「を含む(include)」(及び「includes」、「including」といった「include」のいずれの形態)、並びに「含有する(contain)」(及び「contains」、「containing」といった「contain」のいずれの形態)は、非限定的な連結動詞である。従って、1つ又は複数のステップ又は要素を「備える」、「有する」、「含む」又は「含有する」方法又はデバイスは、これら1つ又は複数のステップ又は要素を具備するが、これら1つ又は複数のステップ又は要素のみを具備すると限定されるわけではない。同様に、1つ又は複数の特徴を「備える」、「有する」、「含む」又は「含有する」、方法のステップ又はデバイスの要素は、これら1つ又は複数の特徴を具備するが、これら1つ又は複数の特徴のみを具備すると限定されるわけではない。更に、ある特定の方法で構成されたデバイス又は構造は、少なくとも上記方法で構成されるものの、本明細書で挙げられていない複数の方法で構成することもできる。
これより、本発明の特定の実施例について、図面を参照して説明する。このような実施例は一般に、外科用ツールを追跡してユーザに処置管理情報を提供するためのカメラを使用する、外科用ツール追跡システムの使用に関連する。図1、2は、外科用ツール追跡システム100の1つの例示的実施形態の斜視図である。図示した実施形態では、外科用ツール追跡システム100は、外科用ポート102、外科用ポート102に連結されたカメラ104、外科用ツール106に関連付けられた対応する追跡要素108を含むことができる。
例示的実施形態では、外科用ポート102を患者の身体の切開部分内に配置してアクセスポイントを提供でき、このアクセスポイントを通して、体内手術部位に外科用機器を導入してよい。特定の実施形態では、外科用ポート102は針、カニューレ、トロカール又は当該技術分野で公知である他のいずれの形式の外科用ポートを含むことができる。外科用ポート102は、生体適合性材料からなるものとすることができる。外科用ポートを使い捨て可能な材料から構成することにより、コストを削減し、滅菌及びバッテリの充電に関する問題を回避できるようにすることも考えられる。外科用ポート102は、患者の体外に配置するために構成された近位端110と、患者の身体の内部へと延在するようサイズ設定及び構成された遠位端112とを有することができる。近位端110は、基部114と、基部から遠位端112に向かって延在するカニューレ116又は管状本体とを含むことができる。外科用ポート102は、近位端110の基部114上の開口120と遠位端112の開口(図示せず)との間に延在するチャネル118を含むことができる。チャネル118は基部114及びカニューレ116を通って延在でき、これによって、チャネル118を介して外科用ツール106(例えば腹腔鏡又は内視鏡)を患者の体内に挿入できるように、患者の身体の内部へのアクセスを提供できる。
外科用ツール追跡システム100の例示的実施形態は、外科用ポート102の近位端110に設置されたカメラ104を含むことができる。カメラ104は、可視スペクトル及び/若しくは赤外光をキャプチャでき、又は外科的処置における使用に適した他のいずれの撮像方式を含むことができる。カメラ104は、動画及び/又は静止画をキャプチャ及び記憶するよう構成できる。またカメラ104は、音声データをキャプチャ及び記憶するよう構成してもよい。カメラ104は、追跡要素108の静止画及び/又は動画を含む、追跡要素108に関連する画像データをキャプチャするよう構成できる。カメラ104は更に、医療処置を実施する外科医に関連する画像データをキャプチャするよう構成してよい。例えばカメラ104は、外科医固有追跡要素又はマーカといった外科医識別情報を提供する画像データをキャプチャできる。例示的な外科医固有マーカは、医療処置中に着用される特定の色の手袋を含むことができる。外科医に関連する画像データは、外科用ツール106及び/又は外科医の手に関する運動情報も含むことができる。この運動情報を用いて、医療処置中の外科医の手及び/又は外科用ツール106の運動/経路を追跡できる。
特定の例示的実施形態では、カメラ104は、近位端110の基部114への設置によって外科用ポート102に連結できる。他の例示的実施形態では、カメラ104は、基部114に組み込むことができ、又はその他の方法で基部114と一体化できる。外科用ポート102に対するカメラ104の位置は固定できる。即ちカメラ104は、固定された設定位置において基部114に設置でき、又はそれ以外の場合は組み込むことができる。他の実施形態では、カメラ104の位置は外科用ポート102に対して変更又は調整できる。例えばカメラ104は、カメラ104の位置及び配向を制御するアダプタを用いて基部114に設置できる。
特定の例示的実施形態では、カメラ104は、カメラ104の光学レンズ/視野が患者の身体から離れる方向に配向されるように、基部114に設置できる。例えばカメラ104は、
外科用ツール106が外科用ポート102に近づく及び/又は挿入されると、カメラ104の光学レンズ/視野が追跡要素108及び/又は外科医の手の方向に提供されるように、基部114に設置できる。更なる実施例では、カメラ104は、カメラ104の光学レンズ/視野が患者の身体から離れる方向及び追跡要素108の方向の両方に配向されるように、基部114に設置できる。例えば、外科用ツール106が外科用ポート102に近づいて外科用ポート102内に配置されると、追跡要素108及び/又は外科医の手の画像データをキャプチャするように、カメラ104の光学レンズ/視野を構成することも考えられる。
特定の実施形態では、カメラ104は、追跡要素108及び/又は外科医を照明するための発光要素を含むことができる。例えば発光要素は、追跡要素108のUV感受性特徴部分を照明する紫外線LEDを含むことができる。非可視光範囲を使用することにより、弱光条件化での作業を好む外科医を妨害しない。また、追跡要素108上にUV感受性特徴部分を使用すると、追跡要素108が画像内においてシステムに対して明るく色彩豊かなアイテムとして現れ、これによって背景及び/又は画像ノイズからより容易に区別できるようになることにより、認識プロセスにおいてプラスの効果をもたらすことができる。
特定の実施形態では、カメラ104は有線又は無線通信ネットワーク上で動作できるものであってよい。カメラ104は、通信ネットワークを用いて他のデバイスと通信するよう構成でき、上記他のデバイスは、コンピュータ、パーソナルデータアシスタント(personal data assistant:PDA)、携帯電話及び携帯型コンピュータを含む。例えば追跡システム100はコンピュータシステム(図示せず)を含むことができる。カメラ104はコンピュータシステム122と通信して、分析及び/又は記憶のために画像データをコンピュータシステム122に伝送できる。追跡システム100は、いずれの形態又はタイプのデータを取得、記憶及び/又は処理できる他の構成部品を含んでよい。このような構成部品はいずれも基部114に連結若しくは一体化してよく、又は追跡システム100及び/若しくはコンピュータシステム122に通信可能に連結してよい。
特定の実施形態では、追跡システム100は非光学的追跡システムも含んでよい。例えば追跡システム100は、外科用ツール106及び/又は外科医に関連するRF(無線周波数)タグを検出及び/又は追跡するためのトランシーバ/センサを含むことができる。追跡システム100はまた、外科用ツール106に関連する又は外科用ツール106が伝送する電磁場を検出及び/又は追跡するための電磁場センサも含むことができる。他の形態及び構成の非光学的追跡方法も考えられる。これらのシステムを用いて受信された情報を用いて、外科用ツール106及び/又は外科医の位置を決定できる。同様に、受信された情報を用いて外科用ツール106及び/又は外科医の運動の位置/経路を追跡できる。以下に概説するように、位置及び/又は運動情報を用いて、医療処置に関連する外科的ステップを決定してよい。
追跡システム100の特定の実施形態は外科用ツール106を含むことができる。追跡システム100の他の実施形態は外科用ツール106を含まなくてよく、標準的なサイズの外科用ツールに連結されるよう構成された追跡要素108を備えてよい。外科用ツール106は、外科用ポート102を介して患者の身体の内部にアクセスできるようにサイズ設定及び構成できる。外科用ツール106の例示的実施形態は、腹腔鏡機器(ハサミ、フック、ナイフ、クランプ、鉗子、凝結及び解剖用電極、吸入針、開創器、縫合デバイス等)、内視鏡、吸引ルーメン、又は侵襲性が最小の外科的処置を実行するためのアクセスポートと組み合わせて使用されるその他のツール若しくは機器を含むことができる。
システム100の例示的実施形態は、追跡要素108を含むことができる。特定の実施形態では、追跡要素108はアクティブ型及び/又はパッシブ型とすることができる。例示的なアクティブ型及びパッシブ型追跡要素108は、カメラ104で読み取ることができる光学パターン/特徴部分、RFIDタグ、LED、又は当該技術分野で公知の他のいずれのタグ若しくはセンサを含む。追跡要素108は、外科用ツール106に対して固定位置に配置できる。例えば追跡要素108は、追跡要素108と外科用ツール106のハンドル及び/又は先端との間の空間的関係が分かるように配置及び位置決めできる。追跡システム100の一実施例では、追跡要素108は外科用ツール106に着脱可能に連結される。別の実施形態では、追跡要素108は外科用ツール106に恒常的に固定できる。
特定の例示的実施形態では、追跡要素108は、カメラ104で読み取ることができる光学パターン/特徴部分(色、形状、パターン、バーコード及び/又は記号等)といったパッシブ型マーカを含むことができる。例示的なシステムでは、光学パターン/特徴部分の画像は、コンピュータシステム上の画像認識コンピュータプログラムが具備できる。追跡要素108に関連する画像データを用いて、外科用ツール106の識別を決定できる。例えば追跡要素108は、特定の外科用ツール106又は外科用ツール106の特定のタイプを表す、特定の特徴部分又は複数の特徴部分の組み合わせを含むことができる。
図1、2に示すように、例示的な追跡要素108はディスク状デバイスを含むことができる。特定の実施例では、追跡要素108は、外科用ツール106のハンドル部分の近傍に連結された直径およそ4cmのディスクを含む。このディスクは、ディスクの周を巡る角度パターンで、異なる及び/又は交互の色の複数の領域を含むことができる。色付き領域間の境界は、色付きのライン/輪郭を用いて強調できる。同様に、追跡要素の周によって画定される縁部は、色付きのライン/輪郭を用いて強調できる。追跡システム100は、交互に着色された領域及び/又は境界ラインを使用することにより、特定の追跡要素108に関連するパターン/特徴部分の識別を補助できる。追跡要素108上に含まれる特徴部分は、各ツール及び/又はツールのタイプが別個に独立して識別可能となるように、外科用ツール106間で変化する。
追跡要素108に関連する画像データを用いて、外科用ツール106の配向を決定することもできる。追跡要素108に関連する画像データを用いて、外科用ツール106の位置を決定することもできる。外科用ツール106の配向及び/又は位置は、外科用ポート102に対して決定できる。例えば外科用ツール106の位置及び/又は配向を、外科用ポート102の既知の位置及び/又は配向と比較して、外科用ツール106の相対的な位置/配向を決定できる。別の実施例では、外科用ツール106の配向及び/又は位置は、手術室に対して決定できる。例えば外科用ツール106の位置及び/又は配向を、手術室内の外科用ポート102の既知の位置及び/又は配向と比較して、外科用ツール106の「全体的な(global)」位置/配向を決定できる。
図3は、追跡システム100の例示的実施形態の概略フローチャートを提供する。手術中、外科医は患者の身体にアクセスを生成でき、外科用ポート102をこのアクセスに挿入できる。図3に示すように、特定の医療処置中に、複数のアクセス及びこれに対応する数の外科用ポート102を使用できる。外科用ツール106を外科用ポート102のうちの少なくとも1つに設けることができる。各外科用ポート102において、カメラ104で画像データをキャプチャでき、これをコンピュータシステム122に供給できる。画像データは、外科用ツール106が外科用ポート102に近づくにつれてキャプチャできる。同様に画像データはまた、外科用ツール106を外科用ポート102のチャネル118部分に挿入するにつれてキャプチャできる。画像データは、追跡要素108の画像及び/又は医療処置を実施する外科医の一部分の画像を含むことができる。例示的なシステムでは、上記画像データは外科用ツール106(即ち追跡要素108の識別用特徴部分の画像データ)及び/又は外科医固有識別画像データと関連するものとすることができる。
特定の実施形態では、キャプチャされた画像データは、記憶及び分析のためにコンピュータシステム122に供給できる。例えばこの画像データは、コンピュータシステム122に常駐する画像処理アルゴリズムにおいて分析できる。コンピュータシステム122はツール固有追跡情報を決定できる。システムはまた、外科医固有追跡情報も決定できる。追跡情報は例えば、外科用ツール106の識別、外科用ツール106の配向、ケガ用ツール106の位置、外科医の識別、外科用ツール106を操作中の外科医の手の位置及び/又は運動を含むことができる。
図4は、カメラ104がキャプチャして画像処理アルゴリズムが分析した、追跡要素108の例示的実施形態の画像を提供する。画像処理アルゴリズムは、カメラ104がキャプチャした画像データから抽出された追跡要素108の画像を分析できる。画像処理アルゴリズムは追跡要素108の色の特徴を認識でき、識別された色の特徴に対応する、外科用ツール106に関連するIDを返信できる。画像処理アルゴリズムは画像データを事前処理して、画像のノイズを低減し、画像の輝度及びコントラストを改善できる。画像の各ピクセルを処理して、そのピクセルが目標の特徴部分に属するかどうかを決定できる。図4Cに示すようにバイナリイメージを生成でき、このバイナリイメージでは、白色ピクセルが可能性のあるマーカピクセルとして分類されている。例示的なアルゴリズムでは、追跡要素108の各特徴(例えば色)は特定の順序で識別される。色が分かった場合、関連する「フラグ」が(1)に設定され(ここで(0)フラグは無色を表す)、最終的な出力は(0)及び(1)からなるバイナリストリングとなる。この2進数を十進数に変換し、これを用いて外科用ツール106を識別できる。例えば図4に示す追跡要素108は、ピンク(0)、黄(1)、緑(0)、青(0)、茶(1)に一致する2進数01001を有することができる。結果として得られる十進数(9)は、外科用ツール106のIDとなる。
特定の実施形態では、目標の色はHSV空間において定義され、画像処理アルゴリズムに記憶される。この空間では、色調(H)、彩度(S)、輝度(V=value)に応じて3つのインデックスが色を定義する。低過ぎる値を有する色は黒色に近づき、これは影として定義でき、無視できる。追跡要素108の色は、HSV空間内の3次元マトリクスとして定義され、ピクセルは、その座標がこの空間の有効なセクタに属している場合は特定の色に割り当てられる。上記マトリクスの範囲を画定する値は、近距離かつ良好な照明条件から取得された単色のマーカのサンプル画像を用いて事前に定義できる。例示的なアルゴリズムでは、追跡要素108は色の分類を開始する前に画像の残りの部分から検出及び分離される。例えば図4に示すように、画像中の追跡要素108は円のハフ変換(Circular Hough Transform)を用いて検出でき、この機能はMATLAB(登録商標)Centralに既に実装されており、利用可能である。この機能は、画像から所定の範囲の半径の円を検出する。カメラ104からマーカまでの距離に応じて、追跡要素108の半径寸法を設定できる。円の外側のピクセルは(0)に設定する。円は正確にセグメント分割された状態でその全体が画像中に含まれていなければならないため、ツールの挿入が深過ぎるとそのツールを識別できない場合がある。従って追跡要素108からカメラ104までの距離は、これに応じて設定する必要がある。一実施例では、カメラ104と追跡要素108との間には最小距離15cmを維持できる。
例示的実施形態では、アルゴリズムは、色の誤分類が発生した場合を認識でき、そのデータを集計から排除できる。例えば、実施中の手術において使用されないマーカの数をアルゴリズムが返信する場合、又はシステムが色を0色又は4色以上検出する場合、データを集計から排除できる。
例示的実施形態はまた、外科用ツール106の通常の使用、例えば数十秒又は数分間に亘る同一の外科用ポート102を通した連続的な使用による誤分類を防止するよう構成することもできる。例えば外科用ポート102及び/又はアルゴリズムは、追跡要素108を複数回評価する必要があるものとすることができる。全ての同一の分類において単一の異なる検出が行われた場合、外科医が外科用ツール106をそれほど突然変更し、かつその外科用ツール106を僅か数秒だけ使用できるとは考えにくいため、これは恐らく誤認である。よって例示的な画像処理アルゴリズムは、これらの特異点を無視して正確な分類のみを考慮するよう構成できる。
例示的実施形態では、処理アルゴリズムはまた、マーカの色の予備登録を提供することもできる。HSV空間の範囲は照明の変化に影響されやすいため、画像処理アルゴリズムを実際の動作状況で訓練すると有益であり得る。例えば医療処置の開始前、スタッフはカメラ104を用いて、室内の実際の照明条件下で追跡要素108の単色のマーカの画像を登録できる。画像処理アルゴリズムはこれらの画像を用いて、後続の介入のための色の検索に使用するための範囲を定義できる。複数の動作条件に矛盾がない場合、較正を完了できる。
追跡システム100又はその構成部品は、医療処置情報を管理するための、コンピュータシステム122に常駐する情報管理システムと協働させて使用してよい。例えば、追跡システム100から受信した情報に基づいて、医療処置に関して責任を有する個人(例えば外科医、麻酔科医、病院スタッフ、経営陣等)は、実際の処置を、それが発生すると共に又は処置の後で制御/管理及び評価できる。管理システムはカメラ104から画像データを受信できる。この画像データは、使用中の外科用ツール106に関連付けられた追跡要素108を表すものとすることができる。画像データは既知のツールの有限個のセットに関連するものである必要はない。その代わり、画像データは医療処置中に使用できることが当該技術分野で公知であるいずれのツールに関連するものとすることができる。既に概説したように、画像データは外科医に関連する画像データも含むことができる。
外科用ツール106の識別及び位置を、上記画像データに基づいて決定できる。外科用ツール106の識別を決定する場合、追跡要素108に関連する画像データを記憶されているデータと比較して、対応する記憶されている外科用ツール識別を識別してよい。例えば、特定のパターン/特徴部分(色、形状、パターン、バーコード及び/又は記号等)に関連する画像データを記憶されている特徴部分データと比較して、記憶されている画像/特徴部分データに対応する外科用ツール106の識別を決定できる。
外科用ツール106の位置を決定する場合、追跡要素108(又は外科医)に関連する画像データを、外科用ポート102に関連する位置情報と比較してよい。例えば患者に対する外科用ポート102の既知の位置を用いて、患者に対する外科用ツール106の位置を得ることができる。その結果、外科用ツール106の位置を患者に対して決定でき、即ちこれは患者中心座標系である。手術室内の患者の位置に関する既知のデータを用いて、手術室内での外科用ツール106の位置を推定することもでき、即ちこれは手術室中心座標系である。
外科用ツール106の位置を、外科用ポート102に対して決定することもできる。例えば追跡要素108(又は外科医)に関連する画像データを分析して、外科用ポート102に対する外科用ツール106の配向を決定してよい。例えば、追跡要素108の既知のサイズ及び構成情報を用いて、画像データを分析して、外科用ツール106と外科用ポート102との間の距離、角度、回転等を決定してよい。例えば外科用ツール106のハンドルと外科用ポート102の開口120との間の距離を決定してよい。同様に、外科用ツール106と外科用ポート102との間の角度及び/又は回転を決定してよい。
追跡要素108の画像データの使用と同様に、カメラ104においてキャプチャされる、外科医に関連する画像データを用いて、外科医が外科用ツール106を操作する際の外科医の手の識別及び配置を決定してもよい。例えば外科医固有追跡要素又はマーカの画像データを記憶されているデータと比較して、外科医の識別を決定してよい。別の実施例では、外科医固有追跡要素又はマーカの画像データを、外科用ポート102に関連する位置情報と比較して、患者及び/又は手術室に対する外科医の位置を決定してよい。別の実施例では、外科医固有追跡要素又はマーカの画像データを分析して、外科医が操作中の外科用ツール106の外科用ポート102に対する配向を決定してよい。
情報管理システムは、画像データを用いて、医療処置の外科的ステップが完了したことを決定してよい。例えば1つ若しくは複数の識別された外科用ツール106及び/又は1つ若しくは複数の識別された外科用ツール106の時系列に基づいて、所定の医療処置中の特定のステップを決定してよい。1つ若しくは複数の識別された外科用ツール106(又は1つ若しくは複数の識別された外科用ツール106の時系列)を、所定の医療処置に関する既知の一連のステップと比較することによって、このシステムは、外科医が医療処置中に実施するステップを識別できる。別の実施例では、このシステムはまた、外科用ツール106の配置及び/又は配向を、既知のツールの配置/配向と比較して、医療処置中のステップを識別してよい。決定された外科的ステップに基づいて、医療処置中の次のステップを予想できる。例えば、チェックリスト又は警告といった、次のステップに関連する情報を、外科医/スタッフに提供してよい。同様に、外科医/スタッフは、承認待ちのツール又は消耗品の必要性(例えばスポンジ、縫合糸等)を評価してよい。
情報管理システムはまた、処置管理情報を決定してよい。処置管理情報は、識別された外科的ステップに関連する画像データに基づいて決定してよい。例えば識別された外科的ステップに基づいて、このシステムは医療処置の完了時点を算出してよい。外科スタッフはこのデータを用いて、外科的処置中の次のステップを予想し、消耗品(スポンジ、縫合糸等)に対する必要性を識別してよい。また麻酔科医がこのデータを用いて、処置の完了に必要な麻酔の量を推定してもよい。計算された完了時点は、現在の医療処置に関連する時間データも考慮してよい。例えば現在の医療処置に関連する時間データは、外科医がモデル処置に比べて外科的ステップの完了に10%多く時間を取っていることを示してよい。本システムはこの情報を用いて、外科医が全ての将来のステップを、モデルよりも10%長い処置中に完了するであろうことを推定してよい。本システムはまた、特定の外科医に関連する履歴データを考慮して外科医固有モデルを生成し、現在の処置と比較してもよい。
外科用ツール106及び/又は外科用ポート102の使用時間を決定してもよい。例えば管理システムは、医療処置中の様々な外科用ツール106の使用の時系列を追跡してよい。同様に各外科用ツール106の使用の長さを識別してもよい。機器交換回数(即ち処置中に異なる複数の外科用ツール106が使用される場合の、特定の外科用ツール106を使用した回数等)を識別してもよい。図3に示すように、コンピュータシステム122が外科用ポート102から受信した画像データを具備しているため、このシステムは外科用ポート102及び特定の外科用ツール106が使用中であることを識別し、識別された外科用ツール106/外科用ポート102それぞれに関する時系列を登録する。例えば第1のツール124は、1500秒の時点においておよそ500秒間の初期使用を示す。同様に第2のツール126は、およそ300秒の時点において初期使用を示し、その後ユーザによって中断される。第3のツール128は、およそ400秒の時点において初期使用を示し、その後ユーザによって中断される。図5は、例示的な外科的処置に関する時系列を提供する。図5に示すように、「腹部露出(Stomach Exposure)」ステップはおよそ600秒の時点で発生し、この時点において第1のツール124、第5のツール132は使用中であり、第2のツール126、第3のツール128、第4のツール130は使用中でない。
特定の実施形態では、外科的処置の効率を計算してよい。例えば効率の測定は、現在の処置をモデル処置と比較できる。例えば外科的処置の効率を計算するために、外科医が現在の処置を完了するのにかかる時間を、モデル処置の時間と比較してよい。この比較に基づいて、処置及び/又はこの処置内の特定のステップの効率を、実際の時間とモデル時間との比較結果がどれだけ近いかに基づいて決定してよい。
特定の実施形態では、外科的処置を実施する外科医に関連する技術レベルも計算してよい。外科医の技術レベルは、特定の処置における外科医の効率を考慮してよい。技術レベルの計算において、画像データを用いて、処置中の外科用ツール106の円滑な運動を追跡してよい。例えば追跡要素108及び/又は外科医の手に関連する画像データを用いて、外科用ツール106及び/又は外科医の手の運動の滑らかさを追跡し、外科用ツール106の運動に関するモデルと比較してよい。技術レベルは、消耗品の使用の推定を含んでもよい。例えば特定の消耗品(例えばスポンジ、縫合糸等を含む)の使用を追跡して、識別された処置に関するモデル消耗範囲と比較してよい。画像データを用いて、モデル範囲を超えた(又はモデル範囲未満の)消耗品の使用を識別でき、技術レベルに対して適切な影響を与えることができる。
単一の外科用ポート102において2つ以上の外科用ツール106を(順次)使用することも考えられる。また、ここで開示される追跡システム100及び情報管理システムが、それぞれ複数の外科用ツール106を使用する複数の外科用ポート102を(順次又は同時に)利用することも考えられる。画像データは、各外科用ポート102からの、各外科用ツール106を表す画像データを含むことができる。2つ以上の外科用ポート102を使用する場合、第2の外科用ポート102に関連する第2のカメラ104から受信される画像データは、第2の外科用ツール106に関連する追跡要素108を表す。既に概説したように、第2の外科用ツール106の識別は、キャプチャされた画像データに基づいて決定できる。
この画像データを用いて、対応する外科的ステップを決定できる。処置管理情報を決定する際、新たに決定された外科的ステップに関連する画像データを、医療処置と比較できる。過去に決定された外科的ステップを考慮し、これを上記新たに決定された外科的ステップと比較してもよい。この情報を用いて医療処置の変調を識別でき、外科医/スタッフに警告を提供できる。例えば外科医は医療処置のステップ1を完了してよく、次の識別されたステップはステップ3であり、即ち外科医はステップ2を飛ばしている。外科医/スタッフに、医療処置中のあるステップに失敗したことを示す警告を提供してよい。
様々な図面に関する、本明細書に記載の論理操作は:(1)計算デバイス(例えばコンピュータシステム)上で動作する、複数のコンピュータ実装型動作若しくはプログラムモジュール(即ちソフトウェア)のシーケンスとして;(2)計算デバイス内で相互接続された機械論理回路若しくは回路モジュールとして;並びに/又は(3)計算デバイスのソフトウェア及びハードウェアの組み合わせとして実装してよいことを理解されたい。よって本明細書で議論される論理操作は、ハードウェア及びソフトウェアのいずれの特定の組み合わせに限定されない。実装形態とは、計算デバイスの性能及びその他の要件に応じた選択の問題である。従って本明細書に記載の論理操作は、操作、構造デバイス、動作又はモジュールのように様々に呼ばれる。これらの操作、構造デバイス、動作及びモジュールは、ソフトウェア、ファームウェア、特定用途向けデジタル論理、及びこれらのいずれの組み合わせで実装してよい。図示したもの及び本明細書に記載のものより多い又は少ない数の操作を実行してもよいことを理解されたい。これらの操作はまた、本明細書に記載のものとは異なる順序で実行してもよい。
本明細書に記載の論理操作をソフトウェアで実装する場合、プロセスは、いずれの適切な計算アーキテクチャ又はプラットフォーム上で実行してよい。上述のように、例えばPCB、プロセッサ、制御回路、車両電子機器制御ユニットの機能を、いずれの適切な計算アーキテクチャ又はプラットフォーム上に実装してよい。図6に示す例示的実装形態は、本発明の実施形態を実装できる計算デバイスの一例を提供する。計算デバイス600は、計算デバイス600の様々な構成部品間で情報を通信するためのバス又はその他の通信機構を含んでよい。1つの基本的な構成では、計算デバイス600は典型的には少なくとも1つの処理ユニット606及びシステムメモリ604を含む。計算デバイスの構成及びタイプに応じて、システムメモリ604は揮発性(ランダムアクセスメモリ(RAM)等)、不揮発性(読み出し専用メモリ(ROM)、フラッシュメモリ等)又はこれら2つの何らかの組み合わせであってよい。1つのこのような構成を図6において破線602で示す。処理ユニット606は、計算デバイス600の操作のために必要な演算及び論理操作を実行する、標準的なプログラム可能なプロセッサであってよい。
計算デバイス600は、追加の特徴及び機能を有してよい。例えば計算デバイス600は、磁気ディスク若しくはテープ又は光学ディスク若しくはテープを含むがこれらに限定されないリムーバブルストレージ608及び非リムーバブルストレージ610といった、追加のストレージを含んでよい。計算デバイス600はまた、デバイスが他のデバイスと通信できるようにする1つ又は複数のネットワーク接続を含有してもよい。計算デバイス600はまた、キーボード、マウス、タッチスクリーン等といった1つ又は複数の入力デバイス614を有してもよい。計算デバイス600の構成部品間の通信を促進するために、追加のデバイスをバスに連結してよい。
例示的実施形態では、処理ユニット606は有体コンピュータ可読媒体内で符号化されたプログラムコードを実行するよう構成してよい。コンピュータ可読媒体とは、特定の様式で計算デバイス600(即ち機械)を動作させるデータを提供できるいずれの媒体を指す。様々なコンピュータ可読媒体を利用して、処理ユニット606に実行のための命令を提供してよい。コンピュータ可読媒体の一般的な形態は例えば、磁気媒体、光学媒体、物理媒体、メモリチップ若しくはカートリッジ、搬送波又はコンピュータが読み取ることができる他のいずれの媒体を含む。例示的なコンピュータ可読媒体は、揮発性媒体、不揮発性媒体、伝送媒体を含んでよいがこれらに限定されない。揮発性及び不揮発性媒体は、コンピュータ可読命令、データ構造、プログラムモジュール又は他のデータといった情報の記憶のためのいずれの方法又は技術で実装してよく、一般的な形式については以下で詳細に論ずる。伝送媒体は、同軸ケーブル、銅線及び/又は光ファイバケーブル、並びに電波及び赤外線データ通信中に生成されるもの等の音波又は光波を含んでよい。例示的な有体コンピュータ可読記録媒体は、集積回路(例えばフィールドプログラマブルゲートアレイ若しくは特定用途向けIC)、ハードディスク、光学ディスク、光磁気ディスク、フロッピー(登録商標)ディスク、磁気テープ、ホログラフィック記憶媒体、ソリッドステートデバイス、RAM、ROM、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、フラッシュメモリ若しくはその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)若しくはその他の光学ストレージ、又は磁気カセット、磁気テープ、磁気ディスクストレージ若しくはその他の磁気ストレージデバイスを含むがこれらに限定されない。
例示的実装形態では、処理ユニット606はシステムメモリ604に記憶されたプログラムコードを実行してよい。例えばバスはデータをシステムメモリ604に搬送してよく、処理ユニット606はシステムメモリ604から命令を受信して実行する。システムメモリ604が受信したデータは任意に、処理ユニット606による実行の前又は後に、リムーバブルストレージ608又は非リムーバブル610に記憶してよい。
例示的実施形態では、計算デバイス600は様々なコンピュータ可読媒体を含むことができる。コンピュータ可読媒体は、デバイス600がアクセスできるいずれの利用可能な媒体とすることができ、揮発性及び不揮発性両方の、リムーバブル及び非リムーバブル媒体を含む。コンピュータストレージ媒体は、コンピュータ可読命令、データ構造、プログラムモジュール又はその他のデータといった情報の記憶のためのいずれの方法又は技術で実装される、揮発性及び不揮発性のリムーバブル及び非リムーバブル媒体を含む。システムメモリ604及びリムーバブルストレージ608は全て、コンピュータストレージ媒体の例である。コンピュータストレージ媒体は、RAM、ROM、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、フラッシュメモリ若しくはその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)若しくはその他の光学ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ若しくはその他の磁気ストレージデバイス、又は所望の情報を記憶するために利用でき、かつ計算デバイス600がアクセスできる他のいずれの媒体を含むがこれらに限定されない。いずれのこのようなコンピュータストレージ媒体は、計算デバイス600の一部であってよい。
本明細書に記載の様々な技術は、ハードウェア若しくはソフトウェア、又は適切な場合はこれらの組み合わせと関連させて実装してよい。従ってここで開示した主題又はその特定の態様若しくは部分の方法及び装置は、フロッピーディスク、CD−ROM、ハードドライブ又は他のいずれの機械可読ストレージ媒体といった有体媒体内で実現されるプログラムコード(即ち命令)の形態を取ってよく、機械がプログラムコードをロードして実行すると、この機械は、ここで開示した主題を実行するための装置となる。プログラムコードをプログラマブルコンピュータ上で実行する場合、計算デバイスは、プロセッサ、プロセッサが読み出し可能なストレージ媒体(揮発性及び不揮発性メモリ及び/又はストレージ要素を含む)、少なくとも1つの入力デバイス、少なくとも1つの出力デバイスを含むことができる。1つ又は複数のプログラムは、例えばアプリケーションプログラミングインタフェース(API)、再使用可能な制御等の使用により、ここで開示した主題に関連して説明されたプロセスを実装又は利用してよい。このようなプログラムは、コンピュータシステムと通信するために、高級プログラミング言語又はオブジェクト指向プログラミング言語で実装してよい。しかしながら必要な場合は、1つ又は複数のプログラムをアセンブリ言語又は機械語で実装できる。いずれの場合においても、言語はコンパイラ言語又はインタプリタ言語であってよく、ハードウェア実装と組み合わせてよい。
実験結果
識別アルゴリズム及びマーカの改善により、システムの認識速度が上昇した。第1のバージョンでは、マーカはボール紙の単純なディスクであり、インクジェットプリンタを用いて印刷されていた。実際のところ、最終的な結果は粗く、色の均一性が不完全なものであり、これは識別システムに誤認をもたらす場合があった。更に、この種のプリンタは最終結果に対して良好な制御を実施できず、従って実際のマーカの色は、コンピュータ上で設計されたものとは異なる見た目となっていた。これはHSV空間内で暗過ぎる色及び近過ぎる色を生成するため、問題であった。コンピュータ上では、複数の色は離れた色調並びに良好な彩度及び輝度を有するように設計されていた。明るく鮮明な色は、影の存在による誤分類のリスクを低減する。第2のバージョンでは、円の検出が追加され、黒色の円をマーカの周囲に追加することにより、マーカを背景から区別しやすくした。
最終バージョンでは、マーカは専用の印刷術によって光沢のある紙に印刷された。この紙を黒色発泡ボードのディスクに接着した。この製品は、精度、輝度及び均一性といった役に立つ特徴を示し、正確な分類の割合の一貫した改善をもたらした。図7では、これら異なるバージョンのサンプルを確認できる。表1は、各色に関する、HSV空間における対応する範囲を示し、これらは異なるマーカプロトタイプに対して再定義しなければならない。
Figure 0006419080
表1に示すように、第3の実装形態の比較的均一なマーカにより、上記範囲を狭めることができ、HSV空間内での色と色の間の距離を増大させることができ、従って誤認の蓋然性を低下させることができた。またこれにより、茶色を、影の存在による影響を受けにくい比較的明るい色である赤に置換できた。
第1の実装形態に関して、2つの異なる配向(上向き又は下向き)の腹腔鏡ツールを示す、カメラから3種類の距離(5、20、30cm)における153点の写真で、25個のマーカ(第1の種類)を評価した。これらの画像のうちの82点において、分類は正確であった(53.6%)。誤分類は、マーカの誤認識、又は他の対象をマーカとして分類してしまうことによるものであった。誤陽性の総数は49、誤陰性の総数は46であった。表2、3は、各色が誤分類にどの程度寄与しているかを示す。最も問題のある色が緑であることは即座に確認できる。緑は、緑が存在する63点の写真のうち30点でしか認識されなかった。更に、この試験で使用した青色の外科用グローに存在する影は通常、緑として分類され、誤陽性を引き起こす。HSVフィールドにおける緑色の定義は明らかに不正確であった。
Figure 0006419080
Figure 0006419080
緑という特定の場合を除いて、誤陰性の数はそれほど多くはなく、これはアルゴリズムが、ある色が存在する場合はその色を認識できることが多いことを示している。誤陽性に関してより問題となるのは、この種の誤分類の94%が、低い値を有する色によって引き起こされたという状況である。この状況は、グロー又は皮膚上に存在するいくつかの影がHSVインデックスの上記範囲に属し得るために発生し得る。プリンタの結果を最適化できる場合には、最終バージョンのマーカにおいてこのような低い値の色を避けた。全写真において正確に分類されたマーカは、青−茶、黄−青、ピンク−黄−青といった数個のみであった。緑−ピンク及び黄−緑−ピンクの2つのマーカは常に誤分類された(緑の設定に関する上述の問題と相関していることは明らかである)。
別の観察は、マーカの構成に関するものであり、即ち単色のマーカは他のものより視認しやすいか又はその逆であるかに関するものである。利用可能なデータの分析によって、この因子は表4に示すようにそれほど大きな影響を有しないことが示唆される(不正確な分類は各棒グラフの頂部に示され、正確な分類は各棒グラフの底部に示される)。
Figure 0006419080
2色のマーカに関して正確な分類の率が僅かに高いが、その理由を決定するのは困難である。3色マーカを使用するといくつかの困難が発生し得る。即ちディスクの少なくとも半分が既に視認可能である場合でさえ、1つのセクタは部分的に画像の外側となるか、又は他の2つのセクタに比べて影になっている部分が多く、2色だけでは何ら影響がないという問題を生じる。ここで確認しておくべき1つの重要な側面は、マーカを認識可能とするために比較的広い着色領域を有するようにする必要はないということである。現在使用されているセクタは、単色のマーカと比較可能な結果をもたらす。
カメラからの距離又は位置もまた、結果に対して特定の影響を有しない。82個の正確な分類は、この試験において試験された6つの位置に沿ってほとんど均等に分布する。マーカがカメラの焦点線上にない場合、このマーカが画像内で不鮮明となることがある(輪郭は、距離が30又は20cmの低い位置に関してのみ鮮明である)。それにも関わらず上記マーカの識別は損なわれない。これにより、カメラの配向を将来変更するにあたって良好なマージンが得られる。
第2の実装形態に関して試験された一連の画像は更に幅広いものであり、合計192点の画像に関して、8つの異なる位置(カメラから上下に15、19、20又は25cm)で24個のマーカを試験した。この192点の画像のうち、155点が正確に分類された(80.7%)。誤認の原因は、画像内の円の誤検出(11件、発生率5.7%)又は画像内に存在する色の誤分類(26件、13.6%)であり、色の誤分類のうち11件が誤陽性、17件が誤陰性であった。異なる複数の位置における正確な分類の割合は均一に分布しており、これはマーカ識別に対するツールの位置の影響の証拠が存在しないことを示す。
誤分類に対する色の影響を表5、6に示す。
Figure 0006419080
Figure 0006419080
緑及びオレンジは、このタイプの誤認に対して僅かに強い影響を有する。誤陽性に関しては、典型的には青を緑として、及びピンクをオレンジとして識別する場合が発生する。値の範囲間の距離が更に大きい色を使用することによって、この問題を低減できるはずである。いずれにせよ、背景ノイズの低減の結果として、第1の実装形態から著しい改善が見られる。
円検出を提供するものの色識別の後にフィルタリングを提供しない最終バージョンのアルゴリズムに対して、専用の方式で印刷され発泡ボードディスクに組み付けられた25個のマーカを用いて、最後の試験を実施した。動画から抽出された写真は、カメラから15、20、25cmの位置であり、合計300点の写真に関して擬似ツールの4つの異なる配向(上下左右)を提供する。マーカの品質の有意な改善及びコードの若干の修正により、正確な分類が96.66%となるという印象的な結果が得られた。各距離における割合を表7に示す。
Figure 0006419080
この最後の試験の別の重要な結果は、マーカの輪郭の不正確な検出に関するエラーが発生しなかったことである。このシステムは写真内のマーカを一貫して識別できた。この改善は、マーカの品質がより良好であることに応じたものであると思われる。というのは、アルゴリズムの関連する部分に対しては何ら修正を行わなかったためである。マーカの検出は信頼性が極めて高いという知見は、アルゴリズムを、それ自体による誤分類を識別できるよう訓練するにあたって重要となる。10個のエラーは、赤色しか存在しない場合にピンク又は黄が存在するように間違う等、HSV空間内で近接した色の間の混乱によるものであった。これが発生するのは、光がマーカに当たって異なる色の影を生成するという稀な場合のみである。
これまでに得られた結果は、手術室の評価という比較的広範なプロジェクトにおいて、修正されたトロカールが機器の認識を実行するための有効なリソースとなり得ることを示している。外科用ツール追跡システムを、修正されたトロカールと共に使用することによって、腹腔鏡胆嚢摘除のシミュレーションを記録できる。この手術は複数の望ましい特性を有する。即ち過度に時間がかかることはなく、標準的な複数のステップのシーケンスに従って実行され、最も特徴的な複数のツールに対して1つのメインポートしか必要としない(他のアクセスは副次的なものであり、主に把持器のために使用される)。手術中にトロカールが記録した動画を複数のフレームでサンプリングし、各フレームにおいてソフトウェアはツールのマーカを識別しようとする。実際のツールのシーケンスとソフトウェアが識別したものとを比較することにより、システムがその目的に対して効果的であるかどうかが分かる。
上述の説明及び図面は本発明の実施例を示しているが、添付の請求項によって定義されるような本発明の精神及び範囲から逸脱することなく、様々な追加、修正、組み合わせ及び/又は置換を上記実施例において実施してよいことを理解されたい。特に、本発明を、本発明の精神又は本質的な特徴から逸脱することなく、他の具体的形態、構造、配置及び割合で、並びに他の要素、材料及び構成部品を用いて実現してよいことは、当業者には明らかであろう。本発明を、本発明の原理から逸脱することなく、特定の環境及び動作要件に特に適合している、本発明の実行において使用される構造、配置、割合、材料、構成部品やその他に多数の修正を加えて使用してよいことは、当業者には理解されるであろう。更に本明細書で説明した特徴は、単独で又は他の特徴と組み合わせて使用してよい。ここで開示した実施例は、あらゆる点で例示的かつ非限定的なものと見做されるべきものであり、本発明の範囲は添付の請求項によって示され、ここまでの説明に限定されることはない。
上述の実施例の広範な発明的概念から逸脱することなく、上述の実施例に対して変更を加えることができることは、当業者には理解されるであろう。従って本発明はここで開示した特定の実施例に限定されず、以下の請求項によって定義されるような本発明の精神及び範囲内での修正を包含することを意図したものであることが理解される。
以下の参考文献の内容は、参照により本出願に援用される。
・Agarwal S,Joshi A,Finin T,Yesha Y.A Pervasive Computing System for the Operating Room of the Future.Mobile Networks and Applications.2007;12:215−28.
・Blum T,Padoy N,Feussner H,Navab N.Modeling and online recognition of surgical phases using Hidden Markov Models.Med Image Comput Comput Assist Interv.2008;11:627−35.
・Doryab A,Bardram JE.Designing activity−aware recommender systems for operating rooms.Proceedings of the 2011 Workshop on Context−awareness in Retrieval and Recommendation.New York,NY,USA;2011;43−6.
・Doryab A,Togelius J,Bardram J.Activity−aware recommendation for collaborative work in operating rooms.Proceedings of the 2012 ACM international conference on Intelligent User Interfaces.New York,NY,USA;2012;301−4.
・Kranzfelder M,Schneider A,Blahusch G,Schaaf H,Feussner H.Feasibility of opto−electronic surgical instrument identification.Minim Invasive Ther Allied Technol.2009;18(5):253−8.
・Liu CC,Chang CH,Su MC,Chu HT, Hung SH,Wong JM,et al.RFID−initiated workflow control to facilitate patient safety and utilization efficiency in operation theater.Comput Methods Programs Biomed.2011;104(3):435−42.
・Marjamaa R, Vakkuri A,KirvelA O.Operating room management:why, how and by whom? Acta Anaesthesiologica Scandinavica.2008;52:596−600.
・Neumuth D,Loebe F,Herre H,Neumuth T.Modeling surgical processes:a four−level translational approach.Artif Intell Med.Netherlands.2011;51(3):147−61.
・Neumuth T,Jannin P,Schlomberg J,Meixensberger J,Wiedemann P,Burgert O.Analysis of surgical intervention populations using generic surgical process models.Int J Comput Assist Radiol Surg.2011;6:59−71.
・Neumuth T,Jannin P,Strauss G,Meixensberger J,Burgert O.Validation of knowledge acquisition for surgical process models.J Am Med Inform Assoc.2009;16(1):72−80.
・Neumuth T,Straus G,Meixensberger J,Lemke H,Burgert O.Acquisition of Process Descriptions from Surgical Interventions.Lecture notes in computer science.2006;4080:602−11.
・Padoy N,Blum T,Ahmadi S−A,Feussner H,Berger M−O,Navab N.Statistical modeling and recognition of surgical workflow.Medical Image Analysis.2012;16:632−41.
・Schoepp H.Surgical Navigation System.United States 2012.

Claims (13)

  1. 外科用ツール追跡システムであって:
    患者の体外に配置されるよう構成された近位端と、前記患者の身体の内部に配置されるよう構成された遠位端とを備える外科用ポート、及び前記近位端と前記遠位端との間に延在するチャネル;
    前記外科用ポートに挿入される外科用ツールの前記近位端側に位置するハンドル部分に連結するよう構成された追跡要素;並びに
    前記追跡要素に関連する画像データをキャプチャするよう構成された、前記外科用ポートの前記近位端に設置されかつ前記追跡要素に向けて配向されるカメラ
    を備える、外科用ツール追跡システム。
  2. 前記外科用ポートはトロカールであり、
    前記トロカールは、前記近位端に基部を、そして前記遠位端にカニューレを備え、
    前記カメラは前記基部に設置される、請求項1に記載の外科用追跡システム。
  3. 前記カメラは前記外科用ポートに対して固定位置にある、請求項1に記載の外科用追跡システム。
  4. 前記カメラは前記外科用ポート上で可動である、請求項1に記載の外科用追跡システム。
  5. 前記カメラは前記追跡要素に向かって配向される、請求項1に記載の外科用追跡システム。
  6. 前記カメラは前記患者の前記身体から離れる方向に配向される、請求項1に記載の外科用追跡システム。
  7. 前記カメラは前記追跡要素を照明するための発光要素を含む、請求項1に記載の外科用追跡システム。
  8. コンピュータシステムを更に備え、
    前記カメラは前記コンピュータシステムと通信して、前記画像データを前記コンピュータシステムに伝送する、請求項1に記載の外科用追跡システム。
  9. 前記追跡要素は、色、形状、パターン、バーコード及び記号のうちの少なくとも1つを含む、請求項1に記載の外科用追跡システム。
  10. 外科用ツールを更に備え、
    前記外科用ツールは、前記外科用ポートの前記チャネルを通して前記患者の前記身体の内部にアクセスできるようサイズ設定及び構成され、
    前記追跡要素は前記外科用ツールに連結される、請求項1に記載の外科用追跡システム。
  11. 前記追跡要素は、前記外科用ツールの識別、前記外科用ツールの配向及び前記外科用ツールの位置のうちの少なくとも1つに対応する、請求項1に記載の外科用追跡システム。
  12. 前記追跡要素は、ディスク状デバイスを含む、請求項1に記載の外科用追跡システム。
  13. 前記カメラは更に、外科医に関連する画像データをキャプチャするよう構成される、請求項1に記載の外科用追跡システム。
JP2015545873A 2012-12-07 2013-12-06 外科的処置管理システム及び方法 Expired - Fee Related JP6419080B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261734506P 2012-12-07 2012-12-07
US61/734,506 2012-12-07
PCT/US2013/073592 WO2014089439A1 (en) 2012-12-07 2013-12-06 Surgical procedure management systems and methods

Publications (2)

Publication Number Publication Date
JP2015536738A JP2015536738A (ja) 2015-12-24
JP6419080B2 true JP6419080B2 (ja) 2018-11-07

Family

ID=50884025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015545873A Expired - Fee Related JP6419080B2 (ja) 2012-12-07 2013-12-06 外科的処置管理システム及び方法

Country Status (5)

Country Link
US (1) US10470687B2 (ja)
EP (1) EP2928406B1 (ja)
JP (1) JP6419080B2 (ja)
CA (1) CA2893786C (ja)
WO (1) WO2014089439A1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150150641A1 (en) * 2011-10-28 2015-06-04 Navigate Surgical Technologies, Inc. System and method for determining the three-dimensional location and orientation of identification markers
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
EP2769689B8 (en) * 2013-02-25 2018-06-27 Stryker European Holdings I, LLC Computer-implemented technique for calculating a position of a surgical device
AU2014248758B2 (en) 2013-03-13 2018-04-12 Stryker Corporation System for establishing virtual constraint boundaries
JP6272458B2 (ja) * 2013-04-30 2018-01-31 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びこれを用いたトラッキング方法
US10154882B2 (en) 2014-03-24 2018-12-18 University Of Houston System Global laparoscopy positioning systems and methods
US10799146B2 (en) * 2014-03-24 2020-10-13 University Of Houston System Interactive systems and methods for real-time laparoscopic navigation
US9402691B2 (en) * 2014-09-16 2016-08-02 X-Nav Technologies, LLC System for determining and tracking movement during a medical procedure
US9905000B2 (en) 2015-02-19 2018-02-27 Sony Corporation Method and system for surgical tool localization during anatomical surgery
CA3009787A1 (en) 2015-12-31 2017-07-06 Stryker Corporation System and methods for performing surgery on a patient at a target site defined by a virtual object
WO2019016815A1 (en) * 2017-07-20 2019-01-24 Hazan Nir POLYCHROMIC RECTANGULAR PHOTO MARKERS AND METHODS USING SAME
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11564703B2 (en) 2017-10-30 2023-01-31 Cilag Gmbh International Surgical suturing instrument comprising a capture width which is larger than trocar diameter
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US20190201139A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Communication arrangements for robot-assisted surgical platforms
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11659023B2 (en) * 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US20190201039A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Situational awareness of electrosurgical systems
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11298148B2 (en) 2018-03-08 2022-04-12 Cilag Gmbh International Live time tissue classification using electrical parameters
US11701162B2 (en) 2018-03-08 2023-07-18 Cilag Gmbh International Smart blade application for reusable and disposable devices
US11259806B2 (en) 2018-03-28 2022-03-01 Cilag Gmbh International Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US20200015924A1 (en) 2018-07-16 2020-01-16 Ethicon Llc Robotic light projection tools
US10679743B2 (en) * 2018-09-12 2020-06-09 Verb Surgical Inc. Method and system for automatically tracking and managing inventory of surgical tools in operating rooms
US11259807B2 (en) 2019-02-19 2022-03-01 Cilag Gmbh International Staple cartridges with cam surfaces configured to engage primary and secondary portions of a lockout of a surgical stapling device
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
US20210378760A1 (en) * 2020-06-04 2021-12-09 Trumpf Medizin Systeme Gmbh & Co. Kg Locating system for medical devices
US11857274B2 (en) * 2021-01-13 2024-01-02 MediVis, Inc. Medical instrument with fiducial markers
US11744652B2 (en) 2021-01-13 2023-09-05 MediVis, Inc. Visualization of predicted dosage
US20240112809A1 (en) * 2021-03-26 2024-04-04 The General Hospital Corporation Interpretation of intraoperative sensor data using concept graph neural networks
EP4105939A1 (en) * 2021-06-15 2022-12-21 Cilag GmbH International Analyzing surgical trends by a surgical system

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08164148A (ja) * 1994-12-13 1996-06-25 Olympus Optical Co Ltd 内視鏡下手術装置
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
US7231063B2 (en) * 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
CA2646363C (en) 2006-03-14 2015-07-21 The Johns Hopkins University Apparatus for insertion of a medical device within a body during a medical imaging process and devices and methods related thereto
JP5146692B2 (ja) * 2006-03-30 2013-02-20 アクティビューズ リミテッド 光学的位置測定ならびに剛性または半可撓性の針の標的への誘導のためのシステム
JP5085996B2 (ja) * 2006-10-25 2012-11-28 テルモ株式会社 マニピュレータシステム
US20090327715A1 (en) * 2007-05-04 2009-12-31 Smith Kevin W System and Method for Cryptographic Identification of Interchangeable Parts
US20090312629A1 (en) * 2008-06-13 2009-12-17 Inneroptic Technology Inc. Correction of relative tracking errors based on a fiducial
US9668820B2 (en) 2009-08-20 2017-06-06 Brainlab Ag Integrated surgical device combining instrument, tracking system and navigation system
US8392342B2 (en) * 2009-11-18 2013-03-05 Empire Technology Development Llc Method and apparatus for predicting movement of a tool in each of four dimensions and generating feedback during surgical events using a 4D virtual real-time space
US20110263971A1 (en) 2010-04-22 2011-10-27 Constantinos Nikou Reconfigurable Navigated Surgical Tool Tracker
US8657809B2 (en) * 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US9498231B2 (en) * 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery

Also Published As

Publication number Publication date
US20140171787A1 (en) 2014-06-19
US10470687B2 (en) 2019-11-12
CA2893786C (en) 2021-01-05
EP2928406A4 (en) 2016-12-14
EP2928406A1 (en) 2015-10-14
EP2928406B1 (en) 2019-02-20
JP2015536738A (ja) 2015-12-24
WO2014089439A1 (en) 2014-06-12
CA2893786A1 (en) 2014-06-12

Similar Documents

Publication Publication Date Title
JP6419080B2 (ja) 外科的処置管理システム及び方法
JP6931121B2 (ja) 外科用認識システム
Bouget et al. Vision-based and marker-less surgical tool detection and tracking: a review of the literature
US11871901B2 (en) Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
CN104582622B (zh) 用于外科和介入医疗程序中的跟踪和控制的双模立体成像系统
Reiter et al. Appearance learning for 3D tracking of robotic surgical tools
CN110276368B (zh) 用于对组织样本进行分类的方法和分析设备
Allen et al. Visual tracking of laparoscopic instruments in standard training environments
CN105828703A (zh) 基于标记的工具跟踪
EP2931161A1 (en) Markerless tracking of robotic surgical tools
US20220358773A1 (en) Interactive endoscopy for intraoperative virtual annotation in vats and minimally invasive surgery
US9936879B2 (en) Method, system and apparatus for adaptive image acquisition
KR20210056239A (ko) 컴퓨터 비전에 기초한 수술 장면 평가
US20230190136A1 (en) Systems and methods for computer-assisted shape measurements in video
Voros et al. Automatic localization of laparoscopic instruments for the visual servoing of an endoscopic camera holder
Dagnino et al. New software tools for enhanced precision in robot-assisted laser phonomicrosurgery
EP3881793A1 (en) Surgical instrument and computer-implemented method for determining the position and orientation of such surgical instrument
Lahane et al. Detection of unsafe action from laparoscopic cholecystectomy video
WO2024004013A1 (ja) プログラム、情報処理方法、及び情報処理装置
WO2021206556A1 (en) Tracking position and orientation of a surgical device through fluorescence imaging
US20240081611A1 (en) Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US20230233272A1 (en) System and method for determining tool positioning, and fiducial marker therefore
Jabbar Automated Stand-alone Surgical Safety Evaluation for Laparoscopic Cholecystectomy (LC) using Convolutional Neural Network and Constrained Local Models (CNN-CLM)
EP4323975A1 (en) Systems and methods for ai-assisted medical image annotation
Smith Instrument tracking and analysis in minimal access surgery for surgical skill assessment

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20160708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6419080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees