JP2018513755A - 解剖学的手術中の手術ツール位置特定の方法及びそのためのシステム - Google Patents

解剖学的手術中の手術ツール位置特定の方法及びそのためのシステム Download PDF

Info

Publication number
JP2018513755A
JP2018513755A JP2017560903A JP2017560903A JP2018513755A JP 2018513755 A JP2018513755 A JP 2018513755A JP 2017560903 A JP2017560903 A JP 2017560903A JP 2017560903 A JP2017560903 A JP 2017560903A JP 2018513755 A JP2018513755 A JP 2018513755A
Authority
JP
Japan
Prior art keywords
surgical tools
surgical
mask
video frame
video frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017560903A
Other languages
English (en)
Other versions
JP6525174B2 (ja
Inventor
チェン−ルイ チョウ
チェン−ルイ チョウ
ミン−チャン リウ
ミン−チャン リウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2018513755A publication Critical patent/JP2018513755A/ja
Application granted granted Critical
Publication of JP6525174B2 publication Critical patent/JP6525174B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

解剖学的手術中に手術ツールを位置特定するために、画像取り込みデバイス(218)は、手術現場の画像を取り込み、プロセッサ(202)は、色制約及び幾何学的制約に基づいて画像(例えば、406b)に存在する手術ツールの物理特性を決定する(906)。手術ツールの2Dマスクが、手術ツールの物理特性に基づいて検出される(908)。更に、手術ツールの姿勢が、手術ツールの2Dマスクが手術ツールの先端及び/又は終端で遮蔽されている時に推定される(912)。【選択図】図1

Description

〔関連出願への相互参照/引用による組み込み〕
本出願は、これにより引用によってその内容全体が組み込まれる2015年2月19日出願の米国仮特許出願第62/118,043号に対する優先権を主張するものである。
本発明の開示の様々な実施形態は、手術ツール位置特定の方法及びそのためのシステムに関する。より具体的には、本発明の開示の様々な実施形態は、解剖学的手術中の手術ツール位置特定の方法及びそのためのシステムに関する。
最近の医療科学における進歩により、今日では様々な手術手順及び診断手順は、最小侵襲技術を用いて実行することができる。そのような最小侵襲技術は、患者の皮膚を通して体腔内に内視鏡手術器具又は腹腔鏡手術器具を挿入するために小さい切開を必要とする場合がある。内視鏡手術ツール及び/又は腹腔鏡手術ツールは、体腔のビデオ画像を取り込むための内蔵カメラを含む場合がある。ビデオ映像は、医師が体腔内の指定解剖領域に対して手術手順又は診断手順を実行することを可能にするために医師に実時間で表示することができる。
ある一定のシナリオでは、体腔内の手術器具の1又は2以上の部分の明瞭な視野が、体腔内の別の手術器具、手術ガーゼ、組織、及び/又は煙/霞の1又は2以上の部分によって遮蔽される場合がある。この遮蔽は、医師が手術手順又は診断手順を実行する時に医師に対して障害を引き起こす場合がある。従って、体腔内で手術器具をモニタして位置特定するための手術手順又は診断手順のビデオ映像の実時間解析に対する必要性が存在する。
従来的手法及び因習的手法の更に別の限界及び欠点は、本出願の残りの部分で図面を参照して示すような本発明の開示の一部の態様との説明するシステムの比較を通して当業者には明らかになるであろう。
特許請求の範囲により完全に列挙するような実質的に図のうちの少なくとも1つに示し、及び/又はそれに関連付けて説明するような解剖学的手術中に手術ツールを位置特定する方法及びシステム。
本発明の開示のこれら及び他の特徴及び利点は、全体を通して類似の参照番号が類似の部分を指す添付図面と共に本発明の開示の以下の詳細説明の精査から認めることができる。
本発明の開示の実施形態によるネットワーク環境を示すブロック図である。 本発明の開示の実施形態による例示的画像処理サーバを示すブロック図である。 本発明の開示の実施形態による例示的ユーザ端末を示すブロック図である。 本発明の開示の実施形態によりビデオフレーム内で1又は2以上の手術ツールの姿勢を推定する方法の例示的流れ図である。 本発明の開示の実施形態によりビデオフレームから1又は2以上の煙ブロックを除去する方法の例示的流れ図である。 本発明の開示の実施形態によりビデオフレーム内の1又は2以上の手術ツールの予備2次元(2D)マスクを精緻化する方法の例示的流れ図である。 本発明の開示の実施形態によるビデオフレーム内の1又は2以上の手術ツールの姿勢の例示的シナリオを示す図である。 本発明の開示の実施形態によるビデオフレーム内の1又は2以上の手術ツールの姿勢の例示的シナリオを示す図である。 本発明の開示の実施形態によるビデオフレーム内の1又は2以上の手術ツールの姿勢の例示的シナリオを示す図である。 本発明の開示の実施形態によるビデオフレーム内の1又は2以上の手術ツールの姿勢の例示的シナリオを示す図である。 本発明の開示の実施形態によりユーザ端末上に提示することができるユーザインタフェース(UI)の例示的シナリオを示す図である。 本発明の開示の実施形態により解剖学的手術中に手術ツールを位置特定する例示的方法を示す例示的流れ図である。
以下で説明する実施は、解剖学的手術中の手術ツール位置特定のための本発明の開示の方法及びシステムに見出すことができる。本発明の開示の例示的態様は、画像処理エンジンに実施可能な方法を含むことができる。画像処理エンジンは、画像取り込みデバイスに通信的に結合することができる。画像取り込みデバイスは、1又は2以上のビデオフレームを取り込むように構成することができる。本方法は、1又は2以上のビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性の決定を含むことができる。1又は2以上の物理特性の決定は、1又は2以上の色制約及び幾何学的制約に基づく場合がある。その後に、決定された1又は2以上の手術ツールの1又は2以上の物理特性に基づいて、1又は2以上のビデオフレームに存在する1又は2以上の手術ツールの2次元(2D)マスクを検出することができる。更に、1又は2以上の手術ツールの2Dマスクが1又は2以上の手術ツールの先端及び/又は終端で遮蔽されている時に、1又は2以上の手術ツール内の1又は2以上の手術ツールの姿勢を推定することができる。
実施形態により、1又は2以上のビデオフレームが1又は2以上の煙ブロックで遮蔽されている時に煙なしビデオフレームを発生させるために、1又は2以上のビデオフレームから1又は2以上の煙ブロックを除去することができる。実施形態により、1又は2以上のビデオフレームの前のビデオフレームセットの各々内で、1又は2以上の煙領域を検出することができる。1又は2以上のビデオフレームからの1又は2以上の煙ブロックの除去は、1又は2以上のビデオフレームの前のビデオフレームセットの各々内の検出された1又は2以上の煙領域内のピクセルセットの累積強度に基づく場合がある。
実施形態により、煙なしビデオフレーム内の1又は2以上の手術ツールの検出された2Dマスク内の1又は2以上の手術ツールの色特性に基づいて輪郭展開を実行することができる。輪郭展開の実行は、煙なしビデオフレーム内の検出された2Dマスクの輪郭の内側及び/又は外側の領域の曲率と強度分散とに更に基づく場合がある。更に、煙なしビデオフレーム内で1又は2以上の手術ツールを検出するために、輪郭展開に基づいて煙なしビデオフレームのセグメント化を実行することができる。
実施形態により、1又は2以上のビデオフレームの各領域に対して適応色フィルタリングを実行することができる。適応色フィルタリングは、1又は2以上の色制約に対応し、かつ1又は2以上のビデオフレームの各領域内のピクセル強度に基づく場合がある。適応色フィルタリングは、opp2色強度ベースのフィルタリング及び/又は正規化opp2色強度ベースのフィルタリングのうちの1つ又は2つに基づいて実行することができる。実施形態により、1又は2以上のビデオフレームに存在する1又は2以上の手術ツールの2Dマスクの検出は、適応色フィルタリングに基づく場合がある。
実施形態により、1又は2以上の手術ツールの検出された2Dマスクの解析に基づいて、1又は2以上のビデオフレーム内の1又は2以上の手術ツールの先端及び/又は終端の位置を推定することができる。検出された2Dマスクの解析は、1又は2以上の手術ツールの検出された2Dマスクの長手主軸に沿って延びることができる第1の方向ベクトルに沿って実行することができる。実施形態により、1又は2以上のビデオフレーム内の1又は2以上の手術ツールの先端及び/又は終端の位置の重心を決定することができる。重心が1又は2以上の手術ツールの検出された2Dマスクの外側に位置する時又は重心が遮蔽されている時に、1又は2以上のビデオフレーム内の1又は2以上の手術ツールの先端及び/又は終端の位置を再推定することができる。1又は2以上の手術ツールの先端及び/又は終端の位置の再推定は、第2の方向ベクトルに沿った1又は2以上の手術ツールの検出された2Dマスクの解析に基づく場合がある。第2の方向ベクトルは、第1の方向ベクトルに対して予め決められた角度にあるとすることができる。
実施形態により、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの先端が遮蔽されている時の1又は2以上の手術ツールの終端の推定位置に基づく場合がある。更に、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの重心及び/又は終端が遮蔽されている時の1又は2以上の手術ツールの先端の推定位置に基づく場合がある。
実施形態により、1又は2以上のビデオフレーム内の1又は2以上の手術ツールの姿勢の推定に基づいて、画像取り込みデバイスの1又は2以上の画像取り込み設定を調節することができる。1又は2以上の画像取り込み設定の例は、自動露光、自動フォーカス、自動ホワイトバランス、又は自動照明を含むことができるがこれらに限定されない。
実施形態により、解剖学的手術中に現在の1又は2以上のビデオフレームをユーザインタフェース(UI)を通してユーザ(医師のような)に実時間で表示することができる。1又は2以上の手術ツールは、UIを通してユーザに表示される現在の1又は2以上のビデオフレーム内でマスキング又は強調表示することができる。実施形態により、1又は2以上の手術ツールの先端及び/又は終端での1又は2以上の手術ツールの遮蔽を示す通知を発生させることができる。通知の例は、音声警告、文字警告、視覚警告、又は触覚警告を含むことができるがこれらに限定されない。
図1は、本発明の開示の実施形態によるネットワーク環境を示すブロック図である。図1を参照すると、ネットワーク環境100が示されている。ネットワーク環境100は、手術デバイス102と、画像処理サーバ104と、ビデオデータベース106と、ユーザ端末108と、通信ネットワーク110とを含むことができる。手術デバイス102は、通信ネットワーク110を通じて画像処理サーバ104、ビデオデータベース106、及びユーザ端末108に通信的に結合することができる。
手術デバイス102は、患者の1又は2以上の解剖学的領域に関する1又は2以上の手術手順及び/又は診断分析を実施するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。手術デバイス102の例は、最小侵襲手術/診断デバイス、最小切開手術/診断デバイス、及び/又は内視鏡/腹腔鏡手術/診断デバイスを含むことができるがこれらに限定されない。
実施形態により、手術デバイス102は、画像取り込みデバイス(図1には示していない)を更に含むことができる。画像取り込みデバイスは、患者の解剖学的領域に対して手術手順又は診断手順が実行される時にこの解剖学的領域の1又は2以上のビデオフレームを取り込むことができる。これに代えて、手術デバイス102は、通信ネットワーク110を通じて画像取り込みデバイスに通信的に結合することができる。画像取り込みデバイスの例は、内視鏡/腹腔鏡カメラ、医療共鳴撮像(MRI)デバイス、コンピュータ断層撮像(CT)走査デバイス、最小侵襲医療撮像デバイス、及び/又は最小切開医療撮像デバイスを含むことができるがこれらに限定されない。
画像処理サーバ104は、ユーザ端末108及び/又は手術デバイス102等の1又は2以上の認可電子デバイスに画像処理サービスを提供することができる1又は2以上のサーバを含むことができる。実施形態により、画像処理サーバ104は、手術手順又は診断手順が実行されている間に画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームを解析するように構成することができる。次いで、画像処理サーバ104は、1又は2以上のビデオフレームの解析に基づいて1又は2以上のビデオフレーム内で手術ツールの検出を実行することができる。実施形態により、画像処理サーバ104は、当業者に公知のいくつかの技術を使用する複数のクラウドベースのリソースとして実施することができる。更に、画像処理サーバ104は、1又は複数のサービスプロバイダに関連付けることができる。1又は2以上のサーバの例は、Apache(登録商標)HTTPサーバ、Microsoft(登録商標)インターネット情報サービス(IIS)、IBM(登録商標)アプリケーションサーバ、Sun Java(登録商標)システムウェブサーバ、及び/又はファイルサーバを含むことができるがこれらに限定されない。
当業者は、本発明の開示の範囲が別々のエンティティとしての画像処理サーバ104と手術デバイス102との実施に限定されないことを理解するであろう。実施形態により、画像処理サーバ104の機能は、本発明の開示の範囲から逸脱することなく手術デバイス102によって実施することができる。
ビデオデータベース106は、画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームのリポジトリを格納することができる。実施形態により、ビデオデータベース106は、画像処理サーバ104に通信的に結合することができる。ビデオデータベース106は、画像取り込みデバイスが1又は2以上のビデオフレームを取り込んだ時に画像処理サーバ104を通して1又は2以上のビデオフレームを受信することができる。実施形態により、ビデオデータベース106は、当業技術で公知の様々なデータベース技術を用いて実行することができる。ビデオデータベース106の例は、Microsoft(登録商標)SQLサーバ、Oracle(登録商標)、IBM DB2(登録商標)、Microsoft Access(登録商標)、PostgreSQL(登録商標)、MySQL(登録商標)、及び/又はSQLite(登録商標)を含むことができるがこれらに限定されない。実施形態により、画像処理サーバ104は、1又は2以上のプロトコルに基づいてビデオデータベース106に接続することができる。そのような1又は2以上のプロトコルの例は、Open Database Connectivity(ODBC)(登録商標)プロトコル及びJava Database Connectivity(JDBC)(登録商標)プロトコルを含むことができるがこれらに限定されない。
当業者は、本発明の開示の範囲が別々のエンティティとしての画像処理サーバ104とビデオデータベース106との実施に限定されないことを理解するであろう。実施形態により、ビデオデータベース106の機能は、本発明の開示の範囲から逸脱することなく画像処理サーバ104によって実施することができる。
ユーザ端末108は、1又は2以上のビデオフレームを医師等のユーザに表示するためのユーザインタフェース(UI)を提示するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、ユーザ端末108は、患者の解剖学的領域に対して手術手順又は診断手順が実行される間に1又は2以上のビデオフレームを実時間で表示することができる。ユーザ端末108は、画像処理サーバ104によって1又は2以上のビデオフレームの各々内で位置特定された1又は2以上の手術ツールを表示するように更に構成することができる。ユーザ端末108の例は、スマート電話、カメラ、タブレットコンピュータ、ラップトップ、着用可能電子デバイス、テレビジョン、インターネットプロトコルテレビジョン(IPTV)、及び/又は携帯情報端末(PDA)デバイスを含むことができるがこれらに限定されない。
当業者は、本発明の開示の範囲が別々のエンティティとしてのユーザ端末108と画像処理サーバ104との実施に限定されないことを理解するであろう。実施形態により、画像処理サーバ104の機能は、本発明の開示の範囲から逸脱することなくユーザ端末108によって実施することができる。例えば、画像処理サーバ104は、ユーザ端末108上で実行及び/又はインストールされるアプリケーションプログラムとして実施することができる。
当業者は、実施形態に従ってユーザ端末108を手術デバイス102と統合することができることを更に理解するであろう。これに代えて、ユーザ端末108は、手術デバイス102に通信的に結合することができ、ユーザ端末108の医師等のユーザは、ユーザ端末108のUIを通じて手術デバイス102を制御することができる。
通信ネットワーク110は、手術デバイス102及び/又はユーザ端末108が画像処理サーバ104等の1又は2以上のサーバと通信することを可能にする媒体を含むことができる。通信ネットワーク110の例は、インターネット、クラウドネットワーク、無線フィデリティ(Wi−Fi)ネットワーク、無線ローカルエリアネットワーク(WLAN)、ローカルエリアネットワーク(LAN)、従来の電話サービス(POTS)、及び/又はメトロポリタンエリアネットワーク(MAN)を含むことができるがこれらに限定されない。ネットワーク環境100内の様々なデバイスは、様々な有線及び無線の通信プロトコルに従って通信ネットワーク110に接続するように構成することができる。そのような有線及び無線の通信プロトコルの例は、送信制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、IEEE 802.11、802.16、セルラー通信プロトコル、及び/又はBluetooth(登録商標)(BT)通信プロトコルを含むことができるがこれらに限定されない。
作動時には、画像取り込みデバイスは、1又は2以上のビデオフレームを取り込むように構成することができる。画像処理サーバ104は、取り込まれた1又は2以上のビデオフレームのうちの特定のビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を決定するように構成することができる。実施形態により、1又は2以上の手術ツールの1又は2以上の物理特性の決定は、1又は2以上の色制約及び幾何学的制約に基づく場合がある。その後に、画像処理サーバ104は、決定した1又は2以上の手術ツールの1又は2以上の物理特性に基づいて、ビデオフレームに存在する1又は2以上の手術ツールの2次元(2D)マスクを検出することができる。画像処理サーバ104は、1又は2以上の手術ツールの先端及び/又は終端で1又は2以上の手術ツールの2Dマスクが遮蔽された時にビデオフレーム内で1又は2以上の手術ツールの姿勢を推定するように更に構成することができる。
実施形態により、画像処理サーバ104は、当該ビデオフレームの前のビデオフレームセットを解析するように構成することができる。画像処理サーバ104は、当該ビデオフレームの前のビデオフレームセットからの各ビデオフレーム内で1又は2以上の煙領域を検出することができる。更に、画像処理サーバ104は、当該ビデオフレームの前のビデオフレームセットの各々内で検出された1又は2以上の煙領域内でピクセルセットの累積強度を決定することができる。その後に、画像処理サーバ104は、ビデオフレームが1又は2以上の煙ブロックで遮蔽されている時に煙なしビデオフレームを発生させるために、ビデオフレームから1又は2以上の煙ブロックを除去することができる。実施形態により、1又は2以上の煙ブロックの除去は、当該ビデオフレームの前のビデオフレームセットの各々内で検出された1又は2以上の煙領域内のピクセルセットの累積強度に基づく場合がある。
実施形態により、煙なしビデオフレーム内の1又は2以上の手術ツールの検出された2Dマスク内の1又は2以上の手術ツールの色特性に基づいて輪郭展開を実行することができる。更に、輪郭展開の実行は、煙なしビデオフレーム内で検出された2Dマスクの輪郭の内側及び/又は外側の領域の曲率と強度分散とに基づく場合がある。更に、煙なしビデオフレーム内で1又は2以上の手術ツールを検出するために、輪郭展開に基づいて煙なしビデオフレームのセグメント化を実行することができる。
実施形態により、ビデオフレーム内の各領域に対して適応色フィルタリングを実行することができる。適応色フィルタリングは、1又は2以上の色制約に対応することができ、かつビデオフレーム内の各領域内のピクセル強度に基づく場合がある。適応色フィルタリングは、opp2色強度ベースのフィルタリング及び/又は正規化opp2色強度ベースのフィルタリングに基づいて実行することができる。実施形態により、ビデオフレームに存在する1又は2以上の手術ツールの2Dマスクの検出は、適応色フィルタリングに基づく場合がある。
実施形態により、ビデオフレーム内の1又は2以上の手術ツールの先端及び/又は終端の位置を推定することができる。推定は、1又は2以上の手術ツールの検出された2Dマスクの解析に基づく場合がある。決定された2Dマスクの解析は、このマスクの長手主軸に沿って延びることができる第1の方向ベクトル(以下では、交換可能に「第1の主方向」又は「第1の主軸」と呼ぶ)に沿って実行することができる。実施形態により、ビデオフレーム内の1又は2以上の手術ツールの先端及び/又は終端の位置の重心を決定することができる。ビデオフレーム内の1又は2以上の手術ツールの先端及び/又は終端の位置は、この重心が1又は2以上の手術ツールの検出された2Dマスクの外側に位置する時、及び/又は重心が遮蔽されている時に再推定することができる。1又は2以上の手術ツールの先端及び/又は終端の位置の再推定は、決定された2Dマスクの第2の方向ベクトル(以下では交換可能に「第2の主方向」又は「第2の主軸」と呼ぶ)に沿った決定された1又は2以上の手術ツールの2Dマスクの解析に基づく場合がある。第2の主方向は、第1の主方向に対して予め決められた角度にあるとすることができる。例えば、第2の主方向は、第1の主方向に対して直交することができる。
実施形態により、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの先端が遮蔽されている時の1又は2以上の手術ツールの終端の推定位置に基づく場合がある。更に、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの重心及び/又は終端が遮蔽されている時の1又は2以上の手術ツールの先端の推定位置に基づく場合がある。
実施形態により、画像処理サーバ104は、煙領域の決定に基づいて画像取り込みデバイスの1又は2以上の画像取り込み設定を実時間で調節するように構成することができる。1又は2以上の画像取り込み設定の例は、自動露光、自動フォーカス、自動ホワイトバランス、及び/又は自動照明を含むことができるがこれらに限定されない。
実施形態により、画像処理サーバ104は、手術手順又は診断手順が実行される間に1又は2以上のビデオフレームをユーザ端末108のUIを通してユーザ(医師のような)に表示するように更に構成することができる。これらのフレームは現在のビデオフレームを含むことができる。現在のビデオフレーム内で位置特定された1又は2以上の手術ツールは、UIを通してユーザに表示される現在のビデオフレーム内でマスキング又は強調表示することができる。実施形態により、画像処理サーバ104は、現在のビデオフレーム内の1又は2以上の手術ツールの位置特定を示す通知を発生させるように更に構成することができる。通知は、現在のビデオフレーム内の各手術ツールの遮蔽の広がり及び/又はタイプを示すことができる。画像処理サーバ104は、通知を手術デバイス102及び/又はユーザ端末108に送信することができる。通知は、手術デバイス102及び/又はユーザ端末108によってユーザ(医師のような)に提供することができる。通知の例は、音声警告、文字警告、視覚警告、及び/又は触覚警告を含むことができるがこれらに限定されない。
図2は、本発明の開示の実施形態による例示的画像処理サーバを示すブロック図である。図2は、図1に記載の要素に関連付けて説明する。図2を参照すると、画像処理サーバ104が示されている。画像処理サーバ104は、プロセッサ202等の1又は2以上のプロセッサと、送受信機204等の1又は2以上の送受信機と、メモリ206と、手術場面解析ユニット208とを含むことができる。手術場面解析ユニット208は、画像フィルタリングエンジン210と、ツール位置特定エンジン212と、データベースコネクタ214と、UIマネージャ216と、カメラ制御ユニット218とを含むことができる。実施形態により、画像処理サーバ104は、通信ネットワーク110を通じて、送受信機204を通じてビデオデータベース106に通信的に結合することができる。これに代えて、画像処理サーバ104は、ビデオデータベース106を含むことができる。例えば、ビデオデータベース106は、メモリ206内に実施することができる。
プロセッサ202は、送受信機204、メモリ206、及び手術場面解析ユニット208に通信的に結合することができる。送受信機204は、通信ネットワーク110を通じて手術デバイス102及びユーザ端末108と通信するように構成することができる。
プロセッサ202は、メモリ206に格納された命令セットを実行するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。プロセッサ202は、当業技術で公知のいくつかのプロセッサ技術に基づいて実行することができる。プロセッサ202の例は、X86ベースのプロセッサ、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、及び/又は他のプロセッサとすることができる。
送受信機204は、通信ネットワーク110を通じてユーザ端末108及び/又は手術デバイス102と通信する(図1に示すように)ように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。送受信機204は、画像処理サーバ104と通信ネットワーク110との有線又は無線の通信をサポートする公知の技術を実行することができる。送受信機204の様々な構成要素は、アンテナ、無線周波(RF)送受信機、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタル信号プロセッサ、符号復号器(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを含むことができるがこれらに限定されない。
送受信機204は、無線通信を通じて、インターネット、イントラネットのようなネットワーク、及び/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)、及び/又はメトロポリタンエリアネットワーク(MAN)のような無線ネットワークと通信することができる。無線通信は、移動通信のためのグローバルシステム(GSM(登録商標))、拡張データGSM(登録商標)環境(EDGE)、広帯域符号分割多重アクセス(W−CDMA)、符号分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、Bluetooth(登録商標)、無線フィデリティ(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n等)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メールのためのプロトコル、インスタントメッセージ、及び/又はショートメッセージサービス(SMS)等の複数の通信規格、プロトコル、及び技術のうちのいずれも使用することができる。
メモリ206は、プロセッサ202によって実行可能な少なくとも1つのコードセクションを有する機械コード及び/又はコンピュータプログラムを格納するように構成することができる適切な論理部、回路、及び/又はインタフェースを含むことができる。実施形態により、メモリ206は、画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームを格納するように更に構成することができる。メモリ206の実施の例は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、ハードディスクドライブ(HDD)、及び/又はセキュアデジタル(SD)カードを含むことができるがこれらに限定されない。
手術場面解析ユニット208は、画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームを解析及び処理するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、手術場面解析ユニット208は、プロセッサ202の一部とすることができる。これに代えて、手術場面解析ユニット208は、画像処理サーバ104内の個別のプロセッサ又は回路として実施することができる。実施形態により、手術場面解析ユニット208とプロセッサ202は、手術場面解析ユニット208とプロセッサ202の機能を実施する統合プロセッサ又はプロセッサのクラスターとして実施することができる。別の実施形態により、手術場面解析ユニット208は、プロセッサ202による実行時に手術場面解析ユニット208の機能を実行することができるメモリ206に格納されたコンピュータプログラムコードとして実施することができる。
画像フィルタリングエンジン210は、各ビデオフレームに存在する1又は2以上の手術ツールの2次元(2D)マスクを検出するために1又は2以上のビデオフレームを解析するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、画像フィルタリングエンジン210は、1又は2以上のビデオフレームのうちの特定のビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を決定するように構成することができる。1又は2以上の手術ツールの1又は2以上の物理特性の決定は、1又は2以上の色制約及び幾何学的制約に基づく場合がある。画像フィルタリングエンジン210は、1又は2以上の手術ツールの決定された1又は2以上の物理特性に基づいて1又は2以上の手術ツールの2Dマスクを検出することができる。実施形態により、画像フィルタリングエンジン210は、ビデオフレームが1又は2以上の煙ブロックによって遮蔽されている時に煙なしビデオフレームを発生させるために、ビデオフレームから1又は2以上の煙ブロックを除去するように更に構成することができる。
ツール位置特定エンジン212は、ビデオフレーム内で1又は2以上の手術ツールの姿勢を推定するように構成することができる適切な論理部、回路、インタフェース及び/又はコードを含むことができる。実施形態により、ツール位置特定エンジン212は、ビデオフレーム内の1又は2以上の手術ツールの検出された2Dマスクを解析するように構成することができる。この検出は、ビデオフレーム内で1又は2以上の手術ツールの姿勢を推定することができる。ツール位置特定エンジン212は、ビデオフレーム内で1又は2以上の手術ツールの先端及び/又は終端の位置を推定するように更に構成することができる。次いで、ツール位置特定エンジン212は、1又は2以上の手術ツールの先端及び/又は終端の位置の重心を決定することができる。更に、ツール位置特定エンジン212は、重心が1又は2以上の手術ツールの検出された2Dマスクの外側に位置する時及び/又は重心が遮蔽されている時に1又は2以上の手術ツールの先端及び/又は終端の位置を再推定することができる。実施形態により、1又は2以上の手術ツールの姿勢は、先端が遮蔽されている時の終端の推定位置に基づいて推定することができる。更に、1又は2以上の手術ツールの姿勢は、重心及び/又は終端が遮蔽されている時の先端の推定位置に基づいて推定することができる。
当業者は、本発明の開示の範囲が、別々のエンティティとしての画像フィルタリングエンジン210とツール位置特定エンジン212との実施に限定されないことを理解するであろう。実施形態により、画像フィルタリングエンジン210とツール位置特定エンジン212は、これら両方の機能を実施するように構成することができる単一のエンティティに統合することができる。
データベースコネクタ214は、手術場面解析ユニット208にビデオデータベース106へのアクセス及び接続性を与えるように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、データベースコネクタ214は、手術場面解析ユニット208とビデオデータベース106の間のデータベースセッションを確立することができる。データベースセッションを確立するのに使用される1又は2以上の通信プロトコルの例は、Open Database Connectivity(ODBC)(登録商標)プロトコル及びJava Database Connectivity(JDBC)(登録商標)プロトコルを含むことができるがこれらに限定されない。
UIマネージャ216は、ユーザ端末108上に提示されているUIを管理するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、UIマネージャ216は、ユーザ端末108のユーザ(医師等)に手術場面インタフェースを提供することができる。手術場面インタフェースは、ユーザ端末108のUIを通じてユーザ端末108の表示デバイス上でユーザに提示することができる。実施形態により、手術場面インタフェースは、現在のビデオフレームを含む1又は2以上のビデオフレームをユーザに表示するように構成することができる。現在のビデオフレーム内で位置特定された1又は2以上の手術ツールは、手術場面インタフェースを通してユーザに表示される現在のビデオフレーム内でマスキングされるか又は強調表示することができる。
カメラ制御ユニット218は、画像取り込みデバイスの1又は2以上の画像取り込み設定を調節するために画像取り込みデバイスと通信するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、カメラ制御ユニット218は、1又は2以上の手術ツール位置特定に基づいて、1又は2以上のビデオフレームを取り込むのに適するか又は最適とすることができる1又は2以上の画像取り込み設定の値を決定するように構成することができる。その後に、カメラ制御ユニット218は、1又は2以上の画像取り込み設定の決定値を画像取り込みデバイスに送受信機204を通して送信するように構成することができる。画像取り込みデバイスは、カメラ制御ユニット218によって送られた対応する値に基づいてその画像取り込み設定を調節することができる。1又は2以上の画像取り込み設定の例は、自動露光、自動フォーカス、自動ホワイトバランス、及び/又は自動照明を含むことができるがこれらに限定されない。
作動時に、医師は、手術デバイス102及び1又は2以上の手術器具を用いて患者の解剖領域に対して手術手順又は診断手順を実行することができる。1又は2以上の手術器具の例は、内視鏡カテーテル、手術鉗子、手術切開器具、及び/又は手術ガーゼを含むことができるがこれらに限定されない。手術手順又は診断手順の例は、最小侵襲手術/診断手順、最小切開手術/診断手順、腹腔鏡、及び/又は内視鏡を含むことができるがこれらに限定されない。実施形態により、手術手順又は診断手順は、自動化され、医師からの監督又は指示なく手術ロボットが実施することができる。実施形態により、手術手順又は診断手順は、半自動化され、医師からの1又は2以上の入力信号及び/又は指令によって手術ロボットが実施することができる。実施形態により、画像取り込みデバイス(図1には示していない)は、手術デバイス102に通信的に結合することができる(又はそこに含めることができる)。画像取り込みデバイスは、解剖領域に対して手術手順又は診断手順が実行される間に解剖領域の1又は2以上のビデオフレームを実時間で取り込むことができる。その後に、手術デバイス102(又は画像取り込みデバイス)は、取り込んだビデオフレームを通信ネットワーク110を通して画像処理サーバ104に送信することができる。
画像処理サーバ104内の送受信機204は、手術デバイス102から通信ネットワーク110を通じて1又は2以上のビデオフレームを受信するように構成することができる。実施形態により、1又は2以上のビデオフレームは、実時間搬送プロトコル及び/又は実時間ストリーミングプロトコル(RTSP)等の通信プロトコルを用いて実時間ストリーミング媒体コンテンツとして受信することができる。データベースコネクタ214は、ビデオデータベース106とのデータベースセッションを確立し、受信したビデオフレームをビデオデータベース106に格納するように構成することができる。更に、ビデオフレームは、メモリ206に格納することができる。
画像フィルタリングエンジン210は、1又は2以上のビデオフレームを解析するように構成することができる。実施形態により、ビデオフレームは、予め決められた数のビデオフレームが手術デバイス102から受信された時にバッチモード(オフライン処理)で解析することができる。実施形態により、ビデオフレームは、各新しいビデオフレームの受信時に実時間ベースで解析することができる(オンライン処理)。画像フィルタリングエンジン210は、ビデオフレームの解析に向けてビデオフレームをメモリ206又はビデオデータベース106から検索して取得することができる。
実施形態により、1又は2以上の手術ツールの2Dマスクを検出するための現在のビデオフレームの解析の前に、画像フィルタリングエンジン210は、現在のビデオフレームが1又は2以上の煙ブロックで遮蔽されているか否かを決定するように構成することができる。画像フィルタリングエンジン210は、ビデオフレームが1又は2以上の煙ブロックで遮蔽されている時に煙なしビデオフレームを発生させるために、現在のビデオフレームから1又は2以上の煙ブロックを除去するように構成することができる。実施形態により、画像フィルタリングエンジン210は、現在のビデオフレームの前のビデオフレームセットからの各ビデオフレーム内で1又は2以上の煙領域を検出することができる。その後に、画像フィルタリングエンジン210は、現在のビデオフレームの前のビデオフレームセットからの各ビデオフレーム内で検出された1又は2以上の煙領域内のピクセルセットの累積強度を決定することができる。現在のビデオフレームからの1又は2以上の煙ブロックの除去は、ピクセルセットの決定された累積強度に基づく場合がある。例えば、画像フィルタリングエンジン210は、決定された1又は2以上の煙領域に対応するピクセルセットの累積強度を現在のビデオフレーム内の対応するピクセルの強度から減算することができる。この減算は、煙なしビデオフレームを発生させるために行うことができる。当業者は、ピクセルセットの累積強度が予め決められた強度閾値範囲にある時には現在のビデオフレームからの1又は2以上の煙ブロックの除去を省略することができることを理解するであろう。煙なしビデオフレームを発生させるために現在のビデオフレームから1又は2以上の煙ブロックを除去する方法を示す例示的流れ図に対しては図5で説明する。
実施形態により、画像フィルタリングエンジン210は、現在のビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を決定するために現在のビデオフレーム(又は煙なしビデオフレーム)を解析するように構成することができる。1又は2以上の手術ツールの1又は2以上の物理特性の決定は、1又は2以上の色制約及び幾何学的制約に基づく場合がある。その後に、画像フィルタリングエンジン210は、1又は2以上の手術ツールの1又は2以上の物理特性に基づいてビデオフレーム内で1又は2以上の手術ツールの2Dマスクを検出することができる。
実施形態により、画像フィルタリングエンジン210は、現在のビデオフレーム(又は煙なしビデオフレーム)内の各領域内のピクセル強度に基づいて適応色フィルタリングを実行することによって1又は2以上の色制約を適用することができる。適応色フィルタリングは、opp2色強度ベースのフィルタリング又は正規化opp2色強度ベースのフィルタリングに基づいて現在のビデオフレーム(又は煙なしビデオフレーム)内の各領域に対して実行することができる。実施形態により、画像フィルタリングエンジン210は、適応色フィルタリングを実行するのに以下の条件を解析することができる。
Figure 2018513755

Figure 2018513755
ここで、「Igray」は、ビデオフレームのピクセルのグレースケール強度を表し、
「opp2」は、次式で与えられるピクセルのopp2色成分を表し、
Figure 2018513755
「opp2norm」は、次式で与えられるピクセルの正規化opp2色成分を表し、
Figure 2018513755
「R」、「G」、「B」は、ピクセルの赤、緑、及び青の色成分を表している。
実施形態により、画像フィルタリングエンジン210は、ビデオフレーム内の1又は2以上の手術ツールに対応することができる1又は2以上の着目領域を決定するために条件「条件1」及び「条件2」を解析することができる。画像フィルタリングエンジン210は、ビデオフレーム内で高輝度ピクセルを有する領域(100よりも高いか又はそれに等しいグレースケール強度を有するピクセルを含む領域のような)に関して条件「条件1」を解析することができる。更に、画像フィルタリングエンジン210は、ビデオフレーム内で低輝度ピクセルを有する領域(100よりも低いグレースケール強度を有するピクセルを含む領域のような)に関して条件「条件2」を検査することができる。明らかなように、条件「条件1」は、ビデオフレームの高輝度領域内でopp2色強度ベースのフィルタリングの実行を必要とする可能性がある。更に、条件「条件2」は、ビデオフレームの低輝度領域内で正規化opp2色強度ベースのフィルタリングの実行を必要とする可能性がある。当業者は、1又は2以上の手術ツールを含む領域が、赤及び緑の色成分において僅かな差のみを有するピクセルを包含する可能性があることを理解するであろう。従って、ビデオフレーム内で1又は2以上の手術ツールに対応することができる1又は2以上の領域を決定するのにopp2色強度ベースのフィルタリングを使用することができる。しかし、opp2色強度ベースのフィルタリングは、ビデオフレームの低輝度領域内で1又は2以上の手術ツールを決定するのには効率的ではない可能性がある。1又は2以上の手術ツールは、低輝度領域内では正規化opp2色強度ベースのフィルタリングを用いて実質的に検出することができる。従って、ビデオフレーム内で1又は2以上の手術ツールに対応することができる着目領域は、適応色フィルタリングを用いてopp2色強度ベースのフィルタリングと正規化opp2色強度ベースのフィルタリングとの両方に基づいて決定することができる。
実施形態により、画像フィルタリングエンジン210は、ビデオフレーム内で1又は2以上の手術ツールの2Dマスクを検出するために、決定された1又は2以上の着目領域に対して1又は2以上の幾何学的制約を適用するように構成することができる。例えば、画像フィルタリングエンジン210は、各着目領域のサイズが予め決められたサイズ閾値よりも大きいか否かを検査することができる。更に、画像フィルタリングエンジン210は、決定された1又は2以上の着目領域に対してエッジ検出を実行することができる。その後に、画像フィルタリングエンジン210は、各着目領域内のエッジの個数が予め決められたエッジ計数値よりも大きいか否かを検査することができる。更に、画像フィルタリングエンジン210は、着目領域がビデオフレーム内で外側から内への方位に所在するか否かを決定することができる。画像フィルタリングエンジン210は、着目領域が上述のサイズ、エッジ、及び/又は方位の条件を満たしている場合にこの着目領域を1又は2以上の手術ツールの2Dマスクの一部として指定することができる。従って、ビデオフレーム内の1又は2以上の手術ツールの2Dマスクの検出は、ビデオフレームの各領域に対する適応色フィルタリング、及び/又は1又は2以上の幾何学的制約の適用に基づく場合がある。
実施形態により、画像フィルタリングエンジン210は、1又は2以上の手術ツールの検出された2Dマスクを精緻化するように更に構成することができる。この精緻化は、現在のビデオフレーム内で1又は2以上の手術ツールを検出するために行うことができる。実施形態により、画像フィルタリングエンジン210は、1又は2以上の手術ツールの検出された2Dマスク内で輪郭を決定するように構成することができる。その後に、画像フィルタリングエンジン210は、現在のビデオフレーム(又は煙なしビデオフレーム)内の1又は2以上の手術ツールの検出された2Dマスク内で決定された輪郭に対して輪郭展開を実行することができる。輪郭展開は、1又は2以上の手術ツールの検出された2Dマスク内の1又は2以上の手術ツールの色特性に基づいて実行することができる。実施形態により、画像フィルタリングエンジン210は、輪郭展開を実行するのに次の式(3)及び(4)を使用することによるレベル集合ベースの技術を使用することができる。
Figure 2018513755

Figure 2018513755
ここで、
Figure 2018513755
は、輪郭上のピクセルでのタンジェンシャルの瞬間の傾きを表し、
Figure 2018513755
は、平均曲率運動を表し、
「u0」は、ピクセル強度を表し、
「c1」は、輪郭の内側の平均ピクセル強度を表し、
「c2」は、輪郭の外側の平均ピクセル強度を表している。
このように画像フィルタリングエンジン210は、1又は2以上の手術ツールの検出された2Dマスクに対して輪郭展開を実行して検出された2Dマスクを精緻化するために微分方程式(3)及び(4)を適用することができる。実施形態により、輪郭展開は、現在のビデオフレーム(又は煙なしビデオフレーム)内で検出された2Dマスクの輪郭の内側及び/又は外側の領域の曲率と強度分散とに基づく場合がある。明らかなように、式(3)における表現式:
Figure 2018513755
は、決定された2Dマスクに対応する着目領域内の輪郭の高い曲率に罰則を与えるために使用することができる。更に、着目領域内の輪郭の内側及び外側それぞれの強度分散を最小にするために表現式「(u0−c12」及び「(u0−c22」を使用することができる。着目領域内のエッジでの輪郭を展開させるために式(4)を使用することができる。当業者は、着目領域内のピクセルの色特性を上記で説明した適応色フィルタリングに従って使用することができることを理解するであろう。例えば、輪郭展開の実行を考慮するのに、高輝度ピクセル(100よりも高いか又はそれに等しい強度を有するピクセル)に対してopp2色強度を考慮することができ、それに対して着目領域内の低輝度ピクセルに対して正規化opp2色強度を考慮することができる。これに代えて、画像フィルタリングエンジン210は、着目領域内のピクセルの平均ピクセル強度を決定することができる。画像フィルタリングエンジン210は、平均ピクセル強度が高い(100よりも高いか又はそれに等しいのような)場合に着目領域内のピクセルのopp2色強度を考慮することができる。他の場合は着目領域内のピクセルの正規化opp2色強度を考慮することができる。現在のビデオフレーム内で1又は2以上の手術ツールの予備2Dマスクを精緻化する方法を示す例示的流れ図に対しては図6で説明する。
実施形態により、画像フィルタリングエンジン210は、1又は2以上の手術ツールの検出された2Dマスクに対する輪郭展開の実行に基づいて現在のビデオフレーム(又は煙なしビデオフレーム)のセグメント化を実行することができる。次いで、画像フィルタリングエンジン210は、セグメント化処理の結果に基づいて1又は2以上の手術ツールを検出することができる。こうして画像フィルタリングエンジン210は、現在のビデオフレーム内で1又は2以上の手術ツールを検出するために、1又は2以上の手術ツールの2Dマスクを精緻化することができる。
実施形態により、ツール位置特定エンジン212は、1又は2以上の手術ツールの2Dマスクが1又は2以上の手術ツールの先端及び/又は終端で遮蔽されている時にビデオフレーム内の1又は2以上の手術ツールの姿勢を推定するように構成することができる。ツール位置特定エンジン212は、1又は2以上の手術ツールの姿勢を推定するために、ビデオフレーム内の1又は2以上の手術ツールの先端及び/又は終端の位置を推定することができる。実施形態により、先端及び/又は終端の位置の推定は、第1の主方向に沿った1又は2以上の手術ツールの検出された2Dマスクの解析に基づく場合がある。実施形態により、第1の主方向は、1又は2以上の手術ツールの検出された2Dマスクの長手主軸に沿って延びることができる。更に、ツール位置特定エンジン212は、1又は2以上の手術ツールの先端及び/又は終端の位置の重心を決定することができる。実施形態により、ツール位置特定エンジン212は、重心が1又は2以上の手術ツールの検出された2Dマスクの外側に位置する時又は重心が遮蔽されている時に1又は2以上の手術ツールの先端及び/又は終端の位置を再推定するように更に構成することができる。先端及び/又は終端の位置の再推定は、第2の主方向に沿った1又は2以上の手術ツールの2Dマスクの解析に基づく場合がある。第2の主方向は、第1の主方向に対して予め決められた角度にあるとすることができる。実施形態により、第2の主方向は、第1の主方向に対して直交する緯度方向主軸に沿って延びることができる。そのようなシナリオでは、予め決められた角度を直角(又は「90度」)とすることができる。しかし、当業者は、本発明の開示の範囲が直角としての予め決められた角度に限定されるものではないことを理解するであろう。予め決められた角度は、鋭角(又は「0度から90度」)、鈍角(又は「90度から180度」)、又は優角(又は「180度から360度」)等のあらゆる他の角度とすることができる。
実施形態により、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの先端が遮蔽されている時の1又は2以上の手術ツールの終端の推定(又は再推定)位置に基づく場合がある。更に、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの重心及び/又は終端が遮蔽されている時の1又は2以上の手術ツールの推定(又は再推定)位置に基づく場合がある。ビデオフレーム内の1又は2以上の手術ツールの姿勢の例示的シナリオに対しては図7Aから図7Dに関して説明する。更に、ビデオフレーム内で1又は2以上の手術ツールの姿勢を推定する方法を示す例示的流れ図に対しては図4に関して説明する。
当業者は、様々な予め決められた閾値が例示的な値であることを理解するであろう。予め決められた閾値は、本発明の開示の範囲から逸脱することなく実施、ソフトウエア、ハードウエア、及び/又はユーザ要件に基づいて変えることができる。
実施形態により、UIマネージャ216は、手術場面インタフェースをユーザ端末108の医師等のユーザに提示するように構成することができる。手術場面インタフェースは、ユーザ端末108のUIを通してユーザ端末108の表示デバイス上でユーザに提示することができる。実施形態により、手術場面インタフェースは、現在のビデオフレームを含む1又は2以上のビデオフレームをユーザに表示するように構成することができる。現在のビデオフレーム内で位置特定された1又は2以上の手術ツールは、手術場面インタフェースを通してユーザに表示される現在のビデオフレーム内でマスキング又は強調表示することができる。手術場面インタフェースの例示的シナリオに対しては図8で説明する。
実施形態により、UIマネージャ216は、現在のビデオフレーム内の1又は2以上の手術ツール位置特定を合図することができる通知を発生させるように更に構成することができる。通知は、現在のビデオフレーム内の各手術ツールの遮蔽の広がり及び/又はタイプを示すことができる。UIマネージャ216は、発生された通知をユーザ端末108に通信することができる。通知は、ユーザ端末108のUIを通してユーザに提示することができる。1又は2以上の手術ツール位置特定のための1又は2以上のビデオフレームの実時間解析又はオンライン解析の場合に、UIマネージャ216は、発生された通知を送受信機204を通して手術デバイス102に送信することができる。通知の例は、音声警告、文字警告、視覚警告、及び/又は触覚フィードバックを含むことができるがこれらに限定されない。
実施形態により、カメラ制御ユニット218は、現在のビデオフレーム内の1又は2以上の手術ツールの位置特定に基づいて画像取り込みデバイスの1又は2以上の画像取り込み設定に対する最適値を決定するように構成することができる。1又は2以上の画像取り込み設定の例は、自動露光、自動フォーカス、自動ホワイトバランス、又は自動照明を含むことができるがこれらに限定されない。実施形態により、1又は2以上の画像取り込み設定の最適値は、1又は2以上の手術ツールを包含する領域のサイズ、この領域内の平均ピクセル強度、1又は2以上の手術ツールの遮蔽の広がり、又はこの領域の1又は2以上の特徴等の1又は2以上の条件に基づいて決定することができる。実施形態において、最適値の決定は、ユーザ指定基準に基づく場合がある。カメラ制御ユニット218は、1又は2以上の画像取り込み設定の最適値を送受信機204を通して画像取り込みデバイスに送信するように構成することができる。画像取り込みデバイスの1又は2以上の画像取り込み設定は、カメラ制御ユニット218によって送られたそれぞれの最適値に基づいて調節することができる。
実施形態により、UIマネージャ216は、1又は2以上の画像取り込み設定の最適値をユーザ端末108のUIを通じてユーザに提示することができる。UIマネージャ216は、ユーザがユーザ端末108のUIを通じて最適値を確認又は調節することを可能にすることができる。UIマネージャ216は、最適値の確認又は調節を示すユーザ入力をユーザ端末108から送受信機204を通じて受信することができる。その後に、カメラ制御ユニット218は、ユーザ入力に基づいて最適値を更新し、更新した最適値を送受信機204を通じて画像取り込みデバイスに送信することができる。画像取り込みデバイスの1又は2以上の画像取り込み設定は、カメラ制御ユニット218から受信した更新された最適値に基づいて調節することができる。
図3は、本発明の開示の実施形態による例示的ユーザ端末を示すブロック図である。図3を図1に記載の要素に関連付けて説明する。図3を参照すると、ユーザ端末108が示されている。ユーザ端末108は、プロセッサ302等の1又は2以上のプロセッサと、送受信機304等の1又は2以上の送受信機と、メモリ306と、クライアントインタフェースユニット308と、表示デバイス314とを含むことができる。クライアントインタフェースユニット308は、UIマネージャ310と表示アダプタ312とを含むことができる。プロセッサ302は、送受信機304、メモリ306、クライアントインタフェースユニット308、及び表示デバイス314に通信的に結合することができる。送受信機304は、画像処理サーバ104及び/又は手術デバイス102と通信ネットワーク110を通じて通信するように構成することができる。
プロセッサ302は、メモリ306に格納された命令セットを実行するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。プロセッサ302は、当業技術で公知のいくつかのプロセッサ技術に基づいて実行することができる。プロセッサ302の例は、X86ベースのプロセッサ、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、及び/又は他のプロセッサとすることができる。
送受信機304は、通信ネットワーク110を通じて画像処理サーバ104及び/又は手術デバイス102と通信する(図1に示すように)ように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。送受信機304は、ユーザ端末108と通信ネットワーク110との有線又は無線の通信をサポートする公知の技術を実行することができる。送受信機304は、アンテナ、無線周波(RF)送受信機、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタル信号プロセッサ、符号復号器(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを含むことができるがこれらに限定されない。
送受信機304は、無線通信を通じて、インターネット、イントラネットのようなネットワーク、及び/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)、及び/又はメトロポリタンエリアネットワーク(MAN)のような無線ネットワークと通信することができる。無線通信は、移動通信のためのグローバルシステム(GSM(登録商標))、拡張データGSM(登録商標)環境(EDGE)、広帯域符号分割多重アクセス(W−CDMA)、符号分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、Bluetooth(登録商標)、無線フィデリティ(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n等)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メールのためのプロトコル、インスタントメッセージ、及び/又はショートメッセージサービス(SMS)等の複数の通信規格、プロトコル、及び技術のうちのいずれも使用することができる。
メモリ306は、プロセッサ302によって実行可能な少なくとも1つのコードセクションを有する機械コード及び/又はコンピュータプログラムを格納するように構成することができる適切な論理部、回路、及び/又はインタフェースを含むことができる。メモリ306の実施例は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、ハードディスクドライブ(HDD)、及び/又はセキュアデジタル(SD)カードを含むことができるがこれらに限定されない。
クライアントインタフェースユニット308は、ユーザ端末108上に提示されている1又は2以上のUIをレンダリングし、管理するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、クライアントインタフェースユニット308は、プロセッサ302の一部とすることができる。これに代えて、クライアントインタフェースユニット308は、ユーザ端末108内の個別のプロセッサ又は回路として実施することができる。例えば、クライアントインタフェースユニット308は、プロセッサ302に通信的に結合された専用グラフィックプロセッサ又はグラフィックチップセットとして実施することができる。実施形態により、クライアントインタフェースユニット308とプロセッサ302は、クライアントインタフェースユニット308とプロセッサ302の機能を実施する統合プロセッサ又はプロセッサクラスターとして実施することができる。実施形態により、クライアントインタフェースユニット308は、プロセッサ302による実行時にクライアントインタフェースユニット308の機能を実行することができるメモリ306に格納されたコンピュータプログラムコードとして実施することができる。
UIマネージャ310は、ユーザ端末108のUIを管理するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、UIマネージャ310は、ユーザ端末108の入力デバイス(図示していない)を通して、ユーザ端末108のUIを通じて受信されるユーザ入力を受信かつ処理するように更に構成することができる。実施形態により、入力デバイスは、ユーザ端末108に通信的に結合する(又はそこに含める)ことができる。入力デバイスの例は、キーボード、マウス、ジョイスティック、トラックパッド、音声対応入力デバイス、タッチ対応入力デバイス、及び/又は動作対応入力デバイスを含むことができるがこれらに限定されない。
実施形態により、UIマネージャ310は、画像処理サーバ104のUIマネージャ216と送受信機304を通して通信するように更に構成することができる。そのような通信は、手術場面インタフェースに対応する情報の受信を容易にすることができる。その後に、UIマネージャ310は、手術場面インタフェースをユーザ端末108のUIを通じて提示することができる。
表示アダプタ312は、UIマネージャ310と表示デバイス314とをインタフェースで接続するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、表示アダプタ312は、表示デバイス314の表示構成に基づいてユーザ端末108のUIのレンダリング及び表示特性の調節を実行することができる。表示調節を実施するために使用することができる1又は2以上の技術の例は、画像改善、画像安定化、コントラスト調節、輝度調節、解像度調節、及び/又は歪み/回転の調節を含むことができるがこれらに限定されない。
表示デバイス314は、UIをレンダリングするように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、表示デバイス314は、ユーザ端末108の一部として実施することができる。別の実施形態により、表示デバイス314は、ユーザ端末108に通信的に結合することができる。表示デバイス314は、ブラウン管(CRT)ベースのディスプレイ、液晶ディスプレイ(LCD)、発光ダイオード(LED)ベースのディスプレイ、有機LEDディスプレイ技術、及び/又はRetinaディスプレイなどのようないくつかの公知の技術を用いて実現することができる。更に、実施形態により、表示デバイス314は、ユーザから入力を受信することができる。そのようなシナリオでは、表示デバイス314は、ユーザが入力を与えることを可能にするタッチスクリーンとすることができる。実施形態により、タッチスクリーンは、抵抗タッチスクリーン、容量タッチスクリーン、及び/又は熱タッチスクリーンなどのうちの少なくとも1つに対応することができる。実施形態により、表示デバイス314は、仮想キーパッド、スタイラス、動作ベースの入力、及び/又はタッチベースの入力を通して入力を受信することができる。そのような場合に、入力デバイスは、表示デバイス314内に統合することができる。これに加えて、実施形態により、ユーザ端末108は、タッチスクリーンベースの表示デバイス314とは別に補助的な入力デバイスを含むことができる。
作動時に、ユーザ端末108の送受信機304は、画像処理サーバ104のUIマネージャ216から通信ネットワーク110を通して手術場面インタフェースに対応する情報を受信することができる。実施形態により、その後に、ユーザ端末108のUIマネージャ310は、手術場面インタフェースをユーザ端末108のUIを通してユーザに提示することができる。実施形態により、手術場面インタフェースは、現在のビデオフレームを含むことができる1又は2以上のビデオフレームをユーザに提示することができる。実施形態により、現在のビデオフレームがユーザに表示される時に、現在のビデオフレーム内で位置特定された1又は2以上の手術ツールをマスキング又は強調表示することができる。手術場面インタフェースの例に対しては図6でより詳細に説明する。
実施形態により、手術場面インタフェースによって提示される1又は2以上のビデオフレームは、手術手順又は診断手順が実行される間に画像取り込みデバイスによって取り込まれる実時間ビデオ映像とすることができる。そのような場合に、画像処理サーバ104は、1又は2以上のビデオフレームからの現在のビデオフレームに存在する1又は2以上の手術ツールを位置特定するために実時間ベース(オンライン処理)で1又は2以上のビデオフレームを解析することができる。現在のビデオフレーム内で位置特定することができる1又は2以上の手術ツールは、手術場面インタフェースを通して現在のビデオフレーム内のマスキング領域又は強調表示領域としてユーザに同時に提示することができる。
実施形態により、手術場面インタフェースは、現在のビデオフレームに存在する1又は2以上の手術ツール位置特定を示す通知をユーザに提示するように更に構成することができる。通知は、現在のビデオフレーム内の各手術ツールの遮蔽の広がり及び/又はタイプを示すことができる。通知の例は、音声警告、文字警告、視覚警告、及び/又は触覚警告を含むことができるがこれらに限定されない。ユーザ(医師のような)に対して、通知に基づいて行動を起こすように促すことができる。例えば、手術場面インタフェースは、画像取り込みデバイスの1又は2以上の画像取り込み設定を調節するようにユーザに促すことができる。実施形態により、画像処理サーバ104のカメラ制御ユニット218は、1又は2以上の手術ツールの位置特定に基づいて1又は2以上の画像取り込み設定に対する最適値を決定するように構成することができる。手術場面インタフェースは、これらの最適値を1又は2以上の画像取り込み設定に対する提案値としてユーザに提示することができる。ユーザは、ユーザに提示された提案値に基づいて画像取り込みデバイスの1又は2以上の画像取り込み設定を調節することができる。画像取り込みデバイスの1又は2以上の画像取り込み設定の調節に加えて、ユーザ(医師のような)は、1又は2以上の手術ツールの遮蔽の広がりを低減するために解剖領域内で1又は2以上の手術ツールを再位置合わせ/再位置決めすることができる。
図4は、本発明の開示の実施形態によりビデオフレーム内で1又は2以上の手術ツールの姿勢を推定する方法の例示的流れ図を示している。図4を図1及び図2に記載の要素に関連付けて説明する。図4を参照すると、流れ図400が示されている。流れ図400は、入力ビデオフレーム402と、解剖領域404と、第1の手術ツール406aと、第2の手術ツール406bと、色/幾何学的フィルタリング済みビデオフレーム408と、マスキングされたビデオフレーム410と、第1の2Dマスク412aと、第2の2Dマスク412bとを含む。流れ図400は、予備姿勢推定されたビデオフレーム414と、第1の先端416aと、第2の先端416bと、第3の先端416cと、第1の終端418と、重心420と、出力ビデオフレーム422と、第1の姿勢424aと、第2の姿勢424bとを更に含む。
流れ図400に示すように、入力ビデオフレーム402は、画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームからのビデオフレームのスナップショットを示している。入力ビデオフレーム402は、第1の手術ツール406aと第2の手術ツール406bとを用いて手術手順又は診断手順が実行される解剖領域404を表している。実施形態により、画像処理サーバ104の画像フィルタリングエンジン210は、入力ビデオフレーム402が1又は2以上の煙ブロックで遮蔽されている場合に煙なしビデオフレーム(図示せず)を発生させるために、入力ビデオフレーム402から1又は2以上の煙ブロックを除去することができる。煙なしビデオフレームを発生させるために、入力ビデオフレーム402から1又は2以上の煙ブロックを除去する方法を示す例示的流れ図に対しては図5に関連付けて説明する。
実施形態により、画像フィルタリングエンジン210は、入力ビデオフレーム402内で1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の1又は2以上の物理特性を決定するために入力ビデオフレーム402(又は煙なしビデオフレーム)を解析するように構成することができる。1又は2以上の物理特性の決定は、1又は2以上の色制約及び幾何学的制約に基づく場合がある。1又は2以上の色制約は、図2において詳述したように条件「条件1」及び「条件2」に基づいて実行することができる適応色フィルタリングに対応することができる。画像フィルタリングエンジン210は、入力ビデオフレーム402内で第1の手術ツール406a及び第2の手術ツール406bに対応することができる1又は2以上の着目領域を1又は2以上の色制約に基づいて検出することができる。更に、画像フィルタリングエンジン210は、入力ビデオフレーム402内で1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の予備2Dマスクを検出するために、決定された1又は2以上の領域に対して1又は2以上の幾何学的制約を適用することができる。先に解説したように、1又は2以上の幾何学的制約は、各着目領域がサイズ、エッジ個数、及び/又は方位の条件を満たすか否かの決定に対応することができる。上述の条件を満たす着目領域を予備2Dマスクの一部と表示することができる。色/幾何学的フィルタリング済みビデオフレーム408は、入力ビデオフレーム402(又は煙なしビデオフレーム)に対する1又は2以上の色制約及び幾何学的制約の適用に基づいて取得することができる得られるビデオフレームを示している。
実施形態により、画像フィルタリングエンジン210は、1又は2以上の色制約及び幾何学的制約に基づいて検出された予備2Dマスクを精緻化するように構成することができる。画像フィルタリングエンジン210は、予備2Dマスク内で輪郭を決定し、次いで、決定された輪郭に対して輪郭展開を実行することができる。輪郭展開は、図2において式(3)及び(4)で詳述したレベル集合ベースの技術を用いて第1の手術ツール406a及び第2の手術ツール406bの色特性に基づいて実行することができる。実施形態により、輪郭展開は、予備2Dマスクの輪郭の内側及び/又は外側の領域の曲率と強度分散とに基づく場合がある。画像フィルタリングエンジン210は、輪郭展開に基づいて輪郭展開されたビデオフレーム(図示せず)を取得することができる。
その後に、画像フィルタリングエンジン210は、ツールセグメント化されたビデオフレーム(図示せず)を取得するために、輪郭展開されたビデオフレーム(図示せず)に対してセグメント化を実行することができる。ツールセグメント化されたビデオフレームは、1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の精緻化された2Dマスクを含むことができる。入力ビデオフレーム402内で1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の予備2Dマスクを精緻化する方法を示す例示的流れ図に対しては図6で説明する。マスキングされたビデオフレーム410は、ツールセグメント化されたビデオフレーム(図示せず)が入力ビデオフレーム402の上に重ね合わされた時に取得することができる得られるビデオフレームを示している。図4に示すように、マスキングされたビデオフレーム410は、第1の2Dマスク412aと第2の2Dマスク412bを含む。第1の2Dマスク412aは、第1の手術ツール406aを包含する2Dマスクに対応することができ、それに対して第2の2Dマスク412bは、第2の手術ツール406bを包含する2Dマスクに対応することができる。
実施形態により、画像処理サーバ104のツール位置特定エンジン212は、マスキングされたビデオフレーム410から1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の姿勢を推定するように構成することができる。ツール位置特定エンジン212は、第1の2Dマスク412a及び第2の2Dマスク412bそれぞれの解析に基づいて第1の手術ツール406a及び第2の手術ツール406bの先端及び/又は終端の位置を推定することができる。その後に、ツール位置特定エンジン212は、1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の先端及び/又は終端の位置の重心の位置を決定することができる。例えば、ツール位置特定エンジン212は、第1の手術ツール406aの第1の2Dマスク412aに基づいて第1の先端416a及び第2の先端416bの位置を推定することができる。更に、ツール位置特定エンジン212は、第2の手術ツール406bの第2の2Dマスク412bに基づいて第3の先端416c及び第1の終端418の位置を推定することができる。次いで、ツール位置特定エンジン212は、第1の先端416a、第2の先端416b、第3の先端416c、及び第1の終端418の位置に基づいて重心420の位置を推定することができる。予備姿勢推定されたビデオフレーム414は、マスキングされたビデオフレーム410から先端(第1の先端416a、第2の先端416b、及び第3の先端416cのような)、終端(第1の終端418のような)、及び重心(重心420)の位置が推定された時に取得することができる得られるビデオフレームを示している。
実施形態により、ツール位置特定エンジン212は、更に、先端(第1の先端416a、第2の先端416b、及び第3の先端416cのような)、終端(第1の終端418のような)、及び/又は重心(重心420のような)が遮蔽されているか否かを決定するために予備姿勢推定されたビデオフレーム414を解析することができる。更に、ツール位置特定エンジン212は、重心(重心420のような)が2Dマスク(第1の2Dマスク412a及び第2の2Dマスク412bのような)の外側に位置するか否かを決定することができる。実施形態により、ツール位置特定エンジン212は、重心(重心420)が2Dマスク(第1の2Dマスク412a及び第2の2Dマスク412bのような)の外側に位置するか又は重心(重心420)が遮蔽されている場合に、先端(第1の先端416a、第2の先端416b、及び第3の先端416cのような)及び/又は終端(第1の終端418のような)の位置を再推定することができる。
次いで、ツール位置特定エンジン212は、先端(第1の先端416a、第2の先端416b、及び第3の先端416cのような)及び/又は終端(第1の終端418のような)の位置の再推定に基づいて重心(重心420)の位置を更新することができる。実施形態により、ツール位置特定エンジン212は、先端(第1の先端416a、第2の先端416b、及び第3の先端416cのような)、終端(第1の終端418のような)、及び重心(重心420)の推定位置に基づいて1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の姿勢を推定することができる。姿勢の推定は、先端(第1の先端416a、第2の先端416b、及び第3の先端416cのような)が遮蔽されている時の終端(第1の終端418のような)の位置に基づく場合がある。
更に、姿勢の推定は、終端(第1の終端418のような)及び/又は重心(重心420)が遮蔽されている時の先端(第1の先端416a、第2の先端416b、及び第3の先端416cのような)の位置に基づく場合がある。1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の姿勢の推定に対しては、図7Aから図7Dに示す例示的な姿勢を参照してより詳しく説明する。出力ビデオフレーム422は、予備姿勢推定されたビデオフレーム414からの1又は2以上の手術ツール(第1の手術ツール406a及び第2の手術ツール406bのような)の姿勢の推定に基づいて取得することができる得られるビデオフレームに対応する。
図4に示すように、出力ビデオフレーム422は、入力ビデオフレーム402内で第1の手術ツール406a及び第2の手術ツール406bに関して推定された姿勢にそれぞれ対応する第1の姿勢424a及び第2の姿勢424bを含むことができる。第1の姿勢424a内に第1の手術ツール406aの第1の主軸及び第2の主軸を表している。更に、第2の姿勢424b内に第2の手術ツール406bの第1及び第2の主軸を表している。
図5は、本発明の開示の実施形態によりビデオフレームから1又は2以上の煙ブロックを除去する方法の例示的流れ図を示している。図5を図1及び図2に記載の要素に関連付けて説明する。図5を参照すると、流れ図500が示されている。流れ図500は、ビデオフレーム502aから502nを含む前のビデオフレームセット502を含む。流れ図500は、累積煙ビデオフレーム504と、現在のビデオフレーム506と、解剖領域508と、第1の手術ツール510a及び第2の手術ツール510bと、1又は2以上の煙ブロック512と、煙なしビデオフレーム514とを更に含む。
実施形態により、現在のビデオフレーム506は、画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームからのビデオフレームに対応することができる。更に、前のビデオフレームセット502は、現在のビデオフレーム506の取り込みの前に画像取り込みデバイスによって取り込まれたものとすることができるビデオフレームに対応することができる。従って、前のビデオフレームセット502は、画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームの順番で現在のビデオフレーム506の時間的に前に発生したものとすることができる。
実施形態により、画像処理サーバ104の画像フィルタリングエンジン210は、現在のビデオフレーム506の前に取り込まれた予め決められた数のビデオフレーム(前のビデオフレームセット502のような)を順番に解析することができる。前のビデオフレーム(前のビデオフレームセット502のような)の解析に基づいて、画像フィルタリングエンジン210は、各前のビデオフレーム(502aから502nのような)内で1又は2以上の煙領域を検出することができる。次いで、画像フィルタリングエンジン210は、各前のビデオフレーム(502aから502nのような)内の1又は2以上の煙領域の各々内に包含されるピクセルセットの累積強度を決定することができる。画像フィルタリングエンジン210は、各前のビデオフレーム(502aから502nのような)から検出された1又は2以上の煙領域内のピクセルセットの累積強度を表す累積煙ビデオフレーム504を発生させることができる。
流れ図500に示すように、現在のビデオフレーム506は、第1の手術ツール510aと第2の手術ツール510bとを用いて手術手順又は診断手順が実行される解剖領域508を表している。更に、現在のビデオフレーム506は、1又は2以上のブロック(1又は2以上の煙ブロック512のような)内に包含される煙で遮蔽されている可能性がある。実施形態により、画像フィルタリングエンジン210は、煙なしビデオフレーム514を発生させるために現在のビデオフレーム506から1又は2以上の煙ブロック512を除去することができる。実施形態により、画像フィルタリングエンジン210は、当該煙ブロック内の平均ピクセル強度が予め決められた閾値内に収まっている時には現在のビデオフレーム506から煙ブロック(1又は2以上の煙ブロック512のうちの)を除去しないことができる。
実施形態により、現在のビデオフレーム506からの1又は2以上の煙ブロック512の除去は、累積煙ビデオフレーム504に基づく場合がある。例えば、画像フィルタリングエンジン210は、煙なしビデオフレーム514を発生させるために、累積煙ビデオフレーム504内のピクセルの強度を現在のビデオフレーム506内の対応するピクセルの強度から差し引くことができる。
図6は、本発明の開示の実施形態によりビデオフレーム内で1又は2以上の手術ツールの予備2Dマスクを精緻化する方法の例示的流れ図を示している。図6を図1及び図2に記載の要素に関連付けて説明する。図6を参照すると、流れ図600が示されている。流れ図600は、前処理されたビデオフレーム602と、解剖領域604と、1又は2以上の手術ツール(第1の手術ツール606a、第2の手術ツール606b、及び第3の手術ツール606cのような)と、1又は2以上の2Dマスク(第1の2Dマスク608a、第2の2Dマスク608b、及び第3の2Dマスク608cのような)とを含む。更に、流れ図600は、輪郭付きビデオフレーム610と、1又は2以上のツール輪郭(第1のツール輪郭612a、第2のツール輪郭612b、及び第3のツール輪郭612cのような)と、輪郭展開されたビデオフレーム614と、1又は2以上の展開された輪郭(第1の展開された輪郭616a、第2の展開された輪郭616b、及び第3の展開された輪郭616cのような)とを含む。更に、流れ図600は、ツールセグメント化されたビデオフレーム618と、1又は2以上のツールセグメント(第1のツールセグメント620a、第2のツールセグメント620b、及び第3のツールセグメント620cのような)とを含む。
実施形態により、画像処理サーバ104の画像フィルタリングエンジン210は、画像取り込みデバイスによって取り込まれた1又は2以上のビデオフレームからの現在のビデオフレーム(図示せず)の予備解析を実行することができる。予備解析に基づいて、画像フィルタリングエンジン210は、図4で先に解説したように、現在のビデオフレーム内で1又は2以上の手術ツール(606a、606b、及び606cのような)の予備2Dマスクを検出することができる。前処理されたビデオフレーム602は、予備解析に基づいて現在のビデオフレーム(図示せず)から発生させることができる得られるビデオフレームを示している。前処理されたビデオフレーム602は、現在のビデオフレーム内で検出することができる第1の2Dマスク608a、第2の2Dマスク608b、及び第3の2Dマスク608c等の予備2Dマスクを含むことができる。前処理されたビデオフレーム602は、第1の手術ツール606aと、第2の手術ツール606bと、第3の手術ツール606cとを更に含む。第1の2Dマスク608aは、第1の手術ツール606aを包含することができ、第2の2Dマスク608bは、第2の手術ツール606bを包含することができる。更に、第3の手術ツール606cは、第3の2Dマスク608c内に包含される場合がある。
実施形態により、画像フィルタリングエンジン210は、前処理されたビデオフレーム602から検出された予備2Dマスク(608a、608b、及び608cのような)の輪郭を決定するように構成することができる。輪郭付きビデオフレーム610は、決定された予備2Dマスク(第1の2Dマスク608a、第2の2Dマスク608b、及び第3の2Dマスク608cのような)の輪郭の決定に基づいて前処理されたビデオフレーム602から発生させることができる得られるビデオフレームを示している。輪郭付きビデオフレーム610は、第1のツール輪郭612a、第2のツール輪郭612b、及び第3のツール輪郭612c等の決定された輪郭を含むことができる。第1のツール輪郭612aは、第1の2Dマスク608a(第1の手術ツール606aの)に対応することができ、それに対して第2のツール輪郭612bは、第2の2Dマスク608b(第2の手術ツール606bの)に対応することができる。更に、第3のツール輪郭612cは、第3の2Dマスク608c(第3の手術ツール606cの)に対応することができる。
実施形態により、画像フィルタリングエンジン210は、輪郭付きビデオフレーム610内の決定された輪郭(第1のツール輪郭612a、第2のツール輪郭612b、及び第3のツール輪郭612cのような)に対して輪郭展開を実行するように更に構成することができる。輪郭展開は、図2に詳述した式(3)及び(4)で説明したレベル集合ベースの技術を用いて1又は2以上の手術ツール(第1の手術ツール606a、第2の手術ツール606b、及び第3の手術ツール606cのような)の色特性に基づいて実行することができる。実施形態により、輪郭展開は、輪郭(第1のツール輪郭612a、第2のツール輪郭612b、及び第3のツール輪郭612cのような)の内側及び/又は外側の領域の曲率と強度分散とに基づく場合がある。輪郭展開されたビデオフレーム614は、輪郭(第1のツール輪郭612a、第2のツール輪郭612b、及び第3のツール輪郭612cのような)に対する輪郭展開の実行に基づいて輪郭付きビデオフレーム610から取得することができる得られるビデオフレームを示している。輪郭展開されたビデオフレーム614は、第1の展開された輪郭616a、第2の展開された輪郭616b、及び第3の展開された輪郭616c等の1又は2以上の展開された輪郭を含むことができる。第1の展開された輪郭616aは、第1のツール輪郭612aに対応することができ、それに対して第2の展開された輪郭616bは、第2のツール輪郭612bに対応することができる。更に、第3の展開された輪郭616cは、第3のツール輪郭612cに対応することができる。
実施形態により、画像フィルタリングエンジン210は、ツールセグメント化されたビデオフレーム618を取得するために、輪郭展開されたビデオフレーム614のセグメント化を実行するように更に構成することができる。ツールセグメント化されたビデオフレーム618は、第1のツールセグメント620a、第2のツールセグメント620b、及び第3のツールセグメント620c等の1又は2以上のツールセグメントを含むことができる。第1のツールセグメント620aは、第1の展開された輪郭616aのセグメント化に基づいて決定することができる。更に、第2のツールセグメント620b及び第3のツールセグメント620cは、それぞれ第2の展開された輪郭616b及び第3の展開された輪郭616cのセグメント化に基づいて決定することができる。実施形態により、画像フィルタリングエンジン210は、1又は2以上の手術ツール(第1の手術ツール606a、第2の手術ツール606b、及び第3の手術ツール606cのような)の予備2Dマスク(第1の2Dマスク608a、第2の2Dマスク608b、及び第3の2Dマスク608cのような)を精緻化することができる。精緻化は、1又は2以上のツールセグメント(第1のツールセグメント620a、第2のツールセグメント620b、及び第3のツールセグメント620cのような)に基づく場合がある。
図7Aから図7Dは、本発明の開示の実施形態によるビデオフレーム内の1又は2以上の手術ツールの姿勢の例示的シナリオを示している。図7Aを参照すると、第1の例示的シナリオ700aが示されている。更に、図7Bは第2の例示的シナリオ700bを表し、一方、図7C及び図7Dは、それぞれ第3の例示的シナリオ700c及び第4の例示的シナリオ700dを表している。4つの例示的シナリオ(700aから700dのような)の各々は、第1の手術ツール704と第2の手術ツール706とを含むビデオフレーム702を表している。しかし、手術ツール704及び706の姿勢は、これら4つの例示的シナリオ700aから700dにおいて異なっている。
第1の例示的シナリオ700aは、第1の手術ツール704の先端(704aで表す)での遮蔽を表しており、それに対して第2の例示的シナリオ700bは、第2の手術ツール706の先端(706aで表す)での遮蔽を表している。更に、第3の例示的シナリオ700cは、2つの手術ツールの先端及び終端の重心(708で表す)での遮蔽を表している。更に、第4の例示的シナリオ700dは、第1の手術ツール704の終端(704bで表す)での遮蔽を表している。各例示的シナリオ(700aから700dのような)は、第1の主軸セット(主軸710a及び712aを含む)と第2の主軸セット(主軸710b及び712bを含む)を更に表している。主軸710a及び710bは、それぞれ第1の手術ツール704の第1の主軸及び第2の主軸に対応することができる。主軸712a及び712bは、それぞれ第2の手術ツール706の第1の主軸及び第2の主軸に対応することができる。実施形態により、第2の主軸セットの各々は、第1の主軸セットからの関連の主軸に対して予め決められた角度にあるとすることができる。例えば、主軸710aと710bと(第1の手術ツール704の)は、互いに対して直交することができる。同様に、主軸712aと712bと(第2の手術ツール706の)も互いに対して直交することができる。
実施形態により、画像処理サーバ104のツール位置特定エンジン212は、ビデオフレーム702内で1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の先端及び/又は終端の位置を推定することができる。先端及び/又は終端の位置は、ビデオフレーム702内で検出された1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の2Dマスクの解析に基づいて推定することができる。2Dマスクの検出に対しては図2及び図4において詳細に記述している。
実施形態により、ツール位置特定エンジン212は、先端及び/又は終端の位置を推定するために、第1の主軸(長手主軸のような)に沿って2Dマスクを解析することができる。例えば、ツール位置特定エンジン212は、第1の手術ツール704の2Dマスクをこのツール704の710a等の第1の主軸に沿って解析することができる。更に、ツール位置特定エンジン212は、第2の手術ツール706の2Dマスクをこのツールの706の710b等の第1の主軸に沿って解析することができる。ツール位置特定エンジン212は、この位置に基づいて先端及び/又は終端の重心の位置を決定することができる。
実施形態により、重心が遮蔽されている時又は重心が検出された2Dマスクの外側に位置する時に、ツール位置特定エンジン212は、1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の先端及び/又は終端の位置を再推定することができる。例えば、第1の例示的シナリオ700a及び第4の例示的シナリオ700dでは、重心は、検出された2Dマスクの外側に位置することができ、それに対して第3の例示的シナリオ700cでは、重心は、遮蔽されている可能性がある。従って、700a、700c、及び700d等のそれぞれ第1、第3、及び第4の例示的シナリオの場合に、ツール位置特定エンジン212は、1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の先端及び/又は終端の位置を再推定することができる。
更に、ツール位置特定エンジン212は、先端及び/又は終端の再推定位置に基づいて重心の位置を更新することができる。先端及び/又は終端の位置の再推定は、第2の主軸(第1の手術ツール704の第2の主軸710b及び第2の手術ツール706の第2の主軸712b)に沿った検出された2Dマスクの解析に基づく場合がある。第2の主軸は、第1の主軸に対して予め決められた角度にあるとすることができる。例えば、第2の主軸は、第1の主軸に対して直交することができる。従って、第1の主軸が、検出された2Dマスクの緯度方向主軸に対応する場合に、第2の主軸は、検出された2Dマスクの長手主軸に対応することができる。実施形態により、ツール位置特定エンジン212は、先端及び/又は終端の推定位置に基づいてビデオフレーム702内の1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の姿勢を推定することができる。
図7Aの第1の例示的シナリオ700aは、第1の手術ツール704の先端(704aで表す)が第2の手術ツール706の先端(706aで表す)によって鈍角(「90度」よりも大きく「180度」よりも小さい)で遮蔽されるシナリオを示している。ツール位置特定エンジン212は、第1の手術ツール704及び第2の手術ツール706の2Dマスクをそれぞれの手術ツールの第1の主軸(710a及び712aで表す)に沿って解析することができる。この場合に、第1の手術ツール704及び第2の手術ツール706の非遮蔽先端の個数及び非遮蔽終端の個数は1に等しい。第1の主軸に沿った2Dマスクの解析に基づいて、ツール位置特定エンジン212は、先端と終端との重心(708で表す)が2Dマスクの外側に位置すると決定することができる。従って、ツール位置特定エンジン212は、先端のうちの1又は2以上が遮蔽されている可能性があることを確認することができる。手術ツール704及び706の姿勢を推定するために、ツール位置特定エンジン212は、更にこれらのツールの2Dマスクをそれぞれの手術ツールの第2の主軸(710b及び712bで表す)に沿って解析することができる。この場合に、第1の手術ツール704及び第2の手術ツール706の姿勢の推定は、第1の手術ツール704及び第2の手術ツール706のそれぞれの終端の推定位置にそれぞれ基づく場合がある。
図7Bの第2の例示的シナリオ700bは、第2の手術ツール706の先端(706aで表す)が第1の手術ツール704の先端(704aで表す)によって鋭角(「90度」よりも小さい)で遮蔽されるシナリオを示している。ツール位置特定エンジン212は、手術ツール704及び706の先端及び終端を検出するために、手術ツール704及び706の2Dマスクをそれぞれの手術ツールの第1の主軸(710a及び712aで表す)に沿って解析することができる。この場合に、1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の非遮蔽先端の個数は、非遮蔽終端の個数よりも少ないとすることができる。当業者は、現シナリオでは先端及び終端の重心(708によって表す)が2Dマスクの内側に位置する可能性があるので、ツール位置特定エンジン212が手術ツール704及び706の2Dマスクをこれらのツールの第2の主軸(それぞれ710b及び712b)に沿って解析する必要がないことを認めるであろう。更に、このシナリオでは、ツール位置特定エンジン212は、第1の手術ツール704及び第2の手術ツール706のそれぞれの終端の推定位置に基づいて第1の手術ツール704及び第2の手術ツール706の姿勢をそれぞれ推定することができる。
図7Cの第3の例示的シナリオ700cは、第1の手術ツール704及び第2の手術ツール706の先端及び/又は終端の重心(遮蔽された重心708のような)での遮蔽を示している。ツール位置特定エンジン212は、手術ツール704及び706の先端及び終端を検出するために、手術ツール704及び706の2Dマスクをそれぞれの手術ツールの第1の主軸(710a及び712aで表す)に沿って解析することができる。この場合に、非遮蔽先端の個数は、1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の非遮蔽終端の個数よりも多いか又はそれに等しいとすることができる。当業者は、現シナリオでは先端及び終端の重心(708によって表す)が2Dマスクの内側に位置する可能性があるので、ツール位置特定エンジン212は、手術ツール704及び706の2Dマスクをこれらのツールの第2の主軸(それぞれ710b及び712b)に沿って解析する必要がないことを認めるであろう。更に、このシナリオでは、ツール位置特定エンジン212は、第1の手術ツール704及び第2の手術ツール706のそれぞれの先端の推定位置に基づいて第1の手術ツール704及び第2の手術ツール706の姿勢をそれぞれ推定することができる。
図7Dの第4の例示的シナリオ700dは、第1の手術ツール704の終端(704bで表す)が第2の手術ツール706の終端(706bによって表す)によって遮蔽されるシナリオを示している。ツール位置特定エンジン212は、手術ツール704及び706の先端及び終端を検出するために、手術ツール704及び706の2Dマスクをそれぞれの手術ツールの第1の主軸(710a及び712aで表す)に沿って解析することができる。この場合に、非遮蔽先端の個数は、1又は2以上の手術ツール(第1の手術ツール704及び第2の手術ツール706のような)の非遮蔽終端の個数よりも多いか又はそれに等しい。第1の主軸に沿った2Dマスクの解析に基づいて、ツール位置特定エンジン212は、先端及び終端の重心(708によって表す)が2Dマスクの外側に位置すると決定することができる。従って、ツール位置特定エンジン212は、終端のうちの1又は2以上が遮蔽されている可能性があることを確認することができる。手術ツール704及び706の姿勢を推定するために、ツール位置特定エンジン212は、これらのツールの2Dマスクをそれぞれの手術ツールの第2の主軸(710b及び712bで表す)に沿って更に解析することができる。この場合に、ツール位置特定エンジン212は、第1の手術ツール704及び第2の手術ツール706のそれぞれの先端の推定位置に基づいて第1の手術ツール704及び第2の手術ツール706の姿勢をそれぞれ推定することができる。
図8は、本発明の開示の実施形態によるユーザ端末108上に提示することができるUIの例示的シナリオを示している。図8を図1の要素に関連付けて説明する。図8を参照すると、ユーザ端末108のユーザに提示することができるユーザインタフェース(UI)が示されている。
実施形態により、UIは、1又は2以上のビデオフレームをユーザに提示するための手術場面インタフェース802を表示するように構成することができる。例えば、図8に示すように、手術場面インタフェース802は、患者の解剖領域804の斜視断面図のスナップショットを含むビデオフレームを表示することができる。スナップショットは、解剖領域804に対して手術手順又は診断手順が実行される間に取り込むことができる。
スナップショット内に示すように、手術手順又は診断手順は、手術ガーゼ808等の1又は2以上の手術ガーゼと、手術鉗子806(第1の手術ツール)及び内視鏡手術器具810(第2の手術ツール)等の1又は2以上の手術器具とを用いて実行することができる。例えば、図8に示すように、内視鏡手術器具810を用いて手術手順又は診断手順が実行される時に、解剖領域804の面は、手術鉗子806を用いて保持することができる。更に、手術手順又は診断手順が実行される間に滲出する可能性がある血液又は他の体液を吸収するために手術ガーゼ808を使用することができる。図8には単一の手術ガーゼ及び2つの手術器具しか示していないが、手術手順又は診断手順を実行するのに、本発明の開示の範囲から逸脱することなく1又は2以上の追加の手術ガーゼ及び/又は手術器具を使用することができる。図8に示すように、手術場面インタフェース802は、手術鉗子806及び内視鏡手術器具810をそれぞれ取り囲む第1の境界812a及び第2の境界812bをビデオフレームのスナップショット内に更に例示している。手術場面インタフェース802は、第1の境界812a内に手術鉗子806の第1の姿勢軸(814aで表す)と第2の姿勢軸(814bで表す)とを更に示している。これに加えて、手術場面インタフェース802は、第2の境界812b内に内視鏡手術器具810の第1及び第2の姿勢軸(それぞれ816a及び816bで表す)を示している。
作動時に、手術場面インタフェース802内への特定のビデオフレームの表示の前に、画像処理サーバ104は、ビデオフレームを解析することができる。実施形態により、画像処理サーバ104の画像フィルタリングエンジン210は、1又は2以上の手術ツール(手術鉗子806及び内視鏡手術器具810のような)の1又は2以上の物理特性を決定することができる。1又は2以上の物理特性の決定は、1又は2以上の色制約及び幾何学的制約に基づく場合がある。その後に、画像フィルタリングエンジン210は、決定した1又は2以上の物理特性に基づいて、ビデオフレームに存在する1又は2以上の手術ツール(806及び810のような)の2Dマスクを検出することができる。更に、画像処理サーバ104のツール位置特定エンジン212は、1又は2以上の手術ツールの先端及び/又は終端での遮蔽に基づいてビデオフレーム内の1又は2以上の手術ツール(806及び810のような)の姿勢を推定することができる。それぞれの手術ツールの推定姿勢に基づいて、1又は2以上の手術ツール(806及び810のような)の位置は、ビデオフレーム内で決定することができる。
実施形態により、手術場面インタフェース802は、ビデオフレームがユーザに提示されている間にビデオフレーム内で位置特定することができる1又は2以上の手術ツール(806及び810のような)をマスキング又は強調表示することができる。例えば、手術場面インタフェース802は、ビデオフレーム内で手術鉗子806を取り囲む第1の境界812aを手術鉗子806の位置特定と姿勢推定とに基づいて表示することができる。同様に、手術場面インタフェース802は、ビデオフレーム内で内視鏡手術器具810を取り囲む第2の境界812bを内視鏡手術器具810の位置特定と姿勢推定とに基づいて表示することができる。実施形態により、手術場面インタフェース802は、手術鉗子806の姿勢の推定に基づいて第1の境界812a内における手術鉗子806の第1の姿勢軸814aと第2の姿勢軸814bとを表示することができる。更に、内視鏡手術器具810の姿勢の推定に基づいて、手術場面インタフェース802は、内視鏡手術器具810の第1及び第2の姿勢軸(それぞれ816a及び816bのような)を表示することができる。
実施形態により、手術場面インタフェース802は、ビデオフレーム内の1又は2以上の手術ツール(手術鉗子806及び内視鏡手術器具810のような)の位置特定を示す通知をユーザに提示するように更に構成することができる。通知は、現在のビデオフレーム内の各手術ツール(806及び810のような)の遮蔽の広がり及び/又はタイプを示すことができる。通知の例は、音声警告、文字警告、視覚警告、及び/又は触覚警告を含むことができるがこれらに限定されない。ビデオフレームが実時間で提示される場合に、手術場面インタフェース802は、通知に基づいて特定の行動を起こすようにユーザ(医師のような)に促すことができる。例えば、手術場面インタフェース802は、画像取り込みデバイスの1又は2以上の画像取り込み設定を調節するようにユーザに促すことができる。
手術場面インタフェース802は、1又は2以上の画像取り込み設定に対する最適値を提案することができる。ユーザは、ユーザに提示された提案最適値に基づいて画像取り込みデバイスの1又は2以上の画像取り込み設定を調節することができる。画像取り込みデバイスの1又は2以上の画像取り込み設定の調節に加えて、ユーザ(医師のような)は、1又は2以上の手術ツール(806及び810のような)の遮蔽の広がりを低減するために、解剖領域内で1又は2以上の手術ツール(806及び810のような)を再位置合わせ/再位置決めすることができる。当業者は、図8のUIが例証目的のために提供したものであり、本発明の開示の範囲を限定するものと解釈すべきではないことを理解するであろう。
本発明の開示の様々な実施形態は、多くの利点を包含することができる。上記で解説したように、画像処理サーバ104は、各ビデオフレーム内で1又は2以上の手術ツールの位置を実時間で決定するために、1又は2以上の手術ツールの姿勢の推定に基づいて1又は2以上のビデオフレームを解析することができる。ビデオフレームの解析中に、画像処理サーバ104は、最初に1又は2以上の色制約及び幾何学的制約に基づいて1又は2以上の手術ツールの1又は2以上の物理特性を決定することができる。画像処理サーバ104は、ビデオフレームが1又は2以上の煙ブロックで遮蔽されている時に煙なしビデオフレームを発生させるために、ビデオフレームから1又は2以上の煙ブロックを除去することができる。1又は2以上の煙ブロックの除去は、1又は2以上の手術ツールの位置特定の処理の精度を改善することができる。更に、画像処理サーバ104は、1又は2以上の物理特性と1又は2以上の煙ブロックの除去とに基づいて1又は2以上の手術ツールの2Dマスクを検出することができる。解説したように、画像処理サーバ104は、1又は2以上の手術ツールの検出された2Dマスクに関する輪郭の輪郭展開に基づいて1又は2以上の手術ツールの検出された2Dマスクを精緻化することができる。すなわち、最初に検出された2Dマスクは、精緻化することができ、それによってビデオフレーム内の1又は2以上の手術ツールの検出を更に改善することができる。
実施形態により、画像処理サーバ104は、1又は2以上の手術ツールの検出された2Dマスクにおける1又は2以上の手術ツールの先端/終端の遮蔽に基づいて1又は2以上の手術ツールの姿勢を推定するように構成することができる。そのような姿勢推定は、1又は2以上の手術ツールの先端及び/又は終端の遮蔽に対してロバストである場合がある。
手術手順又は診断手順中に、画像処理サーバ104は、ビデオフレーム内の1又は2以上の手術ツール位置特定を示すことができる通知を医師に実時間で提供することができる。通知は、1又は2以上の手術ツールの遮蔽の広がり及び/又はタイプを更に示すことができる。実時間通知に基づいて、医師は、手術手順又は診断手順が実行される間に1又は2以上の手術ツールの遮蔽の広がりを低減するために、解剖領域内で1又は2以上の手術ツールを再位置合わせ/再位置決めすることができる。
更に、解説するように、画像処理サーバ104は、医師が、特定のビデオフレーム内の1又は2以上の手術ツールの位置特定に基づいて画像取り込みデバイスの1又は2以上の画像取り込み設定を調節することを可能にすることができる。1又は2以上の画像取り込み設定におけるそのような調節は、画像取り込みデバイスによって取り込まれる1又は2以上のビデオフレームの品質の実時間の改善に役立たせることができる。
図9は、本発明の開示の実施形態により解剖学的手術中に手術ツールを位置特定する例示的方法を示す例示的流れ図である。図9を参照すると、流れ図900が示されている。流れ図900を図1及び図2に関連付けて説明する。本方法は、段階902で始まって段階904に進行する。
段階904において、煙なしビデオフレームを発生させるために、ビデオフレームの1又は2以上の煙ブロックをビデオフレームから除去することができる。実施形態により、画像フィルタリングエンジン210は、ビデオフレームが1又は2以上の煙ブロックで遮蔽されている時に煙なしビデオフレームを発生させるためにビデオフレームの1又は2以上の煙ブロックを除去するように構成することができる。実施形態により、画像フィルタリングエンジン210は、前のビデオフレームセットからの各ビデオフレーム内で1又は2以上の煙領域を検出するために、前のビデオフレームセット(時間的に現在のビデオフレームの前に発生する予め決められた数のビデオフレーム)を解析することができる。画像フィルタリングエンジン210は、前のビデオフレームセット内で検出された1又は2以上の煙領域内のピクセルセットの累積強度を決定することができる。ビデオフレームからの1又は2以上の煙ブロックの除去は、前のビデオフレームセット内で検出された1又は2以上の煙領域内のピクセルセットの累積強度に基づく場合がある。
段階906において、ビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を決定することができる。実施形態により、画像処理サーバ104の画像フィルタリングエンジン210は、ビデオフレーム(又は煙なしビデオフレーム)内の1又は2以上の手術ツールの1又は2以上の物理特性を決定するように構成することができる。実施形態により、1又は2以上の手術ツールの1又は2以上の物理特性は、1又は2以上の色制約及び幾何学的制約に基づいて決定することができる。1又は2以上の色制約及び幾何学的制約に対しては図2を参照して詳述している。
段階908において、ビデオフレームに存在する1又は2以上の手術ツールの2Dマスクを検出することができる。実施形態により、画像フィルタリングエンジン210は、1又は2以上の手術ツールの決定された1又は2以上の物理特性に基づいて1又は2以上の手術ツールの2Dマスクを検出するように構成することができる。1又は2以上の手術ツールの2Dマスクの決定に対しては図2において詳細に記述している。実施形態により、画像フィルタリングエンジン210は、1又は2以上のツールの初期2Dマスクに関する輪郭の輪郭展開に基づいて1又は2以上の手術ツールの2Dマスクを精緻化するように構成することができる。1又は2以上の手術ツールの2Dマスクの精緻化に対しては図6において詳細に記述している。
段階910において、ビデオフレーム内で1又は2以上の手術ツールの先端/終端の位置を推定することができる。実施形態により、ツール位置特定エンジン212は、ビデオフレーム内で1又は2以上の手術ツールの先端及び/又は終端の位置を推定するように構成することができる。先端及び/又は端部の位置の推定は、1又は2以上の手術ツールの検出された2Dの解析に基づく場合がある。更に、ツール位置特定エンジン212は、1又は2以上のツールの先端及び/又は終端の重心の位置を決定することができる。実施形態により、ツール位置特定エンジン212は、重心が遮蔽されている時又は重心が1又は2以上の手術ツールの2Dマスクの外側に位置する時に、1又は2以上の手術ツールの先端及び/又は終端の位置を再推定することができる。更に、ツール位置特定エンジン212は、1又は2以上の手術ツールの先端及び/又は終端の再推定位置に基づいて重心の位置を更新することができる。1又は2以上の手術ツールの先端/終端の位置の推定(及び/又は再推定)に対しては図2において詳細に記述している。
段階912において、ビデオフレーム内の1又は2以上の手術ツールの姿勢を推定することができる。実施形態により、ツール位置特定エンジン212は、1又は2以上の手術ツールの先端及び/又は終端の遮蔽に基づいて1又は2以上の手術ツールの姿勢を推定するように構成することができる。実施形態により、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの先端が遮蔽されている時の1又は2以上の手術ツールの終端の推定位置に基づくことができる。更に、1又は2以上の手術ツールの姿勢の推定は、1又は2以上の手術ツールの重心及び/又は終端が遮蔽されている時の1又は2以上の手術ツールの先端の推定位置に基づく場合がある。1又は2以上の手術ツールの姿勢の例示的シナリオに対しては図7Aから図7Dにおいて詳細に記述している。更に、1又は2以上の手術ツールの姿勢の推定に対しては図2において詳細に記述している。制御は、終了段階914に渡される。
本発明の開示の実施形態により、解剖学的手術中に手術ツールを位置特定するためのシステムを開示している。システムは、画像取り込みデバイス(図1には示していない)に通信ネットワーク110を通して通信的に結合された画像処理サーバ104を含むことができる。画像取り込みデバイスは、解剖学的手術中に1又は2以上のビデオフレームを取り込むように構成することができる。画像処理サーバ104は、1又は2以上のビデオフレームからのビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を1又は2以上の色制約及び幾何学的制約に基づいて決定するように構成することができる。画像処理サーバ104は、1又は2以上の手術ツールの決定された1又は2以上の物理特性に基づいて、ビデオフレームに存在する1又は2以上の手術ツールの2Dマスクを検出するように更に構成することができる。更に、画像処理サーバ104は、1又は2以上の手術ツールの2Dマスクが1又は2以上の手術ツールの先端及び/又は終端で遮蔽されている時にビデオフレーム内の1又は2以上の手術ツールの姿勢を推定するように構成することができる。
本発明の開示の様々な実施形態は、解剖学的手術中に手術ツールを位置特定するために機械及び/又はコンピュータによって実行可能な少なくとも1つのコードセクションを有する機械コード及び/又はコンピュータプログラムが格納された非一時的コンピュータ可読媒体及び/又はストレージ媒体、及び/又は非一時的機械可読媒体及び/又はストレージ媒体を提供することができる。画像処理サーバ104内の少なくとも1つのコードセクションは、1又は2以上の色制約及び幾何学的制約に基づく1又は2以上のビデオフレームからのビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性の決定を含む段階を機械及び/又はコンピュータに実行させることができる。1又は2以上のビデオフレームは、画像処理サーバ104に通信ネットワーク110を通して通信的に結合することができる画像取り込みデバイスによって取り込むことができる。実施形態により、1又は2以上の手術ツールの決定された1又は2以上の物理特性に基づいて、ビデオフレームに存在する1又は2以上の手術ツールの2Dマスクを検出することができる。更に、1又は2以上の手術ツールの2Dマスクが1又は2以上の手術ツールの先端及び/又は終端で遮蔽されている時に、ビデオフレーム内の1又は2以上の手術ツールの姿勢を推定することができる。
本発明の開示は、ハードウエア、又はハードウエアとソフトウエアの組合せに実現することができる。本発明の開示は、少なくとも1つのコンピュータシステムにおいて中央集中様式に実現するか、又は相互接続したいくつかのコンピュータシステムにわたって様々な要素を分散させることができる分散様式に実現することができる。本明細書で説明する方法を実施するように適応化されたコンピュータシステム又は他の装置が適切である場合がある。ハードウエアとソフトウエアの組合せは、ロードされて実行された時に、本明細書で説明する方法を実施するようにコンピュータシステムを制御することができるコンピュータプログラムを有する汎用コンピュータシステムとすることができる。本発明の開示は、他の機能も実行する集積回路の一部分を含むハードウエアに実現することができる。
本発明の開示はまた、本明細書に記述した方法の実施を可能にする全ての特徴を含み、かつコンピュータシステムにロードされた時にこれらの方法を実行することができるコンピュータプログラム製品に具現化することができる。コンピュータプログラムは、本発明の関連において、特定の機能を直接に、又はa)別の言語、コード、又は表記への変換とb)異なる材料形態における複製とのいずれか又は両方の後で情報処理機能を有するシステムに実行させることが意図された命令セットのあらゆる言語、コード、又は表記におけるあらゆる表現を意味する。
本発明の開示をある一定の実施形態を参照して記述したが、当業者は、本発明の開示の範囲から逸脱することなく様々な変更を加えることができ、かつ均等物で代用することができることを理解するであろう。これに加えて、本発明の開示の教示に対してその範囲から逸脱することなく特定の状況又は材料を適応させるために多くの修正を加えることができる。従って、本発明の開示は、開示した特定の実施形態に限定されず、むしろ添付の特許請求の範囲に収まる全ての実施形態を含むことになるように意図している。
100 ネットワーク環境
102 手術デバイス
104 画像処理サーバ
108 ユーザ端末
110 通信ネットワーク

Claims (26)

  1. 解剖学的手術中の手術ツール位置特定のためのシステムであって、
    1又は2以上のビデオフレームを取り込むように構成された画像取り込みデバイスに通信的に結合された画像処理エンジン内の1又は2以上の回路、
    を含み、
    前記1又は2以上の回路は、
    1又は2以上の色制約及び幾何学的制約に基づいて、前記1又は2以上のビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を決定し、
    前記1又は2以上のビデオフレームに存在する前記1又は2以上の手術ツールの2次元(2D)マスクを該1又は2以上の手術ツールの前記決定された1又は2以上の物理特性に基づいて検出し、かつ
    前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの姿勢を該1又は2以上の手術ツールの前記2Dマスクが該1又は2以上の手術ツールの先端及び/又は終端で遮蔽されている時に推定する、
    ように構成される、
    ことを特徴とするシステム。
  2. 前記1又は2以上の回路は、前記1又は2以上のビデオフレームが1又は2以上の煙ブロックで遮蔽されている時に、該1又は2以上のビデオフレームから該1又は2以上の煙ブロックを除去して煙なしビデオフレームを発生させるように更に構成されることを特徴とする請求項1に記載のシステム。
  3. 前記1又は2以上の回路は、前記1又は2以上のビデオフレームの前のビデオフレームセットの各々内で1又は2以上の煙領域を検出するように更に構成されることを特徴とする請求項2に記載のシステム。
  4. 前記1又は2以上の煙ブロックは、前記1又は2以上のビデオフレームから該1又は2以上のビデオフレームの前の前記ビデオフレームセットの各々内の前記検出された1又は2以上の煙領域内のピクセルセットの累積強度に基づいて除去されることを特徴とする請求項3に記載のシステム。
  5. 前記1又は2以上の回路は、前記煙なしビデオフレーム内の前記1又は2以上の手術ツールの前記検出された2Dマスク内の該1又は2以上の手術ツールの色特性に基づいて輪郭展開を実行するように更に構成されることを特徴とする請求項2に記載のシステム。
  6. 前記輪郭展開は、前記煙なしビデオフレーム内の前記検出された2Dマスクの輪郭の内側及び/又は外側の領域の曲率と強度分散とに基づいて実行されることを特徴とする請求項5に記載のシステム。
  7. 前記1又は2以上の回路は、前記輪郭展開に基づいて、前記煙なしビデオフレームのセグメント化を実行して該煙なしビデオフレーム内の前記1又は2以上の手術ツールを検出するように更に構成されることを特徴とする請求項5に記載のシステム。
  8. 前記1又は2以上の回路は、前記1又は2以上のビデオフレームの各領域内のピクセル強度に基づいて前記1又は2以上の色制約に対応する適応色フィルタリングを実行するように更に構成されることを特徴とする請求項1に記載のシステム。
  9. 前記適応色フィルタリングは、前記1又は2以上のビデオフレームの前記各領域に対してopp2色強度ベースのフィルタリング又は正規化されたopp2色強度ベースのフィルタリングに基づいて実行されることを特徴とする請求項8に記載のシステム。
  10. 前記1又は2以上のビデオフレームに存在する前記1又は2以上の手術ツールの前記2Dマスクの前記検出は、前記適応色フィルタリングに基づいていることを特徴とする請求項8に記載のシステム。
  11. 前記1又は2以上の回路は、前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの前記先端及び/又は前記終端の位置を該1又は2以上の手術ツールの前記検出された2Dマスクの長手主軸に沿って延びる第1の方向ベクトルに沿って該1又は2以上の手術ツールの該検出された2Dマスクの解析に基づいて推定するように更に構成されることを特徴とする請求項1に記載のシステム。
  12. 前記1又は2以上の回路は、前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの前記先端及び/又は前記終端の前記位置の重心を決定するように更に構成されることを特徴とする請求項11に記載のシステム。
  13. 前記1又は2以上の回路は、前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの前記先端及び/又は前記終端の前記位置を前記第1の方向ベクトルに対して予め決められた角度にある第2の方向ベクトルに沿って該1又は2以上の手術ツールの前記検出された2Dマスクの解析に基づいて再推定するように更に構成され、
    先端及び/又は終端の前記位置は、前記重心が前記1又は2以上の手術ツールの前記検出された2Dマスクの外側に位置するか又は該重心が遮蔽されている時に再推定される、
    ことを特徴とする請求項12に記載のシステム。
  14. 前記1又は2以上の手術ツールの前記姿勢の前記推定は、該1又は2以上の手術ツールの前記先端が遮蔽されている時に、該1又は2以上の手術ツールの前記終端の前記推定された位置に基づいていることを特徴とする請求項11に記載のシステム。
  15. 前記1又は2以上の手術ツールの前記姿勢の前記推定は、該1又は2以上の手術ツールの前記重心及び/又は前記終端が遮蔽されている時に、該1又は2以上の手術ツールの前記先端の前記推定された位置に基づいていることを特徴とする請求項11に記載のシステム。
  16. 前記画像取り込みデバイスの1又は2以上の画像取り込み設定が、前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの前記姿勢の前記推定に基づいて調節されることを特徴とする請求項1に記載のシステム。
  17. 前記1又は2以上の画像取り込み設定は、自動露光、自動フォーカス、自動ホワイトバランス、又は自動照明のうちの1又は2以上を含むことを特徴とする請求項1に記載のシステム。
  18. 前記1又は2以上の回路は、前記解剖学的手術中にユーザインタフェースを通じて前記1又は2以上のビデオフレームを表示するように更に構成され、
    前記1又は2以上の手術ツールは、前記表示された1又は2以上のビデオフレーム内でマスキング又は強調表示される、
    ことを特徴とする請求項1に記載のシステム。
  19. 前記1又は2以上の回路は、前記1又は2以上の手術ツールの前記先端及び/又は前記終端での該1又は2以上の手術ツールの遮蔽を示す通知を発生させるように更に構成され、
    前記通知は、音声警告、文字警告、視覚警告、又は触覚警告のうちの1又は2以上に対応する、
    ことを特徴とする請求項1に記載のシステム。
  20. 解剖学的手術中の手術ツール位置特定の方法であって、
    画像取り込みデバイスに通信的に結合された画像処理エンジンにおいて、
    1又は2以上の色制約及び幾何学的制約に基づいて、1又は2以上のビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を決定する段階であって、前記画像取り込みデバイスが、該1又は2以上のビデオフレームを取り込むように構成される前記決定する段階と、
    前記1又は2以上のビデオフレームに存在する前記1又は2以上の手術ツールの2次元(2D)マスクを該1又は2以上の手術ツールの前記決定された1又は2以上の物理特性に基づいて検出する段階と、
    前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの姿勢を該1又は2以上の手術ツールの前記2Dマスクが該1又は2以上の手術ツールの先端及び/又は終端で遮蔽されている時に推定する段階と、
    を含むことを特徴とする方法。
  21. 前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの前記先端及び/又は前記終端の位置を該1又は2以上の手術ツールの前記検出された2Dマスクの長手主軸に沿って延びる第1の方向ベクトルに沿って該1又は2以上の手術ツールの該検出された2Dマスクの解析に基づいて推定する段階を更に含むことを特徴とする請求項20に記載の方法。
  22. 前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの前記先端及び/又は前記終端の前記位置の重心を決定する段階を更に含むことを特徴とする請求項21に記載の方法。
  23. 前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの前記先端及び/又は前記終端の前記位置を前記第1の方向ベクトルに対して予め決められた角度にある第2の方向ベクトルに沿って該1又は2以上の手術ツールの前記検出された2Dマスクの解析に基づいて再推定する段階を更に含み、
    先端及び/又は終端の前記位置は、前記重心が前記1又は2以上の手術ツールの前記検出された2Dマスクの外側に位置するか又は該重心が遮蔽されている時に再推定される、
    ことを特徴とする請求項22に記載の方法。
  24. 前記1又は2以上の手術ツールの前記姿勢の前記推定は、該1又は2以上の手術ツールの前記先端が遮蔽されている時に、該1又は2以上の手術ツールの前記終端の前記推定された位置に基づいていることを特徴とする請求項21に記載の方法。
  25. 前記1又は2以上の手術ツールの前記姿勢の前記推定は、該1又は2以上の手術ツールの前記重心及び/又は前記終端が遮蔽されている時に、該1又は2以上の手術ツールの前記先端の前記推定された位置に基づいていることを特徴とする請求項21に記載の方法。
  26. コンピュータをして、
    1又は2以上の色制約及び幾何学的制約に基づいて、1又は2以上のビデオフレームに存在する1又は2以上の手術ツールの1又は2以上の物理特性を決定する段階であって、前記コンピュータが、該1又は2以上のビデオフレームを取り込むように構成された画像取り込みデバイスに通信的に結合される前記決定する段階と、
    前記1又は2以上のビデオフレームに存在する前記1又は2以上の手術ツールの2次元(2D)マスクを該1又は2以上の手術ツールの前記決定された1又は2以上の物理特性に基づいて検出する段階と、
    前記1又は2以上のビデオフレーム内の前記1又は2以上の手術ツールの姿勢を該1又は2以上の手術ツールの前記2Dマスクが該1又は2以上の手術ツールの先端及び/又は終端で遮蔽されている時に推定する段階と、
    を含む段階を実行させるためのコンピュータ実行可能命令セットが格納された非一時的コンピュータ可読ストレージ媒体。
JP2017560903A 2015-02-19 2016-02-16 解剖学的手術中の手術ツール位置特定の方法及びそのためのシステム Active JP6525174B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562118043P 2015-02-19 2015-02-19
US62/118,043 2015-02-19
US14/860,914 2015-09-22
US14/860,914 US9905000B2 (en) 2015-02-19 2015-09-22 Method and system for surgical tool localization during anatomical surgery
PCT/US2016/018035 WO2016133885A1 (en) 2015-02-19 2016-02-16 Method and system for surgical tool localization during anatomical surgery

Publications (2)

Publication Number Publication Date
JP2018513755A true JP2018513755A (ja) 2018-05-31
JP6525174B2 JP6525174B2 (ja) 2019-06-05

Family

ID=56692358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017560903A Active JP6525174B2 (ja) 2015-02-19 2016-02-16 解剖学的手術中の手術ツール位置特定の方法及びそのためのシステム

Country Status (6)

Country Link
US (2) US9905000B2 (ja)
EP (1) EP3242590B1 (ja)
JP (1) JP6525174B2 (ja)
KR (1) KR101986443B1 (ja)
CN (1) CN107530132B (ja)
WO (1) WO2016133885A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022530795A (ja) * 2019-06-20 2022-07-01 ソニーグループ株式会社 手術ツールの先端及び向きの決定

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871901B2 (en) * 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US20240081611A1 (en) * 2012-05-20 2024-03-14 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US9370372B2 (en) 2013-09-04 2016-06-21 Mcginley Engineered Solutions, Llc Drill bit penetration measurement systems and methods
EP3065650B1 (en) 2013-11-08 2019-01-30 Mcginley Engineered Solutions LLC Surgical saw with sensing technology for determining cut through of bone and depth of the saw blade during surgery
EP3188671A4 (en) 2014-09-05 2018-03-14 Mcginley Engineered Solutions LLC Instrument leading edge measurement system and method
US11504192B2 (en) 2014-10-30 2022-11-22 Cilag Gmbh International Method of hub communication with surgical instrument systems
US20160259888A1 (en) * 2015-03-02 2016-09-08 Sony Corporation Method and system for content management of video images of anatomical regions
FR3039910B1 (fr) * 2015-08-04 2018-08-24 Université Grenoble Alpes Dispositif et procede de detection automatique d'un outil chirurgical sur une image fournie par un systeme d'imagerie medicale
EP3367940B1 (en) 2015-10-27 2020-02-19 McGinley Engineered Solutions LLC Instruments for placement of orthopedic implants relative to bone features
US10321920B2 (en) 2015-11-06 2019-06-18 Mcginley Engineered Solutions, Llc Measurement system for use with surgical burr instrument
DE102016121668A1 (de) 2016-11-11 2018-05-17 Karl Storz Se & Co. Kg Automatische Identifizierung medizinisch relevanter Videoelemente
SG10201700386PA (en) * 2017-01-17 2018-08-30 Ndr Medical Tech Pte Ltd A System And Method For Aligning An Elongated Tool To An Occluded Target
EP3668436A4 (en) * 2017-08-16 2021-05-12 Covidien LP SYSTEMS AND METHODS FOR IMPROVING SURGICAL IMAGES AND / OR VIDEOS
US10987113B2 (en) 2017-08-25 2021-04-27 Mcginley Engineered Solutions, Llc Sensing of surgical instrument placement relative to anatomic structures
CN107874760B (zh) * 2017-09-27 2020-12-25 中国科学院深圳先进技术研究院 一种医学影像中的导丝追踪方法、装置、设备及存储介质
WO2019070729A1 (en) * 2017-10-02 2019-04-11 Mcginley Engineered Solutions, Llc SURGICAL INSTRUMENT FOR AIDING REAL-TIME NAVIGATION
US11317919B2 (en) 2017-10-30 2022-05-03 Cilag Gmbh International Clip applier comprising a clip crimping system
US11026687B2 (en) 2017-10-30 2021-06-08 Cilag Gmbh International Clip applier comprising clip advancing systems
US11229436B2 (en) 2017-10-30 2022-01-25 Cilag Gmbh International Surgical system comprising a surgical tool and a surgical hub
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11564756B2 (en) 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11759224B2 (en) 2017-10-30 2023-09-19 Cilag Gmbh International Surgical instrument systems comprising handle arrangements
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11311342B2 (en) 2017-10-30 2022-04-26 Cilag Gmbh International Method for communicating with surgical instrument systems
US11291510B2 (en) 2017-10-30 2022-04-05 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11510741B2 (en) 2017-10-30 2022-11-29 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US11076921B2 (en) 2017-12-28 2021-08-03 Cilag Gmbh International Adaptive control program updates for surgical hubs
US11559307B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method of robotic hub communication, detection, and control
US11278281B2 (en) 2017-12-28 2022-03-22 Cilag Gmbh International Interactive surgical system
US11419667B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11529187B2 (en) 2017-12-28 2022-12-20 Cilag Gmbh International Surgical evacuation sensor arrangements
US10944728B2 (en) 2017-12-28 2021-03-09 Ethicon Llc Interactive surgical systems with encrypted communication capabilities
US11179208B2 (en) 2017-12-28 2021-11-23 Cilag Gmbh International Cloud-based medical analytics for security and authentication trends and reactive measures
US11266468B2 (en) 2017-12-28 2022-03-08 Cilag Gmbh International Cooperative utilization of data derived from secondary sources by intelligent surgical hubs
US11069012B2 (en) 2017-12-28 2021-07-20 Cilag Gmbh International Interactive surgical systems with condition handling of devices and data capabilities
US10966791B2 (en) 2017-12-28 2021-04-06 Ethicon Llc Cloud-based medical analytics for medical facility segmented individualization of instrument function
US11056244B2 (en) 2017-12-28 2021-07-06 Cilag Gmbh International Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks
US11304763B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11464535B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Detection of end effector emersion in liquid
US10849697B2 (en) 2017-12-28 2020-12-01 Ethicon Llc Cloud interface for coupled surgical devices
US11317937B2 (en) 2018-03-08 2022-05-03 Cilag Gmbh International Determining the state of an ultrasonic end effector
US11304699B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11832840B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical instrument having a flexible circuit
US10758310B2 (en) * 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11160605B2 (en) 2017-12-28 2021-11-02 Cilag Gmbh International Surgical evacuation sensing and motor control
US11571234B2 (en) 2017-12-28 2023-02-07 Cilag Gmbh International Temperature control of ultrasonic end effector and control system therefor
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11324557B2 (en) 2017-12-28 2022-05-10 Cilag Gmbh International Surgical instrument with a sensing array
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11253315B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Increasing radio frequency to create pad-less monopolar loop
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US20190201146A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Safety systems for smart powered surgical stapling
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11602393B2 (en) 2017-12-28 2023-03-14 Cilag Gmbh International Surgical evacuation sensing and generator control
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11304720B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Activation of energy devices
US11257589B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11376002B2 (en) 2017-12-28 2022-07-05 Cilag Gmbh International Surgical instrument cartridge sensor assemblies
US10932872B2 (en) 2017-12-28 2021-03-02 Ethicon Llc Cloud-based medical analytics for linking of local usage trends with the resource acquisition behaviors of larger data set
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US10695081B2 (en) 2017-12-28 2020-06-30 Ethicon Llc Controlling a surgical instrument according to sensed closure parameters
US11423007B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Adjustment of device control programs based on stratified contextual data in addition to the data
US11051876B2 (en) 2017-12-28 2021-07-06 Cilag Gmbh International Surgical evacuation flow paths
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US20190201118A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Display arrangements for robot-assisted surgical platforms
US11464559B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US11364075B2 (en) 2017-12-28 2022-06-21 Cilag Gmbh International Radio frequency energy device for delivering combined electrical signals
US10943454B2 (en) 2017-12-28 2021-03-09 Ethicon Llc Detection and escalation of security responses of surgical instruments to increasing severity threats
US11540855B2 (en) 2017-12-28 2023-01-03 Cilag Gmbh International Controlling activation of an ultrasonic surgical instrument according to the presence of tissue
US10892899B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Self describing data packets generated at an issuing instrument
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11311306B2 (en) 2017-12-28 2022-04-26 Cilag Gmbh International Surgical systems for detecting end effector tissue distribution irregularities
US11273001B2 (en) 2017-12-28 2022-03-15 Cilag Gmbh International Surgical hub and modular device response adjustment based on situational awareness
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11234756B2 (en) 2017-12-28 2022-02-01 Cilag Gmbh International Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter
US11419630B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Surgical system distributed processing
US11147607B2 (en) 2017-12-28 2021-10-19 Cilag Gmbh International Bipolar combination device that automatically adjusts pressure based on energy modality
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11308075B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US20190201087A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Smoke evacuation system including a segmented control circuit for interactive surgical platform
US11291495B2 (en) 2017-12-28 2022-04-05 Cilag Gmbh International Interruption of energy due to inadvertent capacitive coupling
US11026751B2 (en) 2017-12-28 2021-06-08 Cilag Gmbh International Display of alignment of staple cartridge to prior linear staple line
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11576677B2 (en) 2017-12-28 2023-02-14 Cilag Gmbh International Method of hub communication, processing, display, and cloud analytics
US10987178B2 (en) 2017-12-28 2021-04-27 Ethicon Llc Surgical hub control arrangements
US11612408B2 (en) 2017-12-28 2023-03-28 Cilag Gmbh International Determining tissue composition via an ultrasonic system
US11284936B2 (en) 2017-12-28 2022-03-29 Cilag Gmbh International Surgical instrument having a flexible electrode
US11589888B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Method for controlling smart energy devices
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US10892995B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11096693B2 (en) 2017-12-28 2021-08-24 Cilag Gmbh International Adjustment of staple height of at least one row of staples based on the sensed tissue thickness or force in closing
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11304745B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Surgical evacuation sensing and display
US11424027B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
US11100631B2 (en) 2017-12-28 2021-08-24 Cilag Gmbh International Use of laser light and red-green-blue coloration to determine properties of back scattered light
US11633237B2 (en) 2017-12-28 2023-04-25 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11013563B2 (en) 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US11432885B2 (en) 2017-12-28 2022-09-06 Cilag Gmbh International Sensing arrangements for robot-assisted surgical platforms
US11559308B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method for smart energy device infrastructure
US10898622B2 (en) 2017-12-28 2021-01-26 Ethicon Llc Surgical evacuation system with a communication circuit for communication between a filter and a smoke evacuation device
US11446052B2 (en) 2017-12-28 2022-09-20 Cilag Gmbh International Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11202570B2 (en) 2017-12-28 2021-12-21 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11410259B2 (en) 2017-12-28 2022-08-09 Cilag Gmbh International Adaptive control program updates for surgical devices
US11701162B2 (en) 2018-03-08 2023-07-18 Cilag Gmbh International Smart blade application for reusable and disposable devices
US11259830B2 (en) 2018-03-08 2022-03-01 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11707293B2 (en) 2018-03-08 2023-07-25 Cilag Gmbh International Ultrasonic sealing algorithm with temperature control
US11406382B2 (en) 2018-03-28 2022-08-09 Cilag Gmbh International Staple cartridge comprising a lockout key configured to lift a firing member
US11259806B2 (en) 2018-03-28 2022-03-01 Cilag Gmbh International Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein
US11207067B2 (en) 2018-03-28 2021-12-28 Cilag Gmbh International Surgical stapling device with separate rotary driven closure and firing systems and firing member that engages both jaws while firing
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US11471156B2 (en) 2018-03-28 2022-10-18 Cilag Gmbh International Surgical stapling devices with improved rotary driven closure systems
US10973520B2 (en) 2018-03-28 2021-04-13 Ethicon Llc Surgical staple cartridge with firing member driven camming assembly that has an onboard tissue cutting feature
US11096688B2 (en) 2018-03-28 2021-08-24 Cilag Gmbh International Rotary driven firing members with different anvil and channel engagement features
US11278280B2 (en) 2018-03-28 2022-03-22 Cilag Gmbh International Surgical instrument comprising a jaw closure lockout
US11219453B2 (en) 2018-03-28 2022-01-11 Cilag Gmbh International Surgical stapling devices with cartridge compatible closure and firing lockout arrangements
US20210007810A1 (en) * 2018-03-29 2021-01-14 270 Surgical Ltd. Medical imaging system and method for detecting the position thereof
US10963698B2 (en) * 2018-06-14 2021-03-30 Sony Corporation Tool handedness determination for surgical videos
CN109028233B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 厨房油烟浓度划分方法及油烟图像识别系统及油烟机
CN109028234B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 一种能够对烟雾等级进行标识的油烟机
US11317915B2 (en) 2019-02-19 2022-05-03 Cilag Gmbh International Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
US11357503B2 (en) 2019-02-19 2022-06-14 Cilag Gmbh International Staple cartridge retainers with frangible retention features and methods of using same
US11369377B2 (en) 2019-02-19 2022-06-28 Cilag Gmbh International Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout
US11298129B2 (en) 2019-02-19 2022-04-12 Cilag Gmbh International Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge
USD950728S1 (en) 2019-06-25 2022-05-03 Cilag Gmbh International Surgical staple cartridge
USD952144S1 (en) 2019-06-25 2022-05-17 Cilag Gmbh International Surgical staple cartridge retainer with firing system authentication key
USD964564S1 (en) 2019-06-25 2022-09-20 Cilag Gmbh International Surgical staple cartridge retainer with a closure system authentication key
US11529180B2 (en) 2019-08-16 2022-12-20 Mcginley Engineered Solutions, Llc Reversible pin driver
WO2021138565A1 (en) * 2019-12-31 2021-07-08 Stryker Corporation Systems and methods for surgical smoke management
EP4091174A1 (en) * 2020-01-15 2022-11-23 Intuitive Surgical Operations, Inc. Systems and methods for providing surgical assistance based on operational context
KR102568907B1 (ko) * 2020-08-20 2023-08-23 (주)신한항업 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법과 데이터셋 생성시스템
US20220133228A1 (en) * 2020-11-03 2022-05-05 Biosense Webster (Israel) Ltd. Identification and visualization of non-navigated objects in medical images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090088634A1 (en) * 2007-09-30 2009-04-02 Intuitive Surgical, Inc. Tool tracking systems and methods for image guided surgery
US20130288214A1 (en) * 2010-05-26 2013-10-31 The Research Foundation For The State University Of New York Method and System for Automatic Tool Position Determination for Minimally-Invasive Surgery Training

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9405299D0 (en) 1994-03-17 1994-04-27 Roke Manor Research Improvements in or relating to video-based systems for computer assisted surgery and localisation
US6725080B2 (en) * 2000-03-01 2004-04-20 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
US6978167B2 (en) 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
FR2897703B1 (fr) 2006-02-20 2008-04-25 Univ Grenoble 1 Detection automatique d'un outil chirurgical sur une image fournie par un systeme d'imagerie medicale
DE112007001214T5 (de) * 2006-05-16 2009-04-02 Surgiceye Gmbh Verfahren und Vorrichtung zur 3D-Akquisition, 3D-Visualisierung und computergeführten Operation mit Nuklearsonden
WO2009045827A2 (en) 2007-09-30 2009-04-09 Intuitive Surgical, Inc. Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems
EP2201784B1 (en) * 2007-10-11 2012-12-12 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
WO2012100030A2 (en) * 2011-01-19 2012-07-26 Duke University Imaging and visualization systems, instruments, and methods using optical coherence tomography
EP2734108A4 (en) 2011-07-22 2014-12-24 Univ Columbia TOOL MONITORING DURING SURGICAL INTERVENTIONS
US20130211232A1 (en) * 2012-02-01 2013-08-15 The Johns Hopkins University Arthroscopic Surgical Planning and Execution with 3D Imaging
WO2014003782A1 (en) * 2012-06-29 2014-01-03 Analogic Corporation Automatic occlusion region identification using radiation imaging modality
US9413976B2 (en) 2012-08-08 2016-08-09 Intuitive Surgical Operations, Inc. Auto exposure of a camera in a surgical robot
WO2014089439A1 (en) 2012-12-07 2014-06-12 University Of Houston Surgical procedure management systems and methods
CA2933684A1 (en) 2012-12-14 2014-06-19 The Trustees Of Columbia University In The City Of New York Markerless tracking of robotic surgical tools
WO2014140813A1 (en) * 2013-03-11 2014-09-18 Fondation De Cooperation Scientifique Anatomical site relocalisation using dual data synchronisation
JP6265630B2 (ja) 2013-06-13 2018-01-24 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090088634A1 (en) * 2007-09-30 2009-04-02 Intuitive Surgical, Inc. Tool tracking systems and methods for image guided surgery
US20130288214A1 (en) * 2010-05-26 2013-10-31 The Research Foundation For The State University Of New York Method and System for Automatic Tool Position Determination for Minimally-Invasive Surgery Training

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022530795A (ja) * 2019-06-20 2022-07-01 ソニーグループ株式会社 手術ツールの先端及び向きの決定
JP7395125B2 (ja) 2019-06-20 2023-12-11 ソニーグループ株式会社 手術ツールの先端及び向きの決定

Also Published As

Publication number Publication date
CN107530132B (zh) 2020-03-17
EP3242590A1 (en) 2017-11-15
JP6525174B2 (ja) 2019-06-05
EP3242590A4 (en) 2018-07-25
US20160247276A1 (en) 2016-08-25
US20180122070A1 (en) 2018-05-03
US9905000B2 (en) 2018-02-27
CN107530132A (zh) 2018-01-02
EP3242590B1 (en) 2020-05-13
US10147188B2 (en) 2018-12-04
WO2016133885A1 (en) 2016-08-25
KR101986443B1 (ko) 2019-06-05
KR20170104554A (ko) 2017-09-15

Similar Documents

Publication Publication Date Title
JP6525174B2 (ja) 解剖学的手術中の手術ツール位置特定の方法及びそのためのシステム
JP6573084B2 (ja) 解剖学的手術中の煙検出のためのシステム及び方法
JP6497536B2 (ja) 解剖学的手術中の手術ガーゼの検出の方法及びそのためのシステム
WO2020088328A1 (zh) 一种结肠息肉图像的处理方法和装置及系统
WO2020015468A1 (zh) 一种图像传输方法、装置、终端设备及存储介质
US9456732B2 (en) Image processing device and image processing method
JP2019512361A (ja) 体積画像データセット内の血管構造のセグメント化のための方法及びシステム
JP2011120897A (ja) 医用画像中の人工物体を抑制するためのシステムおよび方法
CN114693593A (zh) 图像处理方法、装置、及计算机装置
JP5974205B1 (ja) 画像処理装置、画像処理装置の作動方法
CN108141559B (zh) 影像系统、影像生成方法及计算机可读介质
JP2001344601A (ja) 画像処理装置及び画像処理プログラム
CN104050672B (zh) 基于sd-oct视网膜图像的地图状萎缩投影图像生成方法
JP7127637B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2016047076A (ja) 画像処理装置、眼底撮影システム、画像処理方法、及びプログラム
EP4374242A1 (en) Screen interaction using eog coordinates

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181011

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190423

R151 Written notification of patent or utility model registration

Ref document number: 6525174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151