JP2018508246A - 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス及び方法 - Google Patents

少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス及び方法 Download PDF

Info

Publication number
JP2018508246A
JP2018508246A JP2017536863A JP2017536863A JP2018508246A JP 2018508246 A JP2018508246 A JP 2018508246A JP 2017536863 A JP2017536863 A JP 2017536863A JP 2017536863 A JP2017536863 A JP 2017536863A JP 2018508246 A JP2018508246 A JP 2018508246A
Authority
JP
Japan
Prior art keywords
image
module
detection module
binary
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017536863A
Other languages
English (en)
Other versions
JP6677734B2 (ja
Inventor
ゴーバン,オーレリアン
イーバッハ,バスティアン
シモノフスキー,マルティン
フランツ,ティロ
バウムンク,ペーター
Original Assignee
マッケ・ゲゼルシャフトミットベシュレンクターハフトゥング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マッケ・ゲゼルシャフトミットベシュレンクターハフトゥング filed Critical マッケ・ゲゼルシャフトミットベシュレンクターハフトゥング
Publication of JP2018508246A publication Critical patent/JP2018508246A/ja
Application granted granted Critical
Publication of JP6677734B2 publication Critical patent/JP6677734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)

Abstract

少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス(10)が説明される。支援デバイス(10)は、カメラ(12)と、ディスプレイユニット(18)と、カメラ(12)に連結したマニピュレータ(14)と、マニピュレータコントローラ(26)と、イメージ処理ユニット(22)と、を含む。イメージ処理ユニット(22)は、事前に定義した特徴を識別する事によってイメージフレームに於いて使用されている少なくとも1つの医療機器を示す少なくとも1つの目標構造を検出し、イメージフレームに於ける少なくとも1つの目標構造の位置を示す位置データを抽出する為の機器検知モジュール(50)を含む。機器検知モジュール(50)は、事前に定義した特徴としてイメージセグメントを識別し、事前に定義した彩度以下の彩度と、イメージセグメントの境界を定め、少なくとも1つの直線セクションを有するコンタラインと、によってイメージセグメントが特徴付けられる。【選択図】図2

Description

本発明は、少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイスに関し、支援デバイスは、イメージフレームのシーケンスを含むビデオ信号を生成する為のカメラと、ビデオ信号に応じイメージフレームのシーケンスを表示する為のディスプレイユニットと、所定の特徴を識別する事によってイメージフレームに於いて使用されている医療機器を表す少なくとも1つの目標構造を検出し、イメージフレームに於ける目標構造の位置を示す位置データを抽出する為の機器検知モジュールを有するイメージ処理ユニットと、カメラに連結され、カメラを移動させる様にコントロール信号を通じカメラをコントロールする事が出来るマニピュレータと、位置データに応じコントロール信号を生成し、コントロール信号を通じマニピュレータを動かす為のマニピュレータコントローラと、を含む。
外科的処置中に執刀者を効果的に支援する支援デバイスは、先行技術に於いて知られている。例えば、腹腔鏡処置中に、外科医は、ディスプレイユニット(例えば、モニタ)を通じ手術部位を間接的に観察し、ディスプレイユニットに於いて彼が患者の解剖学的構造を操作している腹腔鏡手術機器を視認する事が出来る。モニタにリアルタイムに表示されているビデオイメージは、内視鏡の一部であって手術部位の方向に向けたカメラによって記録される。
処置中に、カメラは、ディスプレイユニットに表示されているビデオイメージの略中央に配置される、機器先端と操作されている解剖学的構造とに加え、治療されている目標領域と同様に手術部位に向けられる必要が有る。従って、観察されているイメージセグメントを変更する為に、カメラを患者の身体に於いて移動させる必要が有る。しかる後、目標領域を再びビデオイメージの中央に表示させる必要が有る。
内視鏡検査のカメラが希望の方法によって再配置される事を可能とする為に、カメラは、希望のカメラムーブメントに従って調整したマニピュレータ(例えば、ロボットアーム)に連結される。この目的の為に、ビデオイメージに於いて検出した機器先端の位置に応じ取得されるコントロール信号を通じマニピュレータコントローラによってマニピュレータが動かされる。以上に説明したタイプの支援デバイスは、例えば、独国特許第19961971号明細書に記載される。
従来の支援デバイスは、典型的に、機器先端に取り付けられ、機器先端をビデオイメージに於いて検出する事を可能とする特徴を形成するマーキングを使用し動作する。そのマーキングの代わりに、使用される医療機器の固有特性(特定形状又は特定色等)が特徴として使用される。然し乍ら、これらの解決策の欠点は、識別される特徴が使用される機器の特徴である事である。従って、全ての機器を識別する事は不可能である。
本発明は、半自動機器識別を可能とする支援デバイスを提供する事を目的とし、特に、マーキングの使用を伴わずにその目的を提供する。
この目的は、最初に説明されるタイプの支援デバイスを有する本発明によって達成され、機器検知モジュールは、イメージセグメントを所定の特徴として識別し、イメージセグメントは、所定の彩度以下の彩度と、イメージセグメントの境界を定め、少なくとも1つの直線セクションを有するアウトラインと、によって特徴付けられる。
本発明に従った解決策は、第1に、本技術分野に於いて一般的に使用されている大半の医療機器が無色の材料によって形成されている(即ち、それらが治療されている目標領域に配置した解剖学的構造の彩度よりも著しく低い彩度を有する)という認識に基づく。第2に、本発明は、略全ての適合機器が真っ直ぐ且つ硬い物体であるという認識に基づく。この背景に対し、本発明の解決策は、比較的低い彩度を有し、少なくとも一部が真っ直ぐに延在するアウトラインを含むイメージセグメントとして識別される様に、機器検知モジュールによって識別される特徴を提供する。この特徴に応じ、目標領域に存在する解剖学的構造のビデオイメージに於いて略全ての機器の境界を定める事が可能である。特に、これは、機器に提供されるマーキングの使用を伴わずに達成する事が出来る。
特徴として定義される彩度の上限は、従来の医療機器を測定した彩度が確実にこの上限以下である様に選択される。前述の様に、これは、従来の機器が略無色であって目標領域の周囲の解剖学的構造よりも遥かに低い彩度を有する材料によって一般的に形成されている為に可能である。
イメージ処理ユニットは、好ましくは、イメージフレームに応じ少なくとも1つのバイナリイメージを生成するセグメント化モジュールを含み、機器検知モジュールは、バイナリイメージに於いてイメージセグメントを識別する。このバイナリイメージのピクセルは、それらに対応するイメージフレームのピクセルが所定の特徴に対応する彩度を有するか否かに依存し、2つのバイナリ値の1つを使用する。この様に、例えば、白色イメージポイント又はピクセルが1つ以上の機器を表し、黒色ピクセルが解剖学的構造を表す白黒のバイナリイメージを生成する事が出来る。
好ましい実施の形態に於いては、イメージ処理ユニットは、イメージフレームに応じグレイスケールイメージを生成する前処理モジュールを含み、グレイスケールイメージの各ピクセルにイメージフレームの対応するピクセルの彩度を表すグレイスケール値が割り当てられる。グレイスケールイメージに応じ、しかる後、セグメント化モジュールは、少なくとも1つのバイナリイメージを生成し、バイナリイメージの各バイナリピクセルに関連したグレイスケール値が所定の彩度に対応する閾値以下である場合は、バイナリイメージのバイナリピクセルに第1のバイナリ値が割り当てられ、バイナリイメージの各バイナリピクセルに関連したグレイスケール値が所定の彩度に対応する閾値よりも大きい場合は、バイナリイメージのバイナリピクセルに第2のバイナリ値が割り当てられる。この実施の形態に於いて生成したグレイスケールイメージは、大きい技術負担を伴わず、更にイメージ処理の為のベースとして使用される1つ以上のバイナリイメージの彩度イメージを導き出す事が出来る。
機器検知モジュールは、好ましくは、機器のエッジを表す連続エッジラインを形成する為にアウトラインの複数の直線的に配置した直線セクションを組み合わせる。この実施の形態は、複数の交差する機器がイメージフレームに割り当てたバイナリイメージに示される場合に特に都合が良い。所与の機器がストレート形状を有すると仮定する事が出来る為、言わば、同一直線上に配置したアウトラインセクションの合成に応じ、これらのセクションに関連した機器を交差する機器配置からフィルタする事が出来る。これは、複数の機器が外科的処置中に使用される時に機器識別を容易とする。
目標構造を検出する為に、機器検知モジュールは、好ましくは、何れの場合に於いても相互に平行に配置される2つのエッジラインを組み合わせる。このエッジペアリングは、相互に平行に配置した複数のエッジラインが検出されるという事実に応じ、これらのエッジラインが1つの同一の機器に属する高い蓋然性が存在する。これは、より確実な機器識別を可能とする。
特に好ましい実施の形態に於いては、セグメント化モジュールは、グレイスケールイメージに応じ複数のバイナリイメージを生成し、異なる閾値をこれらの生成の為に使用する。従って、これらのバイナリイメージの夫々の為に、彩度の為の個別の上限が特徴として規定される。これは、特に同一の機器が異なる彩度を有する種々の材料によって形成されている場合に都合が良い。例えば、機器シャフトがプラスチックによって形成され、機器先端が金属によって形成される。複数の機器が異なる材料によって形成され、フレームに存在する異なる彩度を有する場合にも同様に適応する。この場合は、バイナリイメージに於いてプラスチックによって形成した部分を効率的にセグメント化する事が出来る様に、バイナリイメージを生成する為に提供される閾値が定義される場合に、これが同一の閾値を使用する事によって金属部品の為の同一の品質が達成される事を必ずしも意図しない。その場合に於いては、1つの閾値に応じ1つのバイナリイメージを生成するのではなく、対応する複数の閾値に応じ複数のバイナリイメージを生成する事が好ましい。これらのバイナリイメージは、難しい条件の下でさえ、正確な機器識別の為の確実な根拠を形成する。更に、複数のバイナリイメージの生成を容易に並列化する事が出来、それは処理速度に関し利点が有る。
更に好ましい実施の形態に於いては、機器検知モジュールは、イメージフレームに応じ生成したバイナリイメージの相互に対応する直線セクションを識別し、機器のエッジを表す1つのエッジラインを形成する為にこれらのセクションを組み合わせる。この実施の形態に於いては、異なる閾値を使用し複数のバイナリイメージを生成する為、解剖学的構造を表す高い彩度のイメージセグメントと機器を表す低い彩度のイメージセグメントとの間の接合を形成する識別したアウトラインは、言わば、バイナリイメージからバイナリイメージにシフトする。しかる後、バイナリイメージが観察される時に、言わば、空間的に略平行に近接し配置した外形セクションをもたらし、それから機器のエッジを確実に推定する事が出来る。
好ましい実施の形態に於いては、イメージ処理ユニットは、複数の逐次的フレームを通じ機器検知モジュールによって検出した目標構造を追跡する追跡モジュールを含む。マニピュレータコントローラは、目標構造の為の位置データを使用しイメージフレームに関連したコントロール信号を生成し、追跡モジュールが複数の逐次的フレームを通じ目標構造を既に追跡した場合だけマニピュレータを動かす。従って、複数の逐次的フレームを通じ追跡する事が出来る目標構造だけが再位置調整の目的の為にマニピュレータを動かす為に使用される。従って、1つのフレームに於いてのみ現れる誤識別した機器は、マニピュレータの再位置調整に於いて考慮されない。これは、エラーの無い一定のマニピュレータの再位置調整を可能とする。
追跡モジュールは、好ましくは、最初に機器検知モジュールによってイメージフレームに於いて検出した目標構造にトラッカを割り当て、後続フレームに於いて検出した目標構造を追跡する為にトラッカを使用する。このコンテキストのトラッカは、識別した機器を表す為に使用されるデータ処理エレメントとして理解される。
特に好ましい実施の形態に於いては、イメージ処理ユニットは、イメージシーケンスに含まれる移動情報を表すイメージシーケンスのオプティカルフローを検出するフローモジュールを含む。検出したオプティカルフローに応じ、識別した機器に関連したトラッカが後続フレームに於いて如何なる方向に如何なる速度によって移動するのかを予測する事が可能である。
追跡モジュールは、好ましくは、イメージ処理方向に於いて機器検知モジュールの上流に配置した第1のサブモジュールと、イメージ処理方向に於いて機器検知モジュールの下流に配置した第2のサブモジュールと、を含む。第1のサブモジュールは、機器検知モジュールによって未だ処理されていない次のフレームの為のトラッカの位置データに関する予測をする為に、フローモジュールに於いて検出したオプティカルフローを考慮する。機器検知モジュールによって処理されているこの次のフレームの為に、第2のサブモジュールは、機器検知モジュールによって検出したトラッカに関する位置データに応じ、第1のサブモジュールによって為された予測を検査する。これは、特に、イメージシーケンスに於いて識別した機器の確実な追跡を可能とする。
前処理モジュールは、好ましくは、イメージフレームのホワイトバランス調整を実行する様に設計される。このホワイトバランス調整は、機器の色彩の特徴(特に、彩度)に応じ機器識別を害する潜在的誤較正を妨げる。
好ましい実施の形態に於いては、イメージ処理ユニットは、フレームを前処理モジュールと非同期的に処理し、ホワイトバランス調整を実行するか否かを前処理モジュールに指示する動作情報を生成するパラメータ最適化モジュールを含む。パラメータ最適化モジュールの非同期動作によって、ホワイトバランス調整が必要か否かを判断する検査は、残りのイメージ処理と並列に実行されるプロセスとして実現される。例えば、検査は、言わば、サンプルベースで実行され、イメージシーケンス内の、例えば、n(nは1より大きい自然数)番目のフレーム毎に検査する。
パラメータ最適化モジュールは、フレームの非同期処理に応じセグメント化モジュールの為の閾値を事前に定義する事が出来る。これは、例えば、機器が外科的処置中に変更され、そのイメージシーケンス内の彩度が瞬間的に大きく変化する場合に都合が良い。この場合は、非同期的に動作するパラメータ最適化モジュールの支援による彩度に対応する閾値の調整は、その変化に応答する為に適した手段である。
本発明は、更に、外科的処置中に執刀者にイメージ化支援をする方法に関する。本発明の支援デバイスに関し以上に説明した特徴と以下に説明する特徴は、請求された方法の一部に考慮される。
以下に於いては、本発明は、図を参照し更に詳細に説明される。
本発明に従った支援デバイスの全体構造を図示するブロック図である。 支援デバイスのイメージ処理ユニットの構造を図示するブロック図である。 本発明の方法に於いて実行されるイメージ前処理のプロセスフローを示す図である。 本発明の方法に於いて実行される機器検出のプロセスフローを示す図である。 本発明の方法に於いて実行される機器追跡のプロセスフローを示す図である。 本発明の方法に於いて生成したバイナリイメージである。 図6のバイナリイメージに応じ取得したアウトラインである。
図1は、本発明に従った支援デバイス10のブロック図である。
支援デバイス10は、明確に示されない内視鏡の一部であって、マニピュレータ14(例えば、ロボットアーム)によって保持したカメラ12と、を含む。マニピュレータ14は、カメラ12の再位置調整を可能とする機械的自由度を有する。
カメラ12は、治療される解剖学的構造が配置される人体内の目標領域のビデオイメージをキャプチャする。カメラ12は、イメージフレームのシーケンスを含み、データストリームの形式によってカメラコントローラ16に出力されるビデオ信号を生成する。カメラコントローラ16は、ディスプレイユニット18(例えば、モニタ)にビデオ信号を送信し、ディスプレイユニット18に於いてビデオ信号に対応する治療されている解剖学的構造のビデオイメージが表示される。
カメラコントローラ18は、イメージ取得モジュールを通じコントローラ20にビデオ信号(例えば、図1に示されない「フレームグラバー」)を供給する。コントローラ20は、供給したビデオ信号を後に詳細に説明される方法によって機器識別を実行する為の入力信号として使用するイメージ処理ユニット22を含む。この機器識別中に、ビデオイメージに於いて可視の手術器具がイメージ処理ユニット22によって識別され追跡される。そのプロセスに於いては、位置データが得られ、コントロールユニット24に供給される。コントロールユニット24は、マニピュレータコントローラ26を含む。コントローラは、供給された位置データを、マニピュレータ14を動かす為に使用されるコントロール信号を生成する為に使用するパスコントローラとして機能する。この動作によって、例えば、マニピュレータ14は、ディスプレイユニット18に表示されているビデオイメージの機器先端が常にイメージの中央に配置される様に、それに保持したカメラ12を再配置する。
支援デバイス10は、更に、コントロールユニット24に含まれるインタフェースコントロールユニット30に連結したトリガスイッチ28を有する。トリガスイッチ28を動かすと、インタフェースコントロールユニット30は、カメラ12を再配置する様にマニピュレータコントローラ26を起動する。
支援デバイス10は、更に、一方に於いてイメージ処理ユニット22とインタフェースコントロールユニット30に連結し、他方に於いてディスプレイユニット18に連結したグラフィックユーザインタフェース32を有する。支援デバイス10は、更に、本発明を理解する為に僅かに重要であって、図1に於いて一般的に引用符号34によって示した別の入力デバイスを含む。
図2は、イメージ処理ユニット22の構造を図示するブロック図を示す。
イメージ処理ユニット22は、前処理モジュール36と、パラメータ最適化モジュール38と、フローモジュール40と、を含む。イメージフレームのシーケンスを含むビデオ信号は、カメラコントローラ16によって各モジュール36、38及び40に供給される。パラメータ最適化モジュール38は、前処理モジュール36に連結される。
イメージ処理ユニット22は、更に、図2に於いて一般的に引用符号46によって示した追跡モジュールを形成する、第1のサブモジュール42と、第2のサブモジュール44と、を含む。第1のサブモジュール42は、入力側に於いて前処理モジュール36とフローモジュール40とに連結される。出力側に於いてセグメント化モジュール48に接続される。セグメント化モジュール48は、機器検知モジュール50に出力側に順番に連結される。機器モジュール50の出力は、追跡モジュール46の第2のサブモジュール44に連結される。最後に、第2のサブモジュール44は、イメージ処理ユニット22の出力を形成し、供給した信号に応じマニピュレータ14を動かす為のコントロール信号をイメージ処理ユニット22によって生成するマニピュレータコントローラ26に接続される。
イメージ処理ユニット22に含まれるモジュール36乃至50の動作原理は、一例とし本発明に従ったイメージ処理を図示する図3、4及び5に示したフローチャートによって以下に於いて明白と成る。図3乃至5に於いては、長方形の記号は、各モジュールによって実行した処理ステップを示し、菱形の記号は、記憶及び読込動作を表す。
本発明に従って実行される様に、図3のフローチャートは、イメージ前処理を表現し、前処理モジュール36に於いては、特にイメージ処理ユニット22のパラメータ最適化モジュール38とフローモジュール40とが使用される。
ステップS1に於いては、前処理モジュール36とパラメータ最適化モジュール38とフローモジュール40は、ビデオ信号に含まれるイメージシーケンスのバッファフレームを受信する。この典型的な実施の形態に於いては、フレームが因習的に生成した個々のRGBイメージであると以下に於いて仮定され、しばしばRGBフレームと指称される。
ステップS2に於いては、前処理モジュール36は、例えば、イメージサイズ、輝度、及びコントラストを適正に調整する事を目的としたRGBフレームの種々の調整と最適化とを実行する。特に、必要ならば、前処理モジュール36は、ステップS2に於いて自動ホワイトバランス調整を実行する。ホワイトバランス調整がS2に於いて実行されるか否かは、パラメータ最適化モジュール38が前処理モジュール36に供給する動作信号AWB Y/Nを通じステップS3に於いてパラメータ最適化モジュール38によって決定される。この目的の為に、パラメータ最適化モジュール38は、供給さしたイメージシーケンスの対応する検査を実行する。パラメータ最適化モジュール38は、反復するパラメータ最適化の一部として前処理モジュール36と非同期的に動作し、例えば、各フレームの為の前述の検査を実行しない。
ステップS2に於いては、前処理モジュール36は、分析する事が出来ないイメージ領域を表すフレームのカメラマスクを検出する。しかる後、前処理モジュール36は、言わば、プロセスが継続する様に、マスクに対応し使用する事が出来ないイメージ領域がフレームからフィルタされる事を可能とする、対応するマスク情報を記憶する。
一度、フレームが別の処理の為にステップS2に於いて最適化されると、それはイメージメモリに記憶される。
ステップS4に於いては、前処理モジュール36は、グレイスケールイメージを計算する為にRGBフレームを使用し、その各ピクセルにRGBフレームの対応するピクセルの彩度を表すグレイスケール値が割り当てられる。ステップS4に於いて生成したグレイスケールイメージは、彩度イメージである。S4に於いては、この彩度イメージは後の処理ステップの為に記憶される。
ステップS5に於いては、前処理モジュール36は、RGBフレームの品質検査を実行する。この品質検査が否定的な評価をもたらす場合は、RGBフレームは廃棄され、次のフレームの処理を継続する。対照的に、ステップS5に於いて肯定的なものとしてRGBフレームの品質が査定された場合は、前処理を終え、プロセスフローは図4に従った処理ステップを継続する。
図3に従ったステップS6に於いては、以上に説明したプロセスステップと並列に実行するプロセスは、フローモジュール40によって実行される。フローモジュール40は、ビデオ信号に含まれるイメージシーケンスのオプティカルフローを検出する様に設計される。オプティカルフローは、例えば、イメージシーケンスのピクセルの大きさと速度の方向を示すベクトル場の形式によって、イメージシーケンスに含まれる移動情報を表す。オプティカルフローを検出する際に、現在のRGBフレームに加え、フローモジュール40は、前のRGBフレームを考慮する。しかる後、検出したオプティカルフローが記憶される。前の検出結果との対比がステップS6に於いて実行される。
ステップS7に於いては、図3に従った前処理が終了する。
図4に示したイメージ処理は、最初に、2つのサブモジュール42及び44を含む追跡モジュール46と、セグメント化モジュール48と、機器検知モジュール50と、によって、イメージ処理ユニット22に於いて実行される。ステップS11に於けるイメージ処理開始後に、ステップS12に於いては、セグメント化モジュール48は、図3のステップS4に於いてRGBフレームに応じ前処理モジュール36によって計算し記憶したグレイスケールイメージを読み込む。このグレイスケールイメージに応じ、セグメント化モジュール48は、例えば、パラメータ最適化モジュール38によって事前に定義した異なる閾値を使用し、N個のバイナリイメージを生成する。これらの閾値の夫々は、事前に定義した彩度に対応し、それによってグレイスケールイメージのピクセルのグレイスケール値と比較される。そのグレイスケール値が事前に定義した彩度に対応する閾値以下であるグレイスケールイメージのそれらのピクセルに、各バイナリイメージに於いて第1のバイナリ値(例えば、1)を有するバイナリピクセルが割り当てられる。同様に、そのグレイスケール値が閾値よりも大きいグレイスケールイメージのそれらのピクセルは、各バイナリイメージに於いて第2のバイナリ値(例えば、0)を有するバイナリピクセルが割り当てられる。ステップS12に於いて生成したそのバイナリイメージは、単に図6に於いて一例の為に示され、1のバイナリ値を有するバイナリピクセルに白色が割り当てられ、0のバイナリ値を有するバイナリピクセルに黒色が割り当てられる。図6に於いては、図示の目的の為に、黒色が点として示される。従って、図6のバイナリイメージに於いては、白色イメージセグメントは、彩度が事前に定義した夫々の彩度以下であるイメージ領域を表す。対照的に、黒色イメージセグメントは、彩度が事前に定義した彩度よりも大きいイメージ領域を表す。ビデオイメージに於いて識別した機器の彩度が治療されている解剖学的構造よりも低いと本発明に従ったイメージ処理が仮定する為、図6のバイナリイメージに於いて、白色イメージセグメントが識別した機器を表し、黒色イメージセグメントが解剖学的構造を表す。
従って、ステップS12に於いては、セグメント化モジュール48は、図6に示したタイプのN個のバイナリイメージを生成するが、それらがN個の異なる閾値に応じたものである為、これらのイメージは幾分相互に異なる。N個の閾値の間の差が大きいと、これらの閾値を使用し生成した多数のバイナリイメージが相互に異なる。
ステップS13に於いては、機器検知モジュール50は、N個のバイナリイメージの夫々からアウトラインを抽出し、N個のアウトラインデータセットにこれらを記憶する。図6の典型的なバイナリイメージに於いては、これらのアウトラインは、白色イメージセグメントと黒色イメージセグメントとの間の分岐点に延在する。
ステップS14に於いては、機器検知モジュール50は、以下にラインセグメントと指称される直線セクションを識別する為にN個のアウトラインデータセットを使用する。機器検知モジュール50は、N個のラインデータセットに於いて識別したラインセグメントを記憶する。
S14に従ったプロセスステップは図7のダイアグラムに於いて図示される。そこで、ラインセグメントは、破線として示される。
ステップS14に於いては、機器検知モジュール50は、更に処理されるアウトラインから、アウトラインの曲線セクションを排除する為に、これらを検出する。これらの曲線セクションは、図7に於いて一点鎖線として示される。
カメラマスクによるあらゆる品質低下を回避する為に、ステップS14に於いては、機器検知モジュール50は、図2のステップS2に於いて前処理モジュール36によって確認し記憶したマスク情報を考慮する。
ステップS14に於いて生成したN個のラインセグメントデータセットからの処理は、ステップS15に於いて、機器検知モジュール50は、1つのラインセグメントを形成する為に、N個のバイナリイメージの相互に対応するラインセグメントを組み合わせた1つのデータセットを生成する。この合成ラインセグメントは、以下に於いて、言わば、N個の全てのバイナリイメージの重ね合わせをもたらす、機器のエッジラインを表すコンパクトラインセグメントと指称される。ステップS15に於いては、事前に定義した基準に応じ、機器検知モジュール50は、N個のバイナリイメージに於いて識別したラインセグメントが以上に説明した意味に於いて相互に対応するか否かを確認する。
その基準の一例は、ラインセグメントの類似関係である。例えば、角度が閾値として規定され、検査は、ラインセグメントがそれらの調整に於いてこの閾値以下の角度偏位を有するか否かを判断する。そうであるなら、類似関係の基準を満たすと見なされる。別の基準は、例えば、俗に言うオーバラップ(その為に閾値を再び事前に定義する事が出来る)であっても構わない。セグメントがこの閾値を超える相互とのオーバラップを有する場合に、この基準を満たすと見なされる。別の基準は、例えば、ラインセグメントとの間の距離であっても構わない。この値が事前に定義した閾値以下である場合に、この基準を満たすと見なされる。前述のセグメント間隔と組み合わせたグレイスケール値も、適切な基準を表す。
以上の基準は、N個のバイナリイメージの為の基礎を形成するグレイスケールイメージ内の同一の勾配に沿ってラインセグメントが存在するか否かを確実に判断する事を本質的な目的とする。
従って、ステップS15に於いては、機器検知モジュールは、以上に説明した基準に応じステップS14に於いて生成した結果セットをフィルタする。
ステップS16に於いては、機器検知モジュール50は、相互に対応するラインセグメントを組み合わせたコンパクトラインセグメントからエッジラインをもたらす。エッジラインは、検出した機器のエッジを表す。その際に、機器検知モジュール50は、前のフレームから得た検出結果を考慮する。
ステップS17に於いては、機器検知モジュール50は、相互に並列に配置され、ステップS16に於いて確認した2つのエッジラインのペアリングを実行する。再度、このエッジペアリングは、事前に定義した基準に応じ実行される。その基準の一例は、2つのエッジラインの夫々に対し垂直に延在した2つのベクトルの方向である。
プロセスステップS17に於いて、前のフレームからの機器の位置に関する情報が使用される。俗に言うトラッカの位置データも考慮され、その夫々がフレームに於いて検出した機器の表示に考慮される。
典型的に、ステップS17に於いて各エッジを異なるエッジと組み合わせる事は不可能である。従って、ステップS18に於いては、機器検知モジュール50は、フレームのエッジの近傍に配置した仮定器具に対し残りのエッジを割り当てる。この目的の為に、機器検知モジュールは、再び図3のステップS2に於いて提供したマスク情報を考慮する。
ステップS19に於いては、機器検知モジュール50は、各エッジペアに応じ、関連する機器の長さと方向と機器軸とを決定する。
ステップS20に於いては、機器検知モジュール50は、機器検知モジュール50が最初に仮定した幾何学的特性を考慮し機器先端を識別する。その幾何学的特性は、例えば、最初に仮定した機器の円錐形であっても構わない。ステップS20に於いて得た検出結果は、後の処理ステップに於ける別の使用の為に記憶される。
ステップS21に於いては、機器検知モジュール50は、間違って識別した器具をフィルタする。例えば、この目的の為に適用される1つの基準は、エッジペアリングの品質である。ある色特性の予想した規則性も、基準として適用される。例えば、ある色特性は、機器又は解剖学的構造の何れかに於いて存在しないが、機器及び解剖学的構造に於いて存在する。その規則性を考慮することによって、間違って識別した機器をフィルタする事が出来る。
図4に従ったイメージ処理は、ステップS22によって終了する。
図4に従ったイメージ処理は、機器先端の長さ、方向、及び位置に関し記憶した情報にもたらす。例えば、エッジペアリングの品質に関する補足情報も提供される。
図5は、イメージ処理ユニット22に含まれ、2つのサブモジュール42及び44を含む追跡モジュール46の機能を表すフローチャートである。
ステップS30に於ける開始後に、ステップS31に於いて、追跡モジュール46の第1のサブモジュール42は、図3のステップS6に於いてフローモジュール40によって検出したオプティカルフローに応じ、前のフレームに於いて確認したトラッカの位置を修正する。このプロセスに於いては、第1のサブモジュール42は、現在のフレームに於いてトラッカが何処に移動するのかを予測する。トラッカ移動のこの予測は、ギャップとジャンプを防ぐ役割を果たす。
ステップS32に於いては、しかる後、セグメント化モジュール48と機器検知モジュール50は、現在のフレームの為に図4に示した処理ステップを実行する。
ステップS33に於いては、追跡モジュール46の第2のサブモジュール44は、図4のステップS20に於いて得た検出結果に応じトラッカの位置をアップデートし、新しい機器をフレームに於いて検出した場合は、必要な時に新しいトラッカを生成する。従って、第2のサブモジュール44は、ステップS31に於いて第1のサブモジュール42によって形成したトラッカ位置の予測を検査する。ある基準の適用によって、第2のサブモジュール44は、使用中のトラッカの信頼性を決定する。
ステップS33に於いては、第2のサブモジュール44は、ディスプレイユニット18に表示されるトラッカにマーカ(ラベル)、例えば、異なる色を割り当てる。例えば、異なるトラッカのそのマーキングは、例えば、特定のトラッカAによって最初に追跡されている機器の追跡をドロップアウトし、トラッカAが削除された時に、新しいトラッカBがこの目的の為に生成される様に同一の機器の追跡が再び開始される場合に都合が良い。その場合は、2つのトラッカA及びBに同一のマーカが割り当てられる。
しかる後、第2のサブモジュール44は、ステップS33に於いて次のリハーサルの為に検出結果を記憶する。
ステップS34に於いて図5に従ったプロセスが終了する。
図3乃至5に関し以上に説明したイメージ処理は、単に一例として理解される。例えば、異なる閾値を使用し、各グレイスケールイメージに応じ複数のバイナリイメージを生成する事は絶対に必要ではない。しばしば、適切に選択した閾値を使用した1つのバイナリイメージの生成は、フレームに於ける解剖学的構造を表す高い彩度のイメージセグメントから、フレームに於ける機器を表す低い彩度のイメージセグメントを分離する為に十分である。これは、例えば、機器が同一の材料のみによって形成され、同一の彩度を有する場合に使用される。
10 支援デバイス
12 カメラ
14 マニピュレータ
16 カメラコントローラ
18 ディスプレイユニット
20 コントローラ
22 イメージ処理ユニット
24 コントロールユニット
26 マニピュレータコントローラ
28 トリガスイッチ
30 インタフェースコントロールユニット
32 グラフィックユーザインタフェース
34 入力デバイス
36 前処理モジュール
38 パラメータ最適化モジュール
40 フローモジュール
42 第1のサブモジュール
44 第2のサブモジュール
46 追跡モジュール
48 セグメント化モジュール
50 機器検知モジュール

Claims (16)

  1. 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス(10)に於いて、
    イメージフレームのシーケンスを含むビデオ信号を生成する為のカメラ(12)と、
    前記ビデオ信号に応じ前記イメージフレームの前記シーケンスを表示する為のディスプレイユニット(18)と、
    事前に定義した特徴を識別すると共に前記イメージフレームに於ける少なくとも1つの目標構造の位置を示す位置データを抽出する事によって前記少なくとも1つの目標構造を検出する為の機器検知モジュール(50)を有するイメージ処理ユニット(22)であって、前記少なくとも1つの目標構造は、前記イメージフレームに於いて使用されている前記少なくとも1つの医療機器を示すイメージ処理ユニット(22)と、
    前記カメラ(12)に連結され、前記カメラ(12)を移動させる為にコントロール信号を通じ動かされるマニピュレータ(14)と、
    前記位置データから前記コントロール信号を生成すると共に前記コントロール信号を通じ前記マニピュレータ(14)を動かす為のマニピュレータコントローラ(26)と、
    を備え、
    前記機器検知モジュール(50)は、前記事前に定義した特徴としてイメージセグメントを識別し、
    前記イメージセグメントは、事前に定義した彩度以下の彩度と、前記イメージセグメントの境界を定め、少なくとも1つの直線セクションを有するアウトラインと、によって特徴付けられる
    事を特徴とする支援デバイス(10)。
  2. 前記イメージ処理ユニット(22)は、前記イメージフレームに応じ少なくとも1つのバイナリイメージを生成するセグメント化モジュール(48)を含み、前記機器検知モジュール(50)は、前記少なくとも1つのバイナリイメージに於いて前記イメージセグメントを識別する
    請求項1に記載の支援デバイス(10)。
  3. 前記イメージ処理ユニット(22)は、前記イメージフレームに応じグレイスケールイメージを生成する前処理モジュール(36)を含み、前記グレイスケールイメージのピクセルの夫々に前記イメージフレームに於いて対応したピクセルの彩度を示すグレイスケール値が割り当てられ、
    前記セグメント化モジュール(48)は、前記グレイスケールイメージに応じ前記少なくとも1つのバイナリイメージを生成し、前記少なくとも1つのバイナリイメージのバイナリピクセルの夫々に、前記グレイスケールイメージに於いて対応したピクセルの前記グレイスケール値が前記事前に定義した彩度に対応した閾値以下の場合に第1のバイナリ値が割り当てられ、前記グレイスケールイメージに於いて対応したピクセルの前記グレイスケール値が前記事前に定義した彩度に対応した閾値より大きい場合に第2のバイナリ値が割り当てられる
    請求項2に記載の支援デバイス(10)。
  4. 前記機器検知モジュール(50)は、前記少なくとも1つの医療機器のエッジを示す連続エッジラインを形成する為に、前記アウトラインの、同一直線上に配置した複数の直線セクションを組み合わせる
    請求項2又は3に記載の支援デバイス(10)。
  5. 前記少なくとも1つの目標構造を検出する為に、前記機器検知モジュール(50)は、如何なる場合に於いても相互に並列に配置した2つのエッジラインを組み合わせる
    請求項4に記載の支援デバイス(10)。
  6. 前記機器検知モジュール(50)は、前記2つのエッジラインに応じ前記少なくとも1つの医療機器の先端を識別する
    請求項5に記載の支援デバイス(10)。
  7. 前記セグメント化モジュール(48)は、前記グレイスケールイメージの夫々に応じ複数のバイナリイメージを生成し、前記複数のバイナリイメージを生成する為に異なる閾値を使用する
    請求項2乃至6の何れか一項に記載の支援デバイス(10)。
  8. 前記機器検知モジュール(50)は、前記イメージフレームに応じ生成した前記バイナリイメージの相互に対応した直線セクションを識別し、これらの直線セクションを前記少なくとも1つの医療機器のエッジを示す1つのエッジラインを形成する為に組み合わせる
    請求項7に記載の支援デバイス(10)。
  9. 前記イメージ処理ユニット(22)は、複数の逐次フレームを通じ前記機器検知モジュール(50)によって検出した前記少なくとも1つの目標構造を追跡する追跡モジュール(46)を含み、前記マニピュレータコントローラ(26)は、前記少なくとも1つの目標構造が前記複数の逐次フレームを通じ前記追跡モジュール(46)によって既に追跡されている場合に前記マニピュレータ(14)を動かす為に、前記少なくとも1つの目標構造に関する前記位置データを使用し前記イメージフレームに関連した制御信号を生成する
    請求項1乃至8の何れか一項に記載の支援デバイス(10)。
  10. 前記追跡モジュール(46)は、前記機器検知モジュール(50)によって前記イメージフレームに於いて初めて検出した前記少なくとも1つの目標構造にトラッカを割り当て、後続フレームに於いて検出した前記少なくとも1つの目標構造を追跡する為に前記トラッカを使用する
    請求項9に記載の支援デバイス(10)。
  11. 前記イメージ処理ユニット(22)は、前記イメージフレームの前記シーケンスのオプティカルフローを検出するフローモジュール(40)を含み、前記オプティカルフローは、前記イメージフレームの前記シーケンスに含まれる移動情報を示す
    請求項1乃至10の何れか一項に記載の支援デバイス(10)。
  12. 前記追跡モジュール(46)は、前記機器検知モジュール(50)の上流に配置した第1のサブモジュール(42)と、前記機器検知モジュール(50)の下流に配置した第2のサブモジュール(44)と、を含み、
    前記第1のサブモジュール(42)は、前記機器検知モジュール(50)によって未だ処理していない次のフレームの為に前記トラッカに関する前記位置データを予測すべく、前記フローモジュール(40)によって検出した前記オプティカルフローを考慮し、
    前記機器検知モジュール(50)によって処理した前記次のフレームの為に、前記第2のサブモジュール(40)は、前記機器検知モジュール(50)によって検出した前記トラッカの為の前記位置データに応じ前記第1のサブモジュール(42)によって形成した予測を検査する
    請求項9乃至11の何れか一項に記載の支援デバイス(10)。
  13. 前記前処理モジュール(36)は、前記イメージフレームのホワイトバランス調整を実行する様に設計される
    請求項3乃至12の何れか一項に記載の支援デバイス(10)。
  14. 前記イメージ処理ユニット(22)は、前記イメージフレームを前記前処理モジュール(36)と非同期的に処理し、前記イメージフレームから前記前処理モジュール(36)が前記ホワイトバランス調整を実行するべきか否かを指示する動作情報を生成する前記パラメータ最適化モジュール(38)を含む
    請求項13に記載の支援デバイス(10)。
  15. 前記パラメータ最適化モジュール(38)は、前記イメージフレームの非同期的処理に応じ前記セグメント化モジュール(48)の為の前記閾値を事前に定義する
    請求項14に記載の支援デバイス(10)。
  16. 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の方法に於いて、
    カメラ(12)がイメージフレームのシーケンスを含むビデオ信号を生成し、
    前記ビデオ信号に応じ前記イメージフレームの前記シーケンスがディスプレイユニット(18)に表示され、
    事前に定義した特徴を識別する事によって前記イメージフレームに於いて使用されている前記少なくとも1つの医療機器を示す少なくとも1つの目標構造が検出され、前記イメージフレームに於ける前記少なくとも1つの目標構造の位置を示す位置データが抽出され、
    前記位置データからコントロール信号が生成され、前記カメラ(12)を移動させる為に前記カメラ(12)に連結したマニピュレータ(14)を前記コントロール信号を通じ動かし、
    前記事前に定義した特徴としてイメージセグメントが識別され、事前に定義した彩度以下の彩度と、前記イメージセグメントの境界を定め、少なくとも1つの直線セクションを有するアウトラインと、によって前記イメージセグメントが特徴付けられる
    事を特徴とする方法。
JP2017536863A 2015-01-22 2016-01-21 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス Active JP6677734B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102015100927.7 2015-01-22
DE102015100927.7A DE102015100927A1 (de) 2015-01-22 2015-01-22 Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
PCT/EP2016/051189 WO2016116537A1 (de) 2015-01-22 2016-01-21 Assistenzeinrichtung und verfahren zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs unter verwendung mindestens eines medizinischen instrumentes

Publications (2)

Publication Number Publication Date
JP2018508246A true JP2018508246A (ja) 2018-03-29
JP6677734B2 JP6677734B2 (ja) 2020-04-08

Family

ID=55349789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017536863A Active JP6677734B2 (ja) 2015-01-22 2016-01-21 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス

Country Status (10)

Country Link
US (1) US10540781B2 (ja)
EP (1) EP3248173B1 (ja)
JP (1) JP6677734B2 (ja)
KR (1) KR20170106382A (ja)
CN (1) CN107209939B (ja)
BR (1) BR112017014041A2 (ja)
DE (1) DE102015100927A1 (ja)
PL (1) PL3248173T3 (ja)
RU (1) RU2017129562A (ja)
WO (1) WO2016116537A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108113750B (zh) * 2017-12-18 2020-08-18 中国科学院深圳先进技术研究院 柔性手术器械跟踪方法、装置、设备及存储介质
US11443501B2 (en) * 2018-12-05 2022-09-13 Verily Life Sciences Llc Robotic surgical safety via video processing
US20230263587A1 (en) * 2020-09-23 2023-08-24 Wayne State University Systems and methods for predicting and preventing bleeding and other adverse events
CN113011418B (zh) * 2021-02-09 2024-02-23 杭州海康慧影科技有限公司 确定图像中待处理区域的方法、装置、设备
EP4190265A1 (de) 2021-12-01 2023-06-07 Erbe Elektromedizin GmbH Vorrichtung und verfahren zur bildgestützten unterstützung eines anwenders

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05285087A (ja) * 1992-04-13 1993-11-02 Olympus Optical Co Ltd 内視鏡用x線照射位置制御装置
JPH05337118A (ja) * 1992-06-04 1993-12-21 Olympus Optical Co Ltd スコープ保持装置
JP2007054401A (ja) * 2005-08-25 2007-03-08 Olympus Medical Systems Corp 内視鏡挿入形状解析装置
WO2011118287A1 (ja) * 2010-03-24 2011-09-29 オリンパス株式会社 内視鏡装置
JP2011224185A (ja) * 2010-04-21 2011-11-10 Hoya Corp 電子内視鏡用画像処理装置
JP2012078710A (ja) * 2010-10-05 2012-04-19 Olympus Corp 撮像装置
WO2014093824A1 (en) * 2012-12-14 2014-06-19 The Trustees Of Columbia University In The City Of New York Markerless tracking of robotic surgical tools
JP2014144034A (ja) * 2013-01-28 2014-08-14 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2015000093A (ja) * 2013-06-13 2015-01-05 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19529950C1 (de) * 1995-08-14 1996-11-14 Deutsche Forsch Luft Raumfahrt Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
DE19961971B4 (de) * 1999-12-22 2009-10-22 Forschungszentrum Karlsruhe Gmbh Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
US20080058989A1 (en) * 2006-04-13 2008-03-06 Board Of Regents Of The University Of Nebraska Surgical camera robot
JP3990375B2 (ja) * 2004-03-30 2007-10-10 東芝ソリューション株式会社 画像処理装置および画像処理方法
US8827899B2 (en) * 2004-09-24 2014-09-09 Vivid Medical, Inc. Disposable endoscopic access device and portable display
EP1650980A3 (en) * 2004-10-20 2010-09-29 FUJIFILM Corporation Electronic endoscope apparatus
JP4110178B2 (ja) * 2006-07-03 2008-07-02 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
DE102007022888B3 (de) * 2007-05-14 2008-11-27 Olympus Winter & Ibe Gmbh Verfahren und Vorrichtung zur Bildverarbeitung von Endoskopbildern
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9141196B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Robust and efficient learning object tracker

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05285087A (ja) * 1992-04-13 1993-11-02 Olympus Optical Co Ltd 内視鏡用x線照射位置制御装置
JPH05337118A (ja) * 1992-06-04 1993-12-21 Olympus Optical Co Ltd スコープ保持装置
JP2007054401A (ja) * 2005-08-25 2007-03-08 Olympus Medical Systems Corp 内視鏡挿入形状解析装置
WO2011118287A1 (ja) * 2010-03-24 2011-09-29 オリンパス株式会社 内視鏡装置
JP2011224185A (ja) * 2010-04-21 2011-11-10 Hoya Corp 電子内視鏡用画像処理装置
JP2012078710A (ja) * 2010-10-05 2012-04-19 Olympus Corp 撮像装置
WO2014093824A1 (en) * 2012-12-14 2014-06-19 The Trustees Of Columbia University In The City Of New York Markerless tracking of robotic surgical tools
JP2014144034A (ja) * 2013-01-28 2014-08-14 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2015000093A (ja) * 2013-06-13 2015-01-05 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法

Also Published As

Publication number Publication date
PL3248173T3 (pl) 2020-05-18
DE102015100927A1 (de) 2016-07-28
KR20170106382A (ko) 2017-09-20
RU2017129562A3 (ja) 2019-04-24
CN107209939B (zh) 2020-12-29
BR112017014041A2 (pt) 2018-01-02
CN107209939A (zh) 2017-09-26
US10540781B2 (en) 2020-01-21
RU2017129562A (ru) 2019-02-22
EP3248173A1 (de) 2017-11-29
JP6677734B2 (ja) 2020-04-08
EP3248173B1 (de) 2019-11-06
WO2016116537A1 (de) 2016-07-28
US20170352164A1 (en) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6677734B2 (ja) 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス
CN107485455B (zh) 手术系统中有效的交互式出血检测
WO2015186339A1 (en) Image processing apparatus and image processing method
EP2647331A1 (en) Endoscopic image processing apparatus and program
US20210142487A1 (en) Surgical scene assessment based on computer vision
JP4757246B2 (ja) 神経細胞画像解析装置及び神経細胞画像解析ソフトウェア
US11528431B2 (en) Microscope and method for processing microscope images
KR20150091748A (ko) 3차원 초음파 프로브의 스캔 위치 가이드 방법 및 이 방법이 포함된 초음파 진단기
US10139614B2 (en) Microscope system and microscopy method using digital markers
US20140306961A1 (en) Medical image processing system, recording medium having recorded thereon a medical image processing program and medical image processing method
WO2022195303A1 (en) Prediction of structures in surgical data using machine learning
JP6956853B2 (ja) 診断支援装置、診断支援プログラム、及び、診断支援方法
CN110742690A (zh) 一种用于配置内窥镜的方法及终端设备
CN110769731B (zh) 内窥镜系统、内窥镜用处理系统、图像处理方法
JP2022503556A (ja) 外科用内視鏡ビデオストリームの画像補正
WO2021106859A1 (ja) 器具監視装置および器具監視方法
JP6464569B2 (ja) 角膜内皮細胞解析プログラム
CN114170248A (zh) 图像的处理方法、数据处理方法、医疗系统、设备及介质
WO2021185811A1 (en) Surgical instrument and computer-implemented method for determining the position and orientation of such surgical instrument
Furtado et al. Low resolution tool tracking for microsurgical training in a simulated environment
WO2023162479A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113837137B (zh) 一种用于样本显微图像采集的定位捕捉方法、控制系统及可读存储介质
EP4057181A1 (en) Improved detection of action in a video stream
CN118570262A (zh) 基于卡尔曼滤波的医疗器械视觉跟踪方法、装置
WO2021199294A1 (ja) 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200313

R150 Certificate of patent or registration of utility model

Ref document number: 6677734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250