JP2016524478A - 画像データを立体視表示するための方法及び装置 - Google Patents

画像データを立体視表示するための方法及び装置 Download PDF

Info

Publication number
JP2016524478A
JP2016524478A JP2016508096A JP2016508096A JP2016524478A JP 2016524478 A JP2016524478 A JP 2016524478A JP 2016508096 A JP2016508096 A JP 2016508096A JP 2016508096 A JP2016508096 A JP 2016508096A JP 2016524478 A JP2016524478 A JP 2016524478A
Authority
JP
Japan
Prior art keywords
image data
depth map
stereoscopic
endoscope
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016508096A
Other languages
English (en)
Other versions
JP6116754B2 (ja
Inventor
アントン シック
シック アントン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2016524478A publication Critical patent/JP2016524478A/ja
Application granted granted Critical
Publication of JP6116754B2 publication Critical patent/JP6116754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0487Special user inputs or interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Human Computer Interaction (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明は、画像データを立体視表示するための装置及び方法に関し、特に内視鏡を用いて実施される低侵襲手術において画像情報を三次元表示するための装置及び方法に関する。まず内視鏡の手術領域が、センサ装置によって三次元的に検出される。センサによって取得された3Dデータから立体視画像データが作成され、適当な表示装置上に可視化される。

Description

本発明は、画像データを立体視表示するための方法及び装置、特に低侵襲手術において画像データを立体視表示するための方法及び装置に関する。
医療分野における内視鏡治療や内視鏡検査は、患者の切開手術に比べて格段に優しく、かつより外傷の少ない治療を可能にする。従ってこの治療方法は、ますますその重要性を増している。低侵襲手術では、患者の身体の1つ又は複数の比較的小さな切開部を介して、患者の体内に光学的な外科用器具(内視鏡)が挿入される。これによって執刀者は、外科用器具を用いて検査及び治療を実施することができる。それと同時にこのプロセスを、光学的な器具によって監視することができる。簡単な内視鏡によって、内視鏡の接眼レンズを介して直接的に視認することができるか、又は、内視鏡に取り付けられたカメラと外部モニタとによって手術領域を観察することができる。この簡単な内視鏡では、立体視は不可能である。内視鏡が追加的に、第2方向からの対象の観察を可能にする第2観察チャネルを有する場合には、左目用と右目用の2つの接眼レンズによって2つの方向を外部に導くことによって立体視が可能となる。単一の内視鏡では、観察チャネル同士の間の間隔が基本的に非常に小さい(通常は最大6mm)ので、このような立体視内視鏡も、微視的範囲における非常に制限された立体視しか提供しない。従って、約10cmである人間の両目間隔に相当する立体視のためには、さらに離間したアクセスチャネルを提供することが必要である。しかしながら、追加的なアクセスチャネルを獲得するために患者の身体をさらに切開することは、患者のさらなる外傷に結びついているので、追加的なアクセスチャネルはできるだけ回避すべきである。
従って、低侵襲手術において、単一の内視鏡によって治療領域の立体的な可視化を可能とすべき場合には、一つには内視鏡の断面内にて2つの観察光路を外部へ導くか、又はこれに代えて、内視鏡の先端に上述したような相互に離間された2つのカメラを配置する必要がある。双方の場合とも内視鏡の断面積は非常に制限されているので、極めて小さな空間分解能しか実現できず、これによって表示範囲の解像度が非常に制限されてしまう。
これに代えて、デジタルシステムによって患者内部の治療領域を三次元的に測定することも可能である。例えば、独国特許出願公開第102006017003号明細書は、深度データを光学的に取得する内視鏡を開示している。ここでは、変調された光が治療領域に送出され、受信した光信号に基づいて治療空間の深度データが計算される。
この場合、利用可能な深度データが算出された後でも、執刀者が治療空間内で治療領域を直接的に立体視することは依然として不可能なままである。執刀者は、二次元のスクリーン上に表示されたモデルに基づいて自身の治療ステップを計画及び実施しなければならない。
従って、画像データの改善された立体視表示に対する需要、特に低侵襲手術における画像データの立体視表示に対する需要が存在する。
本発明は、1つの態様によれば、低侵襲手術において画像データを立体視表示するための方法であって、表面を少なくとも部分的に三次元的に検出するステップと、少なくとも部分的に三次元的に検出された前記表面の深度マップを作成するステップと、作成された前記深度マップをテクスチャリングするステップと、テクスチャリングされた前記深度マップから立体視画像データを計算するステップと、計算された前記立体視画像データを可視化するステップとを有する方法を提供する。
本発明は、別の1つの態様によれば、低侵襲手術において画像データを立体視表示するための装置であって、表面を少なくとも部分的に三次元的に検出するように構成されたセンサ装置と、少なくとも部分的に三次元的に検出された前記表面から深度マップを作成するように構成された深度マップ作成装置と、作成された前記深度マップをテクスチャリングするように構成されたテクスチャリング装置と、テクスチャリングされた前記深度マップから立体視画像データを計算するように構成された画像データ作成装置と、計算された前記立体視画像データを可視化するように構成された可視化装置と、を備える装置を提供する。
本発明の技術思想は、直接アクセスできない領域をまずセンサによって三次元的に検出し、この三次元的な検出から深度マップの形態のデジタルモデルを作成することである。この深度マップから、ユーザの両目間隔に最適に適合された立体視画像データを、ユーザに対して簡単かつ自動的に作成することができる
特別なセンサシステムを用いて観察領域を三次元的に測定することによって、例えば患者の体内のアクセスできない領域を、非常に小さな構造サイズを有するセンサによって検出することが可能となる。このようにして検出されたデータは、特に大きな断面積を有する内視鏡を必要とすることなく簡単に外部に導くことができる。
このようにして、非常に大きな断面積を有する内視鏡、又は、患者の体内の手術領域へのさらなる切開部を必要とすることなく、治療領域の優れた三次元的な検出が実現される。
さらなる利点は、このようなセンサシステムが、非常に良好な空間分解能及び相応に多い画素数で被検領域を検出できることにある。なぜならこの内視鏡のセンサは、唯1つのカメラしか必要としないからである。従って、患者の僅かな外傷だけで、観察すべき手術領域を非常に良好な画質で表示することができる。
さらなる利点は、センサシステムから供給された三次元データから、ユーザの両目間隔に最適に適合された、観察領域の立体視的な可視化を作成できることにある。従って、画像データの可視化は、ユーザに対して最適な三次元的な検出が可能となるように処理することができる。
さらには、立体視画像データの計算を、センサによる対象表面の三次元的な検出に依存せずに実施することが有利である。従って、内視鏡の目下の位置とは異なる、治療領域の立体視表示を、ユーザに供給することも可能となる。
従って、三次元的に検出された対象データから深度マップを適切に処理することによって、実際の状況に非常に近似した治療領域の表示をユーザに供給することが可能となる。
1つの実施形態によれば、計算された前記立体視画像データは、ユーザの両目の2つの視線方向に対応する。ユーザの両目の各視線方向に応じて立体視画像データを処理することによって、治療領域の立体視的な可視化をユーザに対して最適化することが可能となる。
1つの実施形態では、前記深度マップは、少なくとも部分的に三次元的に検出された前記表面の空間点を含む。このような深度マップによって、三次元的に検出された表面を非常に良好にさらに加工処理することが可能となる。
1つの実施形態によれば、前記表面を三次元的に検出するステップが継続的に実施され、継続的に三次元的に検出された前記表面に基づいて、前記深度マップが適合される。このようにして、深度マップを継続的に補足すること、場合によっては補正することも可能であり、これによって観察領域の完全な三次元モデルが連続的に構築される。従って、或る程度の時間が経過した後には、陰などによって差し当たり検出できなかった領域に関する画像情報も供給することが可能となる。
別の1つの実施形態では、本発明の方法は、さらなる画像情報を供給するステップと、前記さらなる画像情報を、前記検出された三次元の表面と組み合わせるステップとを含む。検出された三次元の表面を、さらなる画像情報とこのように組み合わせることによって、立体視画像データを特に良好に現実に即して可視化することが可能となる。
特別な1つの実施形態では、前記さらなる画像データは、診断画像データ、特にコンピュータ断層撮影法、磁気共鳴画像法、X線撮影法、及び/又は超音波検査法からのデータである。治療前又は治療中に作成された、観察領域に関連するこのような診断画像データは、治療領域の処理及び可視化のために特に有用な情報を供給する。これらの画像データは、例えば画像診断装置によって直接供給することができるか、又は、記憶装置21から供給することができる。
別の1つの実施形態では、前記立体視画像データを計算するステップにおいて、所定の視線方向に関する画像データが計算される。この視線方向は、表面を三次元的に検出するセンサを備える内視鏡の目下の位置とは異なっていてもよい。これによって、治療領域の特にフレキシブルな可視化を実現することができる。
特別な1つの実施形態では、本発明の方法は、ユーザ入力を検出するステップをさらに含み、検出された前記ユーザ入力に基づいて、前記所定の視線方向が適合される。これによってユーザに対して、各自の要求に合わせて視線方向を個別的に適合させることが可能となる。
本発明の装置の別の1つの実施形態では、前記センサ装置は、内視鏡に接して又は内視鏡内に配置されている。
特別な1つの実施形態では、前記内視鏡は、少なくとも1つの外科用器具をさらに含む。これによって、唯一の切開部を介して、外科手術を実施すると同時にこの外科手術を光学的に監視することも可能となる。
本発明の1つの実施形態では、本発明の装置は、TOFカメラを備えるセンサ装置、及び/又は、三角測量のための装置、特に能動的な三角測量のための装置を含む。このようなセンサ装置によって、表面の特に良好な三次元的な検出を実現することができる。
別の1つの実施形態では、前記センサ装置は、カメラ、好ましくはカラーカメラを含む。これによりセンサ装置によって、表面の三次元的な検出の他にも、治療領域の可視化に使用されるデジタル画像データを取得することが同時に可能となる。
別の1つの実施形態では、前記画像データ作成装置は、所定の視線方向に関する画像データを計算する。
特別な1つの実施形態では、本発明の装置は、ユーザ入力を検出するように構成された入力装置をさらに含み、前記画像データ作成装置は、前記ユーザ入力に基づく視線方向に関する立体視画像データを計算する。
別の特別な1つの実施形態では、前記入力装置は、前記ユーザの動作、特に前記ユーザによって行われるジェスチャを検出する。この動作又はジェスチャは、カメラによって検出することが好ましい。
本発明の実施形態のさらなる特徴及び利点は、添付図面に関連した以下の説明から明らかとなる。
本発明の第1実施形態に即した、画像データを立体視表示するための装置の概略図である。 別の1つの実施形態に即した、本発明の装置の各要素の概略図である。 立体視的な可視化のためのモニタ要素の概略図である。 立体視的な可視化のためのモニタ要素の概略図である。 本発明の別の1つの実施形態の基礎となる、画像データを立体視表示するための方法の概略図である。
図1は、本発明の1つの実施形態に即した立体視表示するための装置を含む内視鏡を用いた低侵襲手術の概略図を示す。患者の身体2において、切開部(アクセス)2dを介して内視鏡12が体内2bに挿入される。治療空間2aは、例えば切開部2dを相応に封止した後に適当なガスを導入することよって広げることができる。このようにして、治療対象2cの前に充分な大きさの治療空間が形成される。内視鏡12を介して治療空間2内には、一つにはセンサ装置10を挿入し、さらには1つ又は複数の外科用器具11を挿入することができる。外科用器具11は、内部空間2a内での治療を実施するために適当な装置11aを介して外部から制御することができる。
この治療は、センサ装置10によって光学的に監視される。このセンサ装置10は、治療空間2aの表面と、特に治療対象2cの表面とを三次元的に検出することができるセンサである。センサ装置10は、例えば距離画像カメラ(TOFカメラ)の原理に即して動作するセンサとすることができる。この場合には、光源から変調された光パルスが送出され、表面によって散乱及び反射された光が、対応するセンサ、例えばカメラによって評価される。従って、この光の伝播速度に基づいて三次元モデルを作成することができる。
これに代えて、センサ装置10は、例えば治療空間2aの表面の三次元位置を算出するために三角測量を実施することも可能である。基本的には、このような三角測量は、例えば2つの別個のカメラを用いた受動的な三角測量によって実施することができる。しかしながら、低コントラストの表面(例えば肝臓)での受動的な三角測量の場合には、対応付け問題の解決が困難であり、かつ3Dデータ密度が非常に低いので、能動的な三角測量を実施することが好ましい。能動的な三角測量の場合には、センサ装置10によって、治療空間2a内の表面上に既知のパターンが投影され、カメラによって表面が記録される。この既知のパターンは、可視光を用いて表面上に投影することが好ましい。しかしながらこれに加えて又はこれに代えて、可視波長範囲外の光、例えば赤外線又は紫外線を手術領域に照射してもよい。
治療空間2aの表面における、カメラによって記録されたパターンと、プロジェクタによって送出された既知の理想的なパターンとを比較することによって、治療空間2aの表面を三次元的に検出して評価することが可能となる。
表面の三次元的な検出に加えて、又は表面の三次元的な検出に代えて、治療空間2aと治療空間2aの表面とを従来のようにカメラによって検出してもよい。このようにして、治療空間2aの対応するカラー画像又は白黒画像を検出することができる。センサ装置10の光源を、治療空間2aの照明用に使用すると同時に、従来のような画像データを取得するためにも使用できることが好ましい。
センサ装置10によって検出された、治療空間2a内の表面の三次元位置に関するデータと、カメラによって検出されたカラー画像又は白黒画像とが外部に導かれ、これによってさらなる加工処理のために、特に可視化のために使用することが可能となる。
図2は、図1に関連して説明した実施例に即して作成された立体視画像データを可視化するための装置の概略図を示す。センサ装置10は、センサ装置10の視界内に存在する表面と、空間内での当該表面の個々の表面点の三次元位置とを検出する。上述したように、空間点の三次元的な検出に加えて、又は空間点の三次元的な検出に代えて、白黒カメラ又はカラーカメラを用いて従来のように画像データを取得することもできる。これに基づき、空間点の三次元位置に関する情報が、深度マップ作成装置20に供給される。この深度マップ作成装置20は、センサ装置10からの表面点の三次元位置に関する情報を評価し、ここから、センサ装置10によって検出された空間点の三次元位置に関する情報を含む深度マップを作成する。
センサ装置10は限定的な視界しか有さず、さらには例えば治療空間内の隆起物に起因して陰ができることよって領域の一部が差し当たり検出できないことがあるので、この深度マップは、治療空間2a内の表面の三次元的な検出の開始時には、まだ差し当たり多かれ少なかれ大きなブランクを有することとなる。センサ装置10によって治療空間2a内の表面をさらに継続的に検出することによって、時間の経過と共に、また治療空間2aの内部でセンサ装置10が移動する場合には特に、この深度マップが一層完全なものとなる。従って、或る程度の時間が経過した後には、例えば視界の外側又は陰の後ろに位置するが故に、実際にはセンサ装置10によって検出できない空間点に関する情報も、この深度マップ内に供給されている。センサ装置10によって表面を継続的に検出することによってさらに、深度マップ内において表面の変化を補正することも可能となる。このようにして深度マップは、治療空間2a内の表面の目下の状態を常に反映する。
深度マップ内に供給されている、治療空間2a内の表面の空間点は、テクスチャリング装置30に転送される。テクスチャリング装置30は、場合によって、深度マップからの情報と、内視鏡の白黒カメラ又はカラーカメラの画像データとを組み合わせることができる。テクスチャリング装置30は、深度マップの空間点から、連続した表面を有する三次元オブジェクトを作成する。深度マップの三次元の空間データと、内視鏡のカメラデータとを組み合わせることにより、表面を必要に応じて適切に色付け又は陰影付けすることができる。
さらには、追加的な診断画像データを取り入れることが可能である。例えば手術前に既に、治療領域に関して記録を作成しておくことができる。このためには例えば、コンピュータ断層撮影法(CT)、磁気共鳴画像法(MR又はMRI)、X線撮影法、超音波検査法等のような画像診断法が適している。また場合によっては治療中に、適当な画像診断法によって追加的な情報を作成することも考えられ、この追加的な情報を、画像作成プロセスにおいて一緒に考慮することができる。
テクスチャリング装置30において、深度マップの空間データと、場合によってはさらなる画像データとから治療空間2aの表面のテクスチャリングが実施された後、このようにして処理された情報が、画像データ作成装置40へと転送される。この画像データ作成装置40は、テクスチャリングされた三次元情報から立体視画像データを作成する。この立体視画像データは、観察者の両目間隔を考慮した、相互に若干ずらされた少なくとも2つの画像を含む。この際に使用される両目間隔は、通常約80mmである。観察者の両目の約25cm手前に観察対象が存在すると仮定した場合には、観察者は特に良好な空間印象を得る。しかしながら基本的には、観察者に対して観察対象の空間印象を可能にする別のパラメータでもよい。従って、画像データ作成装置40は、所定の視線方向から少なくとも2つの画像データセットを計算し、この場合に、これら2つの画像データセットの各視線方向は、観察者の両目間隔だけ異なっている。このようにして作成された画像データは、可視化装置50に供給される。可視化装置50に対して、三次元表示のためのさらなる情報又はデータが必要な場合には、これらの情報又はデータも、画像データ作成装置40によって作成及び供給することができる。
可視化装置50として、観察者の両目にそれぞれ異なる画像情報を供給するために適した全ての装置が適している。可視化装置50は、例えば3Dモニタとすることができるか、又は、ユーザの両目に対して相異なる画像データを表示する特別な眼鏡とすることができる。
図3は、3Dモニタの第1の実施形態のための複数の画素の一部の概略図を示す。スクリーン上に、左目用の画素51と右目用の画素52とが順次交互に配置されている。これらの画素51及び52の前に配置されたスリット絞り53により、左目及び右目はそれぞれ各自の専用の画素だけを観察し、その一方で、ユーザのそれぞれ他方の目のための画素は、それぞれの視線方向に基づきスリット絞り53によって隠されている。
図4は、3Dモニタの択一的な形態を示す。ここでは、左目用の画素51及び右目用の画素52の前にそれぞれ小さなレンズ54が配置されており、これらのレンズ54は、左目用の光路及び右目用の光路を、同様にして各目が当該目に対する専用の画素だけを観察するように偏向する。
基本的には、さらに他の全ての種類の3D対応モニタも考えられ、適している。例えば、左目及び右目に対してそれぞれ異なる偏光を有する光を送出するモニタを使用することもできる。しかしながらこの場合には、ユーザは、適切な偏光フィルタを備える眼鏡を着用しなければならない。左目用の画像データと右目用の画像データとを交互に送出するモニタの場合にも、ユーザは、適切なシャッター眼鏡を着用する必要がある。このシャッター眼鏡は、交互に表示される画像に同期して、それぞれ交互に左目だけに及び右目だけにモニタの観察を可能にするものである。しかしながら、眼鏡の着用に伴って快適性が損なわれるので、特別な眼鏡の装着が必要な表示システムよりも、図3及び図4の原理に即して動作する可視化装置の方がユーザに受容される。
深度マップと、深度マップに次いで行われるテクスチャリングとは、既に説明したように徐々に連続的に完成されるので、治療空間2aのほぼ完全なモデルは、或る程度の時間が経過した後に供給され、このほぼ完全なモデルは、ちょうど目下の時点では視認できない陰になった領域に関する情報も含んでいる。従って、画像データ作成装置40のために、センサ装置10の目下の位置とは異なる観察角度から画像データを作成することも可能となる。従って、例えば可視化装置50上には、センサ装置10の目下の位置と、同様に内視鏡に配置されている外科用器具11の目下の位置とから多かれ少なかれ著しく相違している治療空間2aの表示を表示することもできる。深度マップが充分に完成された後には、ユーザは、所望の視線方向をほぼ任意に設定することが可能となる。特に深度マップからの空間情報を、内視鏡カメラのさらなる画像データ及び追加的な診断画像情報と組み合わせることによって、切開された身体の態様に非常に近似した表示を可視化装置50上でユーザに表示することができる。
従って、ユーザは、手術中により良好に方向を定めるために、自身の希望に応じた視線方向を任意に設定及び変更することが可能である。例えば治療すべき器官において特定の箇所を発見すべき場合、又は、特定の血管等を識別することによって対応する器官での方向付けをサポートすべき場合には、このことは特に有用である。
所望の視線方向は、適当な入力装置41によって設定することができる。この入力装置41は、例えばキーボード、コンピュータマウス、ジョイスティック、又はトラックボール等とすることができる。しかしながら外科手術中にはユーザは通常、内視鏡と、内視鏡に含まれる外科用手段11とを両手で操作しなければならないので、ユーザは多くの場合、設定したい視線方向を制御するための入力装置41を操作するために手が塞がっている。従って、好ましい実施形態では、視線方向の制御を非接触に実施することもできる。例えば音声制御を介して、視線方向の制御を実施することができる。さらには、特別な所定の動作による視線方向の制御も可能である。例えばユーザは、特定のジェスチャを実施することによって所望の視線方向を制御することができる。特に、ユーザの眼球運動を監視して評価することが考えられる。この検出された眼球運動に基づいて、視線方向が立体視表示に適合される。しかしながら、視線方向を制御するためにユーザの身体の他の部分を監視することも可能である。このようなユーザの動作又はジェスチャは、カメラによって監視して評価することが好ましい。これに代えて、音声制御の場合には、入力装置41をマイクロフォンとすることができる。しかしながら、所定の視線方向を制御するために、例えば足の動作等による別の手段も考えられる。
図5は、本発明の基礎となる、画像データを立体視表示するための方法100の概略図を示す。第1ステップ110ではまず、治療空間2aの表面が少なくとも部分的に三次元的に検出される。上述したように、治療空間2aの表面のこの三次元的な検出は、任意の適当なセンサ10によって実施することができる。次いでステップ120では、対象表面の三次元的な検出に基づいて、深度マップが作成される。作成されたこの深度マップは、検出された三次元の表面の空間点を含む。センサ装置10は限定的な視角しか有さず、さらに場合によっては、領域の一部が陰によって差し当たり検出できないことがあるので、このようにして作成された深度マップは、開始時には差し当たり不完全である可能性がある。治療空間2aの内部における内視鏡と、ひいてはセンサ装置10とを動かすことによって、表面のさらなる空間点を継続的に検出することができ、これらの情報を一緒に深度マップに統合することができる。同様にして、検出される表面が変化した場合には、深度マップ内の対応する情報を補正することができる。
少なくとも部分的に三次元的に検出された表面を備える深度マップが作成された後、ステップ130にて、深度マップ内に供給されている空間点によってテクスチャリングが実施される。このテクスチャリングには、場合によって供給されている、センサ装置10のカメラからのさらなる画像データ、及び/又は、コンピュータ断層撮影法、磁気共鳴画像法、超音波検査法、又はX線撮影法のような画像方法による診断画像情報からのさらなる画像データを、一緒に統合することができる。このようにしてまず、治療空間2aの表面の三次元のカラー画像又は白黒画像が作成される。次いでステップ140では、このようにしてテクスチャリングされた深度マップから立体視画像データが計算される。この立体視画像データは、所定の視線方向からの少なくとも2つの表示を含み、これらの表示は、観察者の両目間隔に応じて相異なっている。最後にステップ150において、予め計算された立体視画像データが、適当な表示装置上に可視化される。
ステップ140における立体視画像データの計算の基礎となる視線方向は、任意に適合させることができる。特に、立体視画像データを計算するための視線方向は、センサ装置10の視線方向とは異なっていてもよい。ステップ140における立体視画像データの計算の基礎となる視線方向を設定するために、本発明の方法はさらなるステップを含み、このさらなるステップでは、ユーザ入力が検出され、このユーザ入力に応じて、立体視画像データを計算するための視線方向が適合される。視線方向を適合させるためのユーザ入力は、非接触に実施することが好ましい。例えば所定のユーザジェスチャの評価によって、ユーザ入力を実施することができる。
要約すると、本発明は、画像データを立体視表示するための装置及び方法に関し、特に内視鏡を用いて実施される低侵襲手術において画像情報を三次元表示するための装置及び方法に関する。まず内視鏡の手術領域が、センサ装置によって三次元的に検出される。センサによって取得された3Dデータから立体視画像データが作成され、適当な表示装置上に可視化される。
本発明は、画像データを立体視表示するための方法及び装置、特に低侵襲手術において画像データを立体視表示するための方法及び装置に関する。
医療分野における内視鏡治療や内視鏡検査は、患者の切開手術に比べて格段に優しく、かつより外傷の少ない治療を可能にする。従ってこの治療方法は、ますますその重要性を増している。低侵襲手術では、患者の身体の1つ又は複数の比較的小さな切開部を介して、患者の体内に光学的な外科用器具(内視鏡)が挿入される。これによって執刀者は、外科用器具を用いて検査及び治療を実施することができる。それと同時にこのプロセスを、光学的な器具によって監視することができる。簡単な内視鏡によって、内視鏡の接眼レンズを介して直接的に視認することができるか、又は、内視鏡に取り付けられたカメラと外部モニタとによって手術領域を観察することができる。この簡単な内視鏡では、立体視は不可能である。内視鏡が追加的に、第2方向からの対象の観察を可能にする第2観察チャネルを有する場合には、左目用と右目用の2つの接眼レンズによって2つの方向を外部に導くことによって立体視が可能となる。単一の内視鏡では、観察チャネル同士の間の間隔が基本的に非常に小さい(通常は最大6mm)ので、このような立体視内視鏡も、微視的範囲における非常に制限された立体視しか提供しない。従って、約10cmである人間の両目間隔に相当する立体視のためには、さらに離間したアクセスチャネルを提供することが必要である。しかしながら、追加的なアクセスチャネルを獲得するために患者の身体をさらに切開することは、患者のさらなる外傷に結びついているので、追加的なアクセスチャネルはできるだけ回避すべきである。
従って、低侵襲手術において、単一の内視鏡によって治療領域の立体的な可視化を可能とすべき場合には、一つには内視鏡の断面内にて2つの観察光路を外部へ導くか、又はこれに代えて、内視鏡の先端に上述したような相互に離間された2つのカメラを配置する必要がある。双方の場合とも内視鏡の断面積は非常に制限されているので、極めて小さな空間分解能しか実現できず、これによって表示範囲の解像度が非常に制限されてしまう。
これに代えて、デジタルシステムによって患者内部の治療領域を三次元的に測定することも可能である。例えば、独国特許出願公開第102006017003号明細書は、深度データを光学的に取得する内視鏡を開示している。ここでは、変調された光が治療領域に送出され、受信した光信号に基づいて治療空間の深度データが計算される。
この場合、利用可能な深度データが算出された後でも、執刀者が治療空間内で治療領域を直接的に立体視することは依然として不可能なままである。執刀者は、二次元のスクリーン上に表示されたモデルに基づいて自身の治療ステップを計画及び実施しなければならない。
国際特許出願公開第2013/025530号明細書は、外科用器具のための画像取得ユニットを開示している。この外科用器具は、互いに離間配置された2つの画像センサを含む。これら2つの画像センサからのデータを処理することによって立体視画像が作成され、この立体視画像は、表示装置上に表示することができる。
従って、画像データの改善された立体視表示に対する需要、特に低侵襲手術における画像データの立体視表示に対する需要が存在する。
従って、本発明は、独立請求項に記載の特徴を有する、画像データを立体視表示するための方法及び装置を提供する。
本発明は、別の1つの態様によれば、低侵襲手術において画像データを立体視表示するための装置であって、表面を少なくとも部分的に三次元的に検出するように構成されたセンサ装置と、少なくとも部分的に三次元的に検出された前記表面から深度マップを作成するように構成された深度マップ作成装置と、作成された前記深度マップをテクスチャリングするように構成されたテクスチャリング装置と、テクスチャリングされた前記深度マップから立体視画像データを計算するように構成された画像データ作成装置と、計算された前記立体視画像データを可視化するように構成された可視化装置と、を備える装置を提供する。
本発明の技術思想は、直接アクセスできない領域をまずセンサによって三次元的に検出し、この三次元的な検出から深度マップの形態のデジタルモデルを作成することである。この深度マップから、ユーザの両目間隔に最適に適合された立体視画像データを、ユーザに対して簡単かつ自動的に作成することができる
特別なセンサシステムを用いて観察領域を三次元的に測定することによって、例えば患者の体内のアクセスできない領域を、非常に小さな構造サイズを有するセンサによって検出することが可能となる。このようにして検出されたデータは、特に大きな断面積を有する内視鏡を必要とすることなく簡単に外部に導くことができる。
このようにして、非常に大きな断面積を有する内視鏡、又は、患者の体内の手術領域へのさらなる切開部を必要とすることなく、治療領域の優れた三次元的な検出が実現される。
さらなる利点は、このようなセンサシステムが、非常に良好な空間分解能及び相応に多い画素数で被検領域を検出できることにある。なぜならこの内視鏡のセンサは、唯1つのカメラしか必要としないからである。従って、患者の僅かな外傷だけで、観察すべき手術領域を非常に良好な画質で表示することができる。
さらなる利点は、センサシステムから供給された三次元データから、ユーザの両目間隔に最適に適合された、観察領域の立体視的な可視化を作成できることにある。従って、画像データの可視化は、ユーザに対して最適な三次元的な検出が可能となるように処理することができる。
さらには、立体視画像データの計算を、センサによる対象表面の三次元的な検出に依存せずに実施することが有利である。従って、内視鏡の目下の位置とは異なる、治療領域の立体視表示を、ユーザに供給することも可能となる。
従って、三次元的に検出された対象データから深度マップを適切に処理することによって、実際の状況に非常に近似した治療領域の表示をユーザに供給することが可能となる。
1つの実施形態によれば、計算された前記立体視画像データは、ユーザの両目の2つの視線方向に対応する。ユーザの両目の各視線方向に応じて立体視画像データを処理することによって、治療領域の立体視的な可視化をユーザに対して最適化することが可能となる。
1つの実施形態では、前記深度マップは、少なくとも部分的に三次元的に検出された前記表面の空間点を含む。このような深度マップによって、三次元的に検出された表面を非常に良好にさらに加工処理することが可能となる。
1つの実施形態によれば、前記表面を三次元的に検出するステップが継続的に実施され、継続的に三次元的に検出された前記表面に基づいて、前記深度マップが適合される。このようにして、深度マップを継続的に補足すること、場合によっては補正することも可能であり、これによって観察領域の完全な三次元モデルが連続的に構築される。従って、或る程度の時間が経過した後には、陰などによって差し当たり検出できなかった領域に関する画像情報も供給することが可能となる。
出された三次元の表面を、さらなる画像情報とこのように組み合わせることによって、立体視画像データを特に良好に現実に即して可視化することが可能となる。
療前又は治療中に作成された、観察領域に関連するこのような診断画像データは、治療領域の処理及び可視化のために特に有用な情報を供給する。これらの画像データは、例えば画像診断装置によって直接供給することができるか、又は、記憶装置21から供給することができる。
別の1つの実施形態では、前記立体視画像データを計算するステップにおいて、所定の視線方向に関する画像データが計算される。この視線方向は、表面を三次元的に検出するセンサを備える内視鏡の目下の位置とは異なっていてもよい。これによって、治療領域の特にフレキシブルな可視化を実現することができる。
特別な1つの実施形態では、本発明の方法は、ユーザ入力を検出するステップをさらに含み、検出された前記ユーザ入力に基づいて、前記所定の視線方向が適合される。これによってユーザに対して、各自の要求に合わせて視線方向を個別的に適合させることが可能となる。
本発明の装置の別の1つの実施形態では、前記センサ装置は、内視鏡に接して又は内視鏡内に配置されている。
特別な1つの実施形態では、前記内視鏡は、少なくとも1つの外科用器具をさらに含む。これによって、唯一の切開部を介して、外科手術を実施すると同時にこの外科手術を光学的に監視することも可能となる。
本発明の1つの実施形態では、本発明の装置は、TOFカメラを備えるセンサ装置、及び/又は、三角測量のための装置、特に能動的な三角測量のための装置を含む。このようなセンサ装置によって、表面の特に良好な三次元的な検出を実現することができる。
別の1つの実施形態では、前記センサ装置は、カメラ、好ましくはカラーカメラを含む。これによりセンサ装置によって、表面の三次元的な検出の他にも、治療領域の可視化に使用されるデジタル画像データを取得することが同時に可能となる。
別の1つの実施形態では、前記画像データ作成装置は、所定の視線方向に関する画像データを計算する。
特別な1つの実施形態では、本発明の装置は、ユーザ入力を検出するように構成された入力装置をさらに含み、前記画像データ作成装置は、前記ユーザ入力に基づく視線方向に関する立体視画像データを計算する。
別の特別な1つの実施形態では、前記入力装置は、前記ユーザの動作、特に前記ユーザによって行われるジェスチャを検出する。この動作又はジェスチャは、カメラによって検出することが好ましい。
本発明の実施形態のさらなる特徴及び利点は、添付図面に関連した以下の説明から明らかとなる。
本発明の第1実施形態に即した、画像データを立体視表示するための装置の概略図である。 別の1つの実施形態に即した、本発明の装置の各要素の概略図である。 立体視的な可視化のためのモニタ要素の概略図である。 立体視的な可視化のためのモニタ要素の概略図である。 本発明の別の1つの実施形態の基礎となる、画像データを立体視表示するための方法の概略図である。
図1は、本発明の1つの実施形態に即した立体視表示するための装置を含む内視鏡を用いた低侵襲手術の概略図を示す。患者の身体2において、切開部(アクセス)2dを介して内視鏡12が体内2bに挿入される。治療空間2aは、例えば切開部2dを相応に封止した後に適当なガスを導入することよって広げることができる。このようにして、治療対象2cの前に充分な大きさの治療空間が形成される。内視鏡12を介して治療空間2内には、一つにはセンサ装置10を挿入し、さらには1つ又は複数の外科用器具11を挿入することができる。外科用器具11は、内部空間2a内での治療を実施するために適当な装置11aを介して外部から制御することができる。
この治療は、センサ装置10によって光学的に監視される。このセンサ装置10は、治療空間2aの表面と、特に治療対象2cの表面とを三次元的に検出することができるセンサである。センサ装置10は、例えば距離画像カメラ(TOFカメラ)の原理に即して動作するセンサとすることができる。この場合には、光源から変調された光パルスが送出され、表面によって散乱及び反射された光が、対応するセンサ、例えばカメラによって評価される。従って、この光の伝播速度に基づいて三次元モデルを作成することができる。
これに代えて、センサ装置10は、例えば治療空間2aの表面の三次元位置を算出するために三角測量を実施することも可能である。基本的には、このような三角測量は、例えば2つの別個のカメラを用いた受動的な三角測量によって実施することができる。しかしながら、低コントラストの表面(例えば肝臓)での受動的な三角測量の場合には、対応付け問題の解決が困難であり、かつ3Dデータ密度が非常に低いので、能動的な三角測量を実施することが好ましい。能動的な三角測量の場合には、センサ装置10によって、治療空間2a内の表面上に既知のパターンが投影され、カメラによって表面が記録される。この既知のパターンは、可視光を用いて表面上に投影することが好ましい。しかしながらこれに加えて又はこれに代えて、可視波長範囲外の光、例えば赤外線又は紫外線を手術領域に照射してもよい。
治療空間2aの表面における、カメラによって記録されたパターンと、プロジェクタによって送出された既知の理想的なパターンとを比較することによって、治療空間2aの表面を三次元的に検出して評価することが可能となる。
表面の三次元的な検出に加えて、又は表面の三次元的な検出に代えて、治療空間2aと治療空間2aの表面とを従来のようにカメラによって検出してもよい。このようにして、治療空間2aの対応するカラー画像又は白黒画像を検出することができる。センサ装置10の光源を、治療空間2aの照明用に使用すると同時に、従来のような画像データを取得するためにも使用できることが好ましい。
センサ装置10によって検出された、治療空間2a内の表面の三次元位置に関するデータと、カメラによって検出されたカラー画像又は白黒画像とが外部に導かれ、これによってさらなる加工処理のために、特に可視化のために使用することが可能となる。
図2は、図1に関連して説明した実施例に即して作成された立体視画像データを可視化するための装置の概略図を示す。センサ装置10は、センサ装置10の視界内に存在する表面と、空間内での当該表面の個々の表面点の三次元位置とを検出する。上述したように、空間点の三次元的な検出に加えて、又は空間点の三次元的な検出に代えて、白黒カメラ又はカラーカメラを用いて従来のように画像データを取得することもできる。これに基づき、空間点の三次元位置に関する情報が、深度マップ作成装置20に供給される。この深度マップ作成装置20は、センサ装置10からの表面点の三次元位置に関する情報を評価し、ここから、センサ装置10によって検出された空間点の三次元位置に関する情報を含む深度マップを作成する。
センサ装置10は限定的な視界しか有さず、さらには例えば治療空間内の隆起物に起因して陰ができることよって領域の一部が差し当たり検出できないことがあるので、この深度マップは、治療空間2a内の表面の三次元的な検出の開始時には、まだ差し当たり多かれ少なかれ大きなブランクを有することとなる。センサ装置10によって治療空間2a内の表面をさらに継続的に検出することによって、時間の経過と共に、また治療空間2aの内部でセンサ装置10が移動する場合には特に、この深度マップが一層完全なものとなる。従って、或る程度の時間が経過した後には、例えば視界の外側又は陰の後ろに位置するが故に、実際にはセンサ装置10によって検出できない空間点に関する情報も、この深度マップ内に供給されている。センサ装置10によって表面を継続的に検出することによってさらに、深度マップ内において表面の変化を補正することも可能となる。このようにして深度マップは、治療空間2a内の表面の目下の状態を常に反映する。
深度マップ内に供給されている、治療空間2a内の表面の空間点は、テクスチャリング装置30に転送される。テクスチャリング装置30は、場合によって、深度マップからの情報と、内視鏡の白黒カメラ又はカラーカメラの画像データとを組み合わせることができる。テクスチャリング装置30は、深度マップの空間点から、連続した表面を有する三次元オブジェクトを作成する。深度マップの三次元の空間データと、内視鏡のカメラデータとを組み合わせることにより、表面を必要に応じて適切に色付け又は陰影付けすることができる。
さらには、追加的な診断画像データを取り入れることが可能である。例えば手術前に既に、治療領域に関して記録を作成しておくことができる。このためには例えば、コンピュータ断層撮影法(CT)、磁気共鳴画像法(MR又はMRI)、X線撮影法、超音波検査法等のような画像診断法が適している。また場合によっては治療中に、適当な画像診断法によって追加的な情報を作成することも考えられ、この追加的な情報を、画像作成プロセスにおいて一緒に考慮することができる。
テクスチャリング装置30において、深度マップの空間データと、場合によってはさらなる画像データとから治療空間2aの表面のテクスチャリングが実施された後、このようにして処理された情報が、画像データ作成装置40へと転送される。この画像データ作成装置40は、テクスチャリングされた三次元情報から立体視画像データを作成する。この立体視画像データは、観察者の両目間隔を考慮した、相互に若干ずらされた少なくとも2つの画像を含む。この際に使用される両目間隔は、通常約80mmである。観察者の両目の約25cm手前に観察対象が存在すると仮定した場合には、観察者は特に良好な空間印象を得る。しかしながら基本的には、観察者に対して観察対象の空間印象を可能にする別のパラメータでもよい。従って、画像データ作成装置40は、所定の視線方向から少なくとも2つの画像データセットを計算し、この場合に、これら2つの画像データセットの各視線方向は、観察者の両目間隔だけ異なっている。このようにして作成された画像データは、可視化装置50に供給される。可視化装置50に対して、三次元表示のためのさらなる情報又はデータが必要な場合には、これらの情報又はデータも、画像データ作成装置40によって作成及び供給することができる。
可視化装置50として、観察者の両目にそれぞれ異なる画像情報を供給するために適した全ての装置が適している。可視化装置50は、例えば3Dモニタとすることができるか、又は、ユーザの両目に対して相異なる画像データを表示する特別な眼鏡とすることができる。
図3は、3Dモニタの第1の実施形態のための複数の画素の一部の概略図を示す。スクリーン上に、左目用の画素51と右目用の画素52とが順次交互に配置されている。これらの画素51及び52の前に配置されたスリット絞り53により、左目及び右目はそれぞれ各自の専用の画素だけを観察し、その一方で、ユーザのそれぞれ他方の目のための画素は、それぞれの視線方向に基づきスリット絞り53によって隠されている。
図4は、3Dモニタの択一的な形態を示す。ここでは、左目用の画素51及び右目用の画素52の前にそれぞれ小さなレンズ54が配置されており、これらのレンズ54は、左目用の光路及び右目用の光路を、同様にして各目が当該目に対する専用の画素だけを観察するように偏向する。
基本的には、さらに他の全ての種類の3D対応モニタも考えられ、適している。例えば、左目及び右目に対してそれぞれ異なる偏光を有する光を送出するモニタを使用することもできる。しかしながらこの場合には、ユーザは、適切な偏光フィルタを備える眼鏡を着用しなければならない。左目用の画像データと右目用の画像データとを交互に送出するモニタの場合にも、ユーザは、適切なシャッター眼鏡を着用する必要がある。このシャッター眼鏡は、交互に表示される画像に同期して、それぞれ交互に左目だけに及び右目だけにモニタの観察を可能にするものである。しかしながら、眼鏡の着用に伴って快適性が損なわれるので、特別な眼鏡の装着が必要な表示システムよりも、図3及び図4の原理に即して動作する可視化装置の方がユーザに受容される。
深度マップと、深度マップに次いで行われるテクスチャリングとは、既に説明したように徐々に連続的に完成されるので、治療空間2aのほぼ完全なモデルは、或る程度の時間が経過した後に供給され、このほぼ完全なモデルは、ちょうど目下の時点では視認できない陰になった領域に関する情報も含んでいる。従って、画像データ作成装置40のために、センサ装置10の目下の位置とは異なる観察角度から画像データを作成することも可能となる。従って、例えば可視化装置50上には、センサ装置10の目下の位置と、同様に内視鏡に配置されている外科用器具11の目下の位置とから多かれ少なかれ著しく相違している治療空間2aの表示を表示することもできる。深度マップが充分に完成された後には、ユーザは、所望の視線方向をほぼ任意に設定することが可能となる。特に深度マップからの空間情報を、内視鏡カメラのさらなる画像データ及び追加的な診断画像情報と組み合わせることによって、切開された身体の態様に非常に近似した表示を可視化装置50上でユーザに表示することができる。
従って、ユーザは、手術中により良好に方向を定めるために、自身の希望に応じた視線方向を任意に設定及び変更することが可能である。例えば治療すべき器官において特定の箇所を発見すべき場合、又は、特定の血管等を識別することによって対応する器官での方向付けをサポートすべき場合には、このことは特に有用である。
所望の視線方向は、適当な入力装置41によって設定することができる。この入力装置41は、例えばキーボード、コンピュータマウス、ジョイスティック、又はトラックボール等とすることができる。しかしながら外科手術中にはユーザは通常、内視鏡と、内視鏡に含まれる外科用手段11とを両手で操作しなければならないので、ユーザは多くの場合、設定したい視線方向を制御するための入力装置41を操作するために手が塞がっている。従って、好ましい実施形態では、視線方向の制御を非接触に実施することもできる。例えば音声制御を介して、視線方向の制御を実施することができる。さらには、特別な所定の動作による視線方向の制御も可能である。例えばユーザは、特定のジェスチャを実施することによって所望の視線方向を制御することができる。特に、ユーザの眼球運動を監視して評価することが考えられる。この検出された眼球運動に基づいて、視線方向が立体視表示に適合される。しかしながら、視線方向を制御するためにユーザの身体の他の部分を監視することも可能である。このようなユーザの動作又はジェスチャは、カメラによって監視して評価することが好ましい。これに代えて、音声制御の場合には、入力装置41をマイクロフォンとすることができる。しかしながら、所定の視線方向を制御するために、例えば足の動作等による別の手段も考えられる。
図5は、本発明の基礎となる、画像データを立体視表示するための方法100の概略図を示す。第1ステップ110ではまず、治療空間2aの表面が少なくとも部分的に三次元的に検出される。上述したように、治療空間2aの表面のこの三次元的な検出は、任意の適当なセンサ10によって実施することができる。次いでステップ120では、対象表面の三次元的な検出に基づいて、深度マップが作成される。作成されたこの深度マップは、検出された三次元の表面の空間点を含む。センサ装置10は限定的な視角しか有さず、さらに場合によっては、領域の一部が陰によって差し当たり検出できないことがあるので、このようにして作成された深度マップは、開始時には差し当たり不完全である可能性がある。治療空間2aの内部における内視鏡と、ひいてはセンサ装置10とを動かすことによって、表面のさらなる空間点を継続的に検出することができ、これらの情報を一緒に深度マップに統合することができる。同様にして、検出される表面が変化した場合には、深度マップ内の対応する情報を補正することができる。
少なくとも部分的に三次元的に検出された表面を備える深度マップが作成された後、ステップ130にて、深度マップ内に供給されている空間点によってテクスチャリングが実施される。このテクスチャリングには、場合によって供給されている、センサ装置10のカメラからのさらなる画像データ、及び/又は、コンピュータ断層撮影法、磁気共鳴画像法、超音波検査法、又はX線撮影法のような画像方法による診断画像情報からのさらなる画像データを、一緒に統合することができる。このようにしてまず、治療空間2aの表面の三次元のカラー画像又は白黒画像が作成される。次いでステップ140では、このようにしてテクスチャリングされた深度マップから立体視画像データが計算される。この立体視画像データは、所定の視線方向からの少なくとも2つの表示を含み、これらの表示は、観察者の両目間隔に応じて相異なっている。最後にステップ150において、予め計算された立体視画像データが、適当な表示装置上に可視化される。
ステップ140における立体視画像データの計算の基礎となる視線方向は、任意に適合させることができる。特に、立体視画像データを計算するための視線方向は、センサ装置10の視線方向とは異なっていてもよい。ステップ140における立体視画像データの計算の基礎となる視線方向を設定するために、本発明の方法はさらなるステップを含み、このさらなるステップでは、ユーザ入力が検出され、このユーザ入力に応じて、立体視画像データを計算するための視線方向が適合される。視線方向を適合させるためのユーザ入力は、非接触に実施することが好ましい。例えば所定のユーザジェスチャの評価によって、ユーザ入力を実施することができる。
要約すると、本発明は、画像データを立体視表示するための装置及び方法に関し、特に内視鏡を用いて実施される低侵襲手術において画像情報を三次元表示するための装置及び方法に関する。まず内視鏡の手術領域が、センサ装置によって三次元的に検出される。センサによって取得された3Dデータから立体視画像データが作成され、適当な表示装置上に可視化される。

Claims (15)

  1. 低侵襲手術において画像データを立体視表示するための方法(100)であって、
    表面を少なくとも部分的に三次元的に検出するステップ(110)と、
    少なくとも部分的に三次元的に検出された前記表面の深度マップを作成するステップ(120)と、
    作成された前記深度マップをテクスチャリングするステップ(130)と、
    テクスチャリングされた前記深度マップから立体視画像データを計算するステップ(140)と、
    計算された前記立体視画像データを可視化するステップ(150)と
    を有する、方法(100)。
  2. 計算された前記立体視画像データは、ユーザの両目の2つの視線方向に対応する
    請求項1記載の方法(100)。
  3. 前記深度マップは、少なくとも部分的に三次元的に検出された前記表面の空間点を含む
    請求項1又は2記載の方法(100)。
  4. 前記表面を三次元的に検出するステップ(110)を継続的に実施し、
    前記表面の継続的な三次元的な検出に基づいて、前記深度マップを適合する
    請求項1から3のいずれか一項記載の方法(100)。
  5. さらなる画像情報を供給するステップと、
    前記さらなる画像情報を、検出された三次元の前記表面と組み合わせるステップと
    をさらに含む
    請求項1から4のいずれか一項記載の方法(100)。
  6. 前記さらなる画像データは、診断画像データ、特にコンピュータ断層撮影法、磁気共鳴画像法、X線撮影法、超音波検査法からのデータを含む
    請求項5記載の方法(100)。
  7. 前記立体視画像データを計算するステップは、所定の視線方向に関する画像データを計算する
    請求項1から6のいずれか一項記載の方法(100)。
  8. ユーザ入力を検出するステップをさらに含み、
    検出された前記ユーザ入力に基づいて、前記所定の視線方向を適合する
    請求項7記載の方法(100)。
  9. 低侵襲手術において画像データを立体視表示するための装置(1)であって、
    表面を少なくとも部分的に三次元的に検出するように構成されたセンサ装置(10)と、
    少なくとも部分的に三次元的に検出された前記表面から深度マップを作成するように構成された深度マップ作成装置(20)と、
    作成された前記深度マップをテクスチャリングするように構成されたテクスチャリング装置(30)と、
    テクスチャリングされた前記深度マップから立体視画像データを計算するように構成された画像データ作成装置(40)と、
    計算された前記立体視画像データを可視化するように構成された可視化装置(50)と
    を備える、装置(1)。
  10. 前記センサ装置(10)は、内視鏡(12)内に配置されている
    請求項9記載の装置。
  11. 前記内視鏡(12)は、少なくとも1つの外科用器具(11)をさらに含む
    請求項10記載の装置。
  12. 前記センサ装置(10)は、TOFカメラ、及び/又は、三角測量のための装置、特に能動的な三角測量のための装置を含む
    請求項9から11のいずれか一項記載の装置。
  13. 前記画像データ作成装置(40)は、所定の視線方向に関する画像データを計算する
    請求項9から12のいずれか一項記載の装置。
  14. ユーザ入力を検出するように構成された入力装置(41)をさらに含み、
    前記画像データ作成装置(40)は、前記ユーザ入力に基づく視線方向に関する立体視画像データを計算する
    請求項13記載の装置。
  15. 前記入力装置(41)は、前記ユーザの動作、特にジェスチャを検出する
    請求項14記載の装置。
JP2016508096A 2013-04-17 2014-04-10 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法 Active JP6116754B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013206911.1 2013-04-17
DE102013206911.1A DE102013206911A1 (de) 2013-04-17 2013-04-17 Verfahren und Vorrichtung zur stereoskopischen Darstellung von Bilddaten
PCT/EP2014/057231 WO2014170194A1 (de) 2013-04-17 2014-04-10 Verfahren und vorrichtung zur stereoskopischen darstellung von bilddaten

Publications (2)

Publication Number Publication Date
JP2016524478A true JP2016524478A (ja) 2016-08-18
JP6116754B2 JP6116754B2 (ja) 2017-04-19

Family

ID=50513225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508096A Active JP6116754B2 (ja) 2013-04-17 2014-04-10 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法

Country Status (7)

Country Link
US (1) US20160081759A1 (ja)
EP (1) EP2967278A1 (ja)
JP (1) JP6116754B2 (ja)
KR (1) KR101772187B1 (ja)
CN (1) CN105208909B (ja)
DE (1) DE102013206911A1 (ja)
WO (1) WO2014170194A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6168878B2 (ja) * 2013-06-27 2017-07-26 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理方法
US20150215530A1 (en) * 2014-01-27 2015-07-30 Microsoft Corporation Universal capture
KR102188334B1 (ko) * 2015-12-23 2020-12-09 한국전자기술연구원 깊이 측정 센서를 이용한 수술 동작 분석 장치 및 방법
CA2958766C (en) 2016-02-25 2018-01-02 Synaptive Medical (Barbados) Inc. System and method for scope based depth map acquisition
CN106308730B (zh) * 2016-11-14 2018-05-29 中国科学院深圳先进技术研究院 一种腹腔镜系统
DE102019100820A1 (de) * 2019-01-14 2020-07-16 Lufthansa Technik Aktiengesellschaft Verfahren und Vorrichtung zur Inspektion schwer erreichbarer Komponenten
CN109840943B (zh) * 2019-01-25 2021-06-22 天津大学 三维可视化分析方法及系统
KR102253768B1 (ko) * 2019-04-03 2021-05-24 장호열 의료영상 리코딩 시스템 및 리코딩 로봇의 제어 방법
CN112741689B (zh) * 2020-12-18 2022-03-18 上海卓昕医疗科技有限公司 应用光扫描部件来实现导航的方法及系统
CN114332033A (zh) * 2021-12-30 2022-04-12 小荷医疗器械(海南)有限公司 基于人工智能的内窥镜图像处理方法、装置、介质及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006280921A (ja) * 2005-03-07 2006-10-19 Hitachi Medical Corp 磁気共鳴イメージング装置
US20130038689A1 (en) * 2011-08-12 2013-02-14 Ian McDowall Image capture unit and method with an extended depth of field
JP2014524290A (ja) * 2011-08-12 2014-09-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 外科手術器具の画像取込み装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19638758A1 (de) * 1996-09-13 1998-03-19 Rubbert Ruedger Verfahren und Vorrichtung zur dreidimensionalen Vermessung von Objekten
US6379302B1 (en) * 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
JP2005511234A (ja) * 2001-12-14 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 容積走査に基づいた対象の内臓管腔臓器壁の表面組織の視覚化に関する方法、システム及びコンピュータープログラム
DE10315242B4 (de) * 2003-04-03 2006-02-23 Siemens Ag Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung
DE10357184A1 (de) * 2003-12-08 2005-07-07 Siemens Ag Verfahren zur fusionierten Bilddarstellung
DE10359925A1 (de) * 2003-12-19 2005-07-14 Siemens Ag Verfahren zur Bestimmung der Entfernung von Objekten in der Umgebung und Computerprogrammprodukt
FR2872522B1 (fr) * 2004-07-02 2006-09-15 Lee Sara Corp Procede de tricotage en dejauge et article ainsi obtenu
US7501995B2 (en) * 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
DE102005023195A1 (de) * 2005-05-19 2006-11-23 Siemens Ag Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches
DE102006017003A1 (de) 2006-04-11 2007-10-18 Friedrich-Alexander-Universität Erlangen-Nürnberg Endoskop zur Tiefendatenakquisition
US8620473B2 (en) * 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
CN102172330B (zh) * 2007-07-10 2013-03-27 株式会社东芝 X射线摄影装置以及图像处理显示装置
DE102008062995A1 (de) * 2008-12-23 2010-06-24 Sick Ag 3D-Kamera zur Raumüberwachung
CN101849813A (zh) * 2009-03-31 2010-10-06 上海交通大学医学院附属新华医院 三维心脏超声虚拟内窥镜系统
DE102009031732B3 (de) * 2009-07-04 2010-11-25 Sick Ag Entfernungsmessender optoelektronischer Sensor
DE102009043523A1 (de) * 2009-09-30 2011-04-07 Siemens Aktiengesellschaft Endoskop
US8672838B2 (en) * 2011-08-12 2014-03-18 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
DE102011119608B4 (de) * 2011-11-29 2021-07-29 Karl Storz Se & Co. Kg Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
DE102012220116A1 (de) * 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
WO2015009980A1 (en) * 2013-07-18 2015-01-22 Tesseract Sensors, LLC Medical data acquisition systems and methods for monitoring and diagnosis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006280921A (ja) * 2005-03-07 2006-10-19 Hitachi Medical Corp 磁気共鳴イメージング装置
US20130038689A1 (en) * 2011-08-12 2013-02-14 Ian McDowall Image capture unit and method with an extended depth of field
JP2014524290A (ja) * 2011-08-12 2014-09-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 外科手術器具の画像取込み装置

Also Published As

Publication number Publication date
KR20150143703A (ko) 2015-12-23
CN105208909B (zh) 2018-03-23
JP6116754B2 (ja) 2017-04-19
US20160081759A1 (en) 2016-03-24
DE102013206911A1 (de) 2014-10-23
KR101772187B1 (ko) 2017-08-25
EP2967278A1 (de) 2016-01-20
CN105208909A (zh) 2015-12-30
WO2014170194A1 (de) 2014-10-23

Similar Documents

Publication Publication Date Title
JP6116754B2 (ja) 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法
US20220192611A1 (en) Medical device approaches
JP6242569B2 (ja) 医用画像表示装置及びx線診断装置
CN110709894B (zh) 用于增强深度感知的虚拟阴影
JP5421828B2 (ja) 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
US9220399B2 (en) Imaging system for three-dimensional observation of an operative site
US20110105895A1 (en) Guided surgery
JP2015531271A (ja) 外科用画像処理システム、外科用画像処理方法、プログラム、コンピュータ可読記録媒体、医用画像処理装置、および画像処理検査装置
ITUB20155830A1 (it) "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
JP2012235983A (ja) 医療用画像表示システム
JP6932135B2 (ja) 腹腔鏡画像及び超音波画像を重畳するための計算装置
JP3707830B2 (ja) 術式支援用画像表示装置
WO2013012042A1 (ja) 画像処理システム、装置、方法及び医用画像診断装置
US20140139518A1 (en) Method and apparatus for displaying medical image
JP2016158911A5 (ja)
Reiter et al. Surgical structured light for 3D minimally invasive surgical imaging
US20220215539A1 (en) Composite medical imaging systems and methods
EP3984016A1 (en) Systems and methods for superimposing virtual image on real-time image
US12016719B2 (en) Patient viewing system
US10951837B2 (en) Generating a stereoscopic representation
WO2016194446A1 (ja) 情報処理装置、情報処理方法、及び生体内撮像システム
US20140139646A1 (en) Method and apparatus for outputting image, method and system for providing image using the same, and recording medium
US11941765B2 (en) Representation apparatus for displaying a graphical representation of an augmented reality
US20220409283A1 (en) Presentation device for displaying a graphical presentation of an augmented reality
JP6687877B2 (ja) 撮像装置及びそれを用いた内視鏡装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170321

R150 Certificate of patent or registration of utility model

Ref document number: 6116754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150