JP6972163B2 - 奥行き知覚を高める仮想陰影 - Google Patents

奥行き知覚を高める仮想陰影 Download PDF

Info

Publication number
JP6972163B2
JP6972163B2 JP2019552063A JP2019552063A JP6972163B2 JP 6972163 B2 JP6972163 B2 JP 6972163B2 JP 2019552063 A JP2019552063 A JP 2019552063A JP 2019552063 A JP2019552063 A JP 2019552063A JP 6972163 B2 JP6972163 B2 JP 6972163B2
Authority
JP
Japan
Prior art keywords
tool
model
processor
image
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019552063A
Other languages
English (en)
Other versions
JP2020512089A (ja
Inventor
エンゲル,トーマス
メーヴェス,フィリップ
マウントニー,ピーター
ファイファー,トーマス
Original Assignee
シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング filed Critical シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
Publication of JP2020512089A publication Critical patent/JP2020512089A/ja
Application granted granted Critical
Publication of JP6972163B2 publication Critical patent/JP6972163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、画像に仮想陰影を生成する方法に関する。
腹腔鏡カメラ及び内視鏡カメラは、手術及び診断のために患者の体内を見るべく使用される。腹腔鏡カメラ及び内視鏡カメラは、三次元(3D)組織の二次元(2D)画像を基本的に生成する。手術の間、施術者(例えば外科医)は、ツールを患者体内の目標領域に誘導して、腹腔鏡カメラと内視鏡カメラのどちらか又は両方を用いて生成された2D画像ストリームに基づいて、例えば、組織を切断し、解剖(切開)し、生検採取する。2D画像ストリームでは奥行きと3Dの感覚が失われる。このことが、施術者にとってツールのナビゲーション及び制御を難しくする要因になっている。
奥行き知覚を改善するための現在のアプローチには、3D視覚化像を作成することと、運動視差又は影などの欠落した奥行き手掛かりを導入することが含まれる。3D視覚化像はステレオ腹腔鏡カメラで作成され、3Dディスプレイが用いられる。3Dディスプレイが施術者に吐き気を催させ、作業できるボリュームを制限することから、3Dディスプレイを手術室に統合したり、複数のチームメンバーで作業することは困難である。また、3Dディスプレイによっては、施術者が眼鏡を着用する必要があり、長い手術中に不快感を引き起こすことがある。
運動視差及び運動遠近は、仮想ミラーを用いて再導入することができる。しかしながら、仮想ミラーの使用は、患者に対する術前モデルの登録を必要とし、仮想ミラーは、拡張現実と共に使用されるように構成される。陰影は腹腔鏡カメラに照明を追加することで再現することがある。この追加照明は腹腔鏡カメラと相互に並んでいるため、投影される陰影の強度が制限され、陰影の方向が最適ではないことがある。
腹腔鏡下手術中に表示される画像の奥行き知覚を改善するために、腹腔鏡下手術で使用されていて画像に含まれるツールの陰影の表現を人工的に生成し、画像に導入する。プロセッサが、構造化光内視鏡を用いて、画像内に含まれる物体の表面の3D表現を含む三次元(3D)モデルを生成する。プロセッサは、ツールの位置を測定し、測定したその位置に基づいてツールの表現を3Dモデルに導入する。プロセッサは、仮想光源を3D環境に導入して3Dモデルを拡張(データ拡張)し、3Dモデルに投影された陰影を生成する。プロセッサは、拡張した3Dモデルから陰影の表現を識別し、腹腔鏡下手術中に表示される画像に陰影の表現を追加する。
第1の態様において、物体表面の画像を拡張(データ拡張)する方法が提供される。この方法は、プロセッサによって、物体表面の画像を同定することを含む。物体表面の画像は、物体表面とツールの少なくとも一部との画像(すなわち処理対象画像)である。プロセッサは、物体表面の三次元(3D)モデルを同定する。プロセッサは、第1の拡張3Dモデルを生成する。第1の拡張3Dモデルの生成は、同定した物体表面の3Dモデルにツールの表現を重ね合わせることを含む。プロセッサは、生成した第1の拡張3Dモデルに仮想光源を導入する。プロセッサは、第2の拡張3Dモデルを生成する。第2の拡張3Dモデルの生成は、生成した第1の拡張3Dモデルに導入した仮想光源に基づいて、この生成した第1の拡張3Dモデル内の物体表面に陰影の表現を生成することを含む。プロセッサは、同定した物体表面の画像を拡張する。同定した物体表面の画像の拡張は、同定した物体表面及びツールの画像に、生成した陰影の表現を重ね合わせることを含む。
第2の態様に係る非一時的コンピュータ可読記憶媒体は、物体表面の画像を拡張するために1つ以上のプロセッサによって実行可能な命令を記憶する。その命令は、プロセッサに、物体表面の画像を同定すること実行させる命令を含む。物体表面の画像は、物体表面とツールの少なくとも一部との画像である。ツールは物体の表面に近接している。命令はさらに、プロセッサに、物体表面の3Dモデルを同定することを実行させ、プロセッサに、同定した物体表面の3Dモデルにツールの表現を重ね合わせることを実行させる命令を含む。命令は、プロセッサに、ツール及び同定した物体表面の3Dモデルの重ね合わせた表現に仮想光源を導入することを実行させる命令を含む。命令はさらに、プロセッサに、導入した仮想光源に基づいて、ツール及び同定した物体表面の3Dモデルの重ね合わせた表現内の物体表面に陰影の表現を生成することを実行させる命令を含む。命令は、プロセッサに、同定した物体表面及びツールの画像に、生成した陰影の表現を重ね合わせることを実行させる命令を含む。
第3の態様において、物体表面及びツールの少なくとも一部の拡張画像を生成するシステムが提供される。このシステムは、物体表面及びツールの少なくとも一部の画像を保存するように構成されたメモリと、物体表面の3Dモデルとを含む。システムは、メモリと通信するプロセッサも含む。プロセッサは、同定した物体表面の3Dモデルにツールの表現を重ね合わせるように構成される。プロセッサはさらに、ツール及び同定した物体表面の3Dモデルの重ね合わせた表現に仮想光源を導入するように構成される。プロセッサは、導入した仮想光源に基づいて、ツール及び同定した物体表面の3Dモデルの重ね合わせた表現内の物体表面に陰影の表現を生成するように構成され、生成した陰影の表現を、保存してある物体表面及びツールの少なくとも一部の画像に重ね合せるように構成される。
仮想画像を用いて物体表面の画像を拡張する方法の一実施形態のフローチャート。 物体の表面及び医療処置で使用中のツールの画像の一例。 第1の拡張三次元(3D)モデルの例。 第1の拡張3Dモデルの別の例。 図4に示す第1の拡張3Dモデルの例に導入された仮想光源の例。 第1の拡張3Dモデルを第2の拡張3Dモデルから減算した後の仮想陰影の表示の例。 生成した仮想陰影の表現を物体表面及びツールの画像に融合した例を示す。 画像誘導システムの一実施形態を示す。 撮像システムの一実施形態を示す。
本実施形態は、腹腔鏡映像に奥行き手掛かりを導入し、それによって、例えば腹腔鏡下手術中に、より強化した視覚化像を作り出すために使用可能である。奥行き手掛かりは、一例として仮想陰影である。仮想陰影を生成するために、プロセッサが、撮像される身体内の組織表面の三次元(3D)モデルと、同じ座標系における腹腔鏡下手術中に使用されているツールの位置とを同定する。
組織表面の3Dモデルは、例えば、構造化光内視鏡を用いて生成される。構造化光内視鏡は、構造化光内視鏡が観察している組織表面の点群(ポイントクラウド)を生成する。プロセッサは、組織表面の3Dモデルに関するメッシュを生成する。あるいは、時間情報を用いるステレオ内視鏡や単眼鏡により、組織表面の3Dモデルを生成することもできる。
ツールの位置は、追跡システムを使用して推定することができる。追跡システムは、例えば、ツールの近位端に配置した1つ以上のカメラ及びトラッカーマーカーを含む光学トラッカーを含み得る。マーカーの位置とツールの3Dモデルから、3D空間におけるツールの位置を推定することができる。較正プロセスを通して、3D空間におけるツール先端の位置が推定される。仮想陰影を生成するために、組織表面の3Dモデルに対するツールの位置は知っておく必要がある。したがって、構造化光内視鏡は、1つ以上の追跡マーカも含み得る。
各種ツールのモデルを多数、オフラインで作成し、メモリに保存することができる。プロセッサは、保存されたモデルから、使用中のツールに対応するものを同定することができる。あるいは、プロセッサは、腹腔鏡(例えば、構造化光内視鏡)によって生成される1つ以上の画像に基づいてツールの形状及びサイズを測定することができ、プロセッサは、例えば腹腔鏡下手術中にツールのモデルを生成することができる。
ツールのモデルは、3D空間におけるツールの測定された位置に基づいて、組織表面の3Dモデルに導入される。組織表面の3Dモデルに仮想光源を導入する。仮想光源は、組織表面の3Dモデル内のあらゆる位置に、例えば、対応する腹腔鏡カメラ画像からのアップベクトル内に、又は、光学トラッカーによって画定される重力の上方の位置に、位置決めし得る。
仮想光源からの光は、組織表面の3Dモデル内の組織の表現に、仮想陰影の投射を引き起こす。組織表面の3Dモデルは、腹腔鏡下手術中に使用される腹腔鏡(例えば、構造化光腹腔鏡)の視点から描写される。組織表面の3Dモデルは陰影有りと無しでレンダリングされ、陰影無しの3Dモデルが陰影有りの3Dモデルから差し引かれる。このモデルの減算によって仮想陰影が生成される。そして仮想陰影が、例えば、構造化光腹腔鏡を用いて生成された画像と合成又は融合されて、仮想陰影拡張画像を生成する。
腹腔鏡によって生成された画像への仮想陰影の導入は、腹腔鏡の画像や映像(ビデオ)を見るときの奥行き知覚を改善するための従来技術と比較して、誤差が少なく、より迅速且つ効率的に外科的処置を実行できる効果をもたらす。また、仮想陰影の導入により、腹腔鏡下手術の技術と技能の習得も容易になる。
図1は、仮想画像を用いて物体表面の画像を拡張する方法100の一実施形態のフローチャートを示す。方法100は、図8及び図9に示した撮像システムか、他の撮像システムを使用して実施される。この方法100は、図示の順序で実施されるが、他の順序を使用することも可能である。追加の過程又は異なる過程の提供、又は過程を減らすことも可能である。類似の方法も、仮想陰影で画像を拡張するために使用され得る。
過程102において、プロセッサは、物体表面と、医療処置中に使用されているツールとの画像を同定する。この画像内でツールは、物体表面に近接している。一例として医療処置は腹腔鏡下手術である。腹腔鏡下手術は、腹腔内や骨盤腔内の手術を含む低侵襲手術である。腹腔鏡下手術の間に、腹腔鏡とツールのいずれか又は両方が物体(例えば、患者の身体)に挿入される。ツールは、例えば、トロカール、鉗子、はさみ、プローブ、解剖器、フック、開創器、又は他の医療器具を含む、あらゆる医療器具であり得る。
一実施形態において、物体表面の画像を同定する過程は、物体表面を表す2D撮像データを第1の内視鏡で生成することを含む。第1の内視鏡は、例えば、構造化光内視鏡、単眼腹腔鏡、ステレオスコープ、又は他の撮像装置を含む、各種の内視鏡である。第1の内視鏡は、例えば、小さな切開部とこの切開部に設置したポートを介して患者に挿入される。第1の内視鏡の一部である光源又は別個の光源を患者に導入して、撮像対象の組織を照らす。一実施形態では、物体表面の複数の画像を、プロセッサと通信するメモリに保存し、プロセッサが、メモリに保存した複数の表面画像の中から物体表面の画像を同定する。
図2は、物体200の表面及び医療処置で使用中のツール202の画像の一例である。物体200は、例えば、人体内のあらゆる器官である。具体的にあげれば、物体200は、子宮、脾臓、胆嚢、又は患者腹部内の他の器官である。図2に例示するように、第1の内視鏡によって生成される画像は、基本的に3D組織の2D画像である。2D画像では、奥行きと3Dの感覚が失われ、ユーザ(例えば、外科医)にとってナビゲーションが難しい。図2に示すとおり、第1の内視鏡によって生成される画像は、陰影がかすかであるか、陰影をまったく含まない。
過程104において、プロセッサは、物体表面の3Dモデルを同定する。一実施形態において、物体表面の3Dモデルを同定する過程は、物体表面を表すデータを第2の内視鏡で生成することを含む。第2の内視鏡は、例えば、構造化光腹腔鏡を含む、各種の内視鏡である。物体表面を表すデータを生成するために、例えばステレオスコープや単眼腹腔鏡などの、他の種類の内視鏡を使用することもできる。一実施形態において、第2の内視鏡及び第1の内視鏡は同じ内視鏡である。一例として構造化光内視鏡は、60フレーム/秒で作動するカメラを含む。過程102の画像は1フレームおきに生成され、過程104の3Dモデルのデータはそのフレームに生成される。
一実施形態において、構造化光腹腔鏡は、例えば、物体表面の点群を生成する。点群は、物体の外表面のポイントの3D座標を表す。構造化光腹腔鏡は、物体の外表面の多数の点を測定し、点群をデータファイルとして出力する。
プロセッサは、構造化光腹腔鏡によって生成された点群に基づいて、物体表面のメッシュを生成する。プロセッサは、生成したメッシュに基づいて、物体表面の3Dモデルを生成する。一実施形態において、プロセッサは、過程102で同定した物体表面及びツールの画像が撮像された視点から、物体表面の3Dモデルを生成する。言い換えると、物体表面の3Dモデルは、物体表面の3Dモデルと過程102で同定した画像とが同じ視点からのものであるように生成される。
過程106において、プロセッサは、第1の拡張3Dモデルを生成する。第1の拡張3Dモデルを生成する過程は、同定した物体表面の3Dモデルにツールの表現を重ね合わせることを含む。プロセッサは、ツールの位置及びツールの表現を同定する。
一実施形態において、光学追跡システムが、物体表面の3Dモデルに対するツールの3D位置を同定する。光学追跡システムは、撮像対象の物体から離して配置される1つ以上のカメラを含む。一実施形態において、光学追跡システムは、重複投影を提供する2つ以上のカメラを含む。プロセッサは、例えば、物体表面の3Dモデルに対するツールの3D位置を三角測量するために、2つのカメラによって生成された画像データを使用する。
光学追跡システムは、ツール上に位置決めされた1つ以上(例えば、4つ)のマーカーを含む。一実施形態において、光学追跡システムは、例えば、構造化光内視鏡上に位置決めされた1つ以上(例えば、4つ)のマーカも含む。例えば、4つのマーカーは、カメラによって生成される画像内で可視である光学マーカーである。ツール上に位置決めされる1つ以上マーカーと構造化光内視鏡上に位置決めされる1つ以上のマーカーのいずれか又は両者は、あらゆるサイズ及び形状とできる。例えば、ツール上に位置決めされた1以上のマーカー及び構造化光内視鏡上に位置決めされた1以上のマーカーは、球形であり、2以上のカメラによって生成される画像内で可視であるように十分に大きい。他の実施形態において、ツールの3D位置は、他の方法で同定される。例えば、追跡システムは、光学追跡システムの代わりに、又は光学追跡システムに加えて、電磁(EM)トラッカ、機械式トラッカ、形状センサ、又は他の種類のトラッカを用いて、物体表面の3Dモデルに対するツールの3D位置を同定する。
プロセッサは、2つのカメラによって生成され、ツール上のマーカーの表現、構造化光内視鏡上のマーカーの表現、又はカメラの視野内の既知の位置をもつマーカーの表現のいずれか1つ以上を含む画像データに基づいて、ツールの3D位置(例えば、3D空間内の3D座標)と構造化光内視鏡の3D位置(例えば、3D空間内の3D座標)のどちらか又は両方を三角測量する。例えば、ツールの3D位置及び構造化光内視鏡の3D位置は、それぞれツール上のマーカーの3D位置及び構造化光内視鏡上のマーカーの3D位置とすることができる。プロセッサはまた、ツールのマーカーと構造化光内視鏡のマーカーの相対的な向きに基づいて、ツールの向きと構造化光内視鏡の向きのいずれか又は両方を決定することもできる。一実施形態において、ツールと構造化光内視鏡のいずれか又は両方がマーカーを含まず、プロセッサが、ツールと構造化光内視鏡のどちらか又は両方の表面特徴に基づいて、ツールの3D位置と構造化光内視鏡の3D位置のいずれか又は両方を決定する。他の実施形態では、ツールの3D位置と構造化光内視鏡の3D位置のいずれか又は両方を決定するために、他の方法及びシステムを使用することができる。例えば、ツールの3D位置及び構造化光内視鏡の3D位置は、ツール検出を使用して、画像又は構造化光画像から直接推定することもできる。
プロセッサは、例えば、腹腔鏡下手術で使用中のツールと構造化光内視鏡のいずれか又は両方を同定する。一実施形態において、使用者が、例えば、1つ以上の入力機器(例えば、キーボード及びマウス)を使用して、ツールのタイプと構造化光内視鏡のタイプのどちらか又は両方を同定する。別の実施形態において、プロセッサは、例えば、ツールから受信したデータ(例えば、識別データ)と構造化光内視鏡から受信したデータ(例えば、識別データ)のいずれか又は両方、又はカメラによって生成された画像データに基づいて、腹腔鏡下手術で使用中のツールと構造化光内視鏡のいずれか又は両方を自動的に同定する。
例えば、プロセッサは、カメラによって生成された、ツールの表現と構造光内視鏡の表現のいずれか又は両方を含む画像データを、各種のツール、内視鏡に対応する保存データと照合する。プロセッサは、使用中のツールのタイプと内視鏡のタイプのどちらか又は両方を同定するために、生成された画像データ内のツールの特徴と構造化光内視鏡のいずれか又は両方の特徴を、保存データ内のツールの特徴と内視鏡の特徴のいずれか又は両方と照合する。例えば、特定の内視鏡(例えば、構造化光内視鏡)が、マーカーの数とマーカーのサイズの特有の組み合わせを含む。プロセッサは、カメラによって生成された画像データ内で、内視鏡上のマーカーの数及びマーカーのサイズ(特徴)を同定し、この同定した特徴を、多種の内視鏡(例えば、異なる製造業者、異なるモデル)の記述と比較することにより、特定の構造化光内視鏡が使用されていることを同定することができる。例えば、メモリが、多種類の内視鏡を記述するデータを保存していて、特定の構造化光内視鏡を記述する保存データは、特定の構造化光内視鏡が特定のサイズの4つのマーカを含むことを指定する。
同定したツールのタイプと同定したツールの位置及び向きとに基づいて、プロセッサは、3D空間におけるツールの近位端の3D位置を測定する。例えば、既知のタイプのツールであれば、ツールの長さを(例えば、各種ツールに対応する保存データから)同定することができ、プロセッサは、同定したツールの長さと同定したツール上のマーカーの3D位置とに基づいて、3D空間内のツールの近位端の3D位置を決定できる。さらに、同定した内視鏡のタイプと同定した内視鏡の位置及び向きとに基づいて、プロセッサは、3D空間内の内視鏡(例えば、構造化光内視鏡)の近位端の3D位置を決定できる。
プロセッサは、同定したツールのタイプに基づいて、ツールの表現(例えば、3Dモデル)を同定する。一実施形態において、メモリが各ツールに対する複数の3Dモデルを保存しており、プロセッサは、同定したツールのタイプに基づいて、保存してある複数の3Dモデルからツールの3Dモデルを同定する。例えば、プロセッサは、カメラによって生成された画像データ内で同定した特徴に基づいて、腹腔鏡下手術で使用中のツールが特定のトロカールであることを同定する。プロセッサは、ツールの同定に基づいて、各ツールに対する複数の保存3Dモデルから、特定のトロカールに対する3Dモデルを選択する。一実施形態において、プロセッサは、測定したツールの3D位置、測定したツールの向き、同定したツールのタイプ、同定したツールに関係する保存データ(例えば、ツールのサイズ及び形状などのツールの特徴)、同定したツールに関係する他の情報、又はそれらの組み合わせに基づいて、リアルタイムでツールの3Dモデルを生成する。
別の実施形態では、プロセッサは、カメラ、内視鏡、又は他の撮像装置によって生成された画像データ(例えば、過程102から)に基づいて、ツールの形状及びサイズを測定する。プロセッサは、測定したツールの形状及びサイズに基づいて、ツールの3Dモデルを生成する。
プロセッサは、内視鏡(例えば、構造化光内視鏡)に対するツールの位置を測定することもできる。プロセッサは、ツールの3D位置と、同じ3D空間内で測定した構造化光内視鏡の3D位置とに基づいて、構造化光内視鏡に対するツールの位置を測定することができる。例えば、構造化光内視鏡の3D位置は、ツールの3D位置から差し引くことができる。構造化光内視鏡に対するツールの測定位置と、過程104において3Dモデルを生成する視点とに基づいて、プロセッサは、物体表面の3Dモデルに対するツールの3D位置を測定することもできる。
プロセッサは、物体表面の3Dモデルに対するツールの測定した3D位置に基づいて、ツールの3Dモデルを物体表面の3Dモデルと融合することによって、第1の拡張3Dモデルを生成する。一実施形態において、ツールの3Dモデル及び物体表面の3Dモデルは、レジストレーション済みである。別の実施形態では、ツールの3Dモデル及び物体表面の3Dモデルは、例えば、3D/3Dレジストレーションを含むあらゆる方法でレジストレーションされる。
図3は、第1の拡張3Dモデル300の例を示す。第1の拡張3Dモデル300は、過程104で同定した物体表面の3Dモデル302と、過程106で生成したツールの3Dモデル304とを含む。図3に示す物体表面の3Dモデル302は、物体表面のテクスチャ表現を含む。図4に、第1の拡張3Dモデル400の別の例を示す。第1の拡張3Dモデル400は、過程104で同定した物体表面の3Dモデル402と、過程106で生成したツールの3Dモデル404とを含む。図4に示す物体表面の3Dモデル402は、物体表面の非テクスチャ表現を含む。
過程108において、プロセッサは、過程106において生成した第1の拡張3Dモデルに仮想光源を導入する。仮想光源は、過程102で同定した画像からのアップベクトル内で第1の拡張3Dモデルに導入され得る。一実施形態において、仮想光源は、光学追跡システムによって定義される重力の上方の位置で、第1の拡張3Dモデルに導入される。別の実施形態では、仮想光源は、仮想光源が実際の光源と同一位置に位置するように、第1の拡張3Dモデルに導入される。このようにして仮想光源は、例えば、過程102で同定した画像においてかすかな又は見えない実際の陰影と同様の構成の陰影を生成する。これより、既存のかすかな陰影を強調できる効果がある。
過程110において、プロセッサは、第2の拡張3Dモデルを生成する。プロセッサは、生成した第1の拡張3Dモデルに導入した仮想光源に基づいて、生成した第1の拡張3Dモデルの物体表面に陰影の表現を生成する。第2の拡張3Dモデルは、ツールの融合3Dモデルと、物体表面の3Dモデルと、生成した陰影の表現とを含む。
図5は、図4に示す第1の拡張3Dモデル400の例に導入した仮想光源500の例を示し、プロセッサは、過程108において、第1の拡張3Dモデルに導入した仮想光源500に基づいて、陰影502の表現を生成する。プロセッサは、第1の拡張3Dモデル400の物体表面にツールの3Dモデル404によって投影される陰影502を推定する。
過程112において、プロセッサは、同定した物体表面の画像を拡張する。プロセッサは、過程106で生成した第1の拡張3Dモデルを、過程110で生成した第2の拡張3Dモデルから差し引く。減算後、仮想陰影の表現が残る。図6は、第1の拡張3Dモデルを第2の拡張3Dモデルから差し引いた後の仮想陰影600の表現の例を示す。
一実施形態において、仮想陰影600の表現の暗さ及び透明度は、ツールの作業領域を同定するために、ユーザインタフェース(例えば、GUI)を介して制御可能である。ツールが物体の表面に近づくにつれて、ツールによって形成される陰影は暗くなる。陰影が濃くなると、物体表面の情報が遮られることがある。したがって、プロセッサは、陰影の表現を明るくすることもでき、又は、陰影の表現を陰影の境界で視覚化してもよい。
同定した物体表面の画像の拡張は、過程102で同定した物体表面及びツールの画像に、生成した陰影の表現を重ね合わせる過程を含む。例えば、生成した陰影の表現を、過程102で同定した画像と融合させる。一実施形態において、仮想陰影の表現は、別個にレンダリングされ、合成される。
一実施形態において、過程104で同定した物体表面の3Dモデル及び過程102で同定した画像が同じ視点からのものなので、過程102で同定した物体表面及びツールの画像と仮想陰影の表現とは、すでにレジストレーションされている。別の実施形態では、過程102で同定した物体表面及びツールの画像と仮想陰影の表現とは、例えば、2D/2Dレジストレーションを含むあらゆる方法でレジストレーションされる。
図7は、物体表面及びツールの画像702(例えば、過程102で同定した画像)と融合した、生成した仮想陰影700の表現の一例を示している。物体表面及びツールの画像702における仮想陰影700の導入が拡張現実を提供する。例えば、構造化光腹腔鏡の使用により、物体表面の3Dモデルとその陰影の表現は、リアルタイムで生成される。リアルタイムで腹腔鏡の画像と映像のどちらか又は両方に陰影の表現を導入することにより、少ない誤差で迅速且つ効率的に外科処置を実施することが可能になる。また、陰影の表現を導入することにより、腹腔鏡下手術の技術及び技巧の習得が容易になる。
図8は、画像誘導システム800の一実施形態を示す。画像誘導システム800は、上述の方法及び後述のシステムにおいて使用することができる。画像誘導システム800は、1つ以上の撮像デバイス802(例えば、1つの内視鏡システム)、1つ以上の画像処理システム804(例えば、1つの画像処理システム)、及び1つ以上のツール806(例えば、1つのツール)を含む。二次元(2D)又は三次元(3D)領域(例えば、ボリューム)を表すデータセットは、撮像デバイス802及び画像処理システム804(例えば、撮像システム)を使用して取得される。2Dデータセット又は3Dデータセットは、医療処置のパンニングと実行のどちらか又は両方と同時に、又はより早期に得ることができる。追加の又は異なる構成要素が提供されてもよいし、構成要素がより少なくてもよい。
一実施形態において、撮像システム802,804は、例えば内視鏡である。撮像システム802,804は、医療処置中(例えば、腹腔鏡下手術中)に使用される患者モデルを生成するために使用される。例えば、画像処理システム804は、患者腹部の腹腔鏡下手術のためのワークステーションである。他の実施形態では、撮像システム802,804は、例えば、医療ワークステーション、磁気共鳴撮像(MRI)システム、コンピュータ断層撮影(CT)システム、超音波システム、陽電子放出断層撮影(PET)システム、血管造影システム、蛍光透視法、X線システム、現在知られている又は今後開発される他のあらゆる撮像システム、又はそれらの組み合わせを含む。ワークステーション804は、撮像デバイス802によって生成される(例えば、患者腹部の少なくとも一部を含む)患者を表すデータ又は患者の画像を受信する。
ツール806は、撮像システム802,804によって画像誘導される。ツール806は、例えば、トロカール、鉗子、はさみ、プローブ、解剖器、フック、開創器、又は他の医療器具を含む、あらゆるツールであり得る。ツール806は、例えば、画像化、創傷の閉鎖、生検の採取、切断、流体の排出、又は組織の把持に使用することができる。ツール806は、診断又は治療を容易にするために画像誘導される。ツール806の位置と、移動又は他の操作は、画像処理システム804又は他のコントローラによって制御される。画像誘導システム800は、より多くの構成要素を含むか、構成要素がより少なくてもよい。
図9は、撮像システム900の一実施形態を示す。撮像システム900は、内視鏡システム802及び画像処理システム804を含む。内視鏡システム802は、1つ以上のポート902(例えば、2つのポート)、内視鏡904、光学追跡システム906、及び患者ベッド908を含む。画像処理システム804は、受信器910、プロセッサ912、メモリ914、及びディスプレイ916を含む。追加の又は異なる構成要素が提供されるか、構成要素がより少なくてもよい。例えば、撮像のために追加の内視鏡が含まれ得る。さらに、ユーザ制御のためにユーザ入力機器918(例えば、キーボードやマウス)が含まれていてもよい。
一実施形態において、プロセッサ912及びメモリ914は、内視鏡システム802の一部である。代替として、プロセッサ912及びメモリ914は、医療記録データベースワークステーション又はサーバに付属するような、アーカイブ・画像処理システムの一部である。別の実施形態では、プロセッサ912及びメモリ914は、デスクトップ又はラップトップなどのパーソナルコンピュータ、ワークステーション、サーバ、ネットワーク、又はそれらの組み合わせである。プロセッサ912及びメモリ914は、本方法を実施するために他の構成要素なしで提供することができる。
患者ベッド908(例えば、患者ガントリ又はテーブル)は、例えば患者である検査対象920を支持する。患者を診察したり手術するために、内視鏡904がポート902の1つに挿入され、この内視鏡904が、視野内の患者の部位について画像データを生成する。内視鏡904は、例えば、チューブ(例えば、剛性又は可撓性のチューブ)、患者の部位を照らすための光分配システム、レンズシステム、接眼レンズ、カメラ、又はそれらの組み合わせを含む、あらゆる部品を含む。一実施形態において、内視鏡904は、光ファイバーを通して患者の部位を照らし、カメラを用いて画像データを生成する構造化光内視鏡である。内視鏡904は、画像データを生成して受信器910に送る。
ツール806は、ポート902の別の1つに挿入される。一実施形態において、中空カニューレ922がこのポート902に挿入され、ツール806がその中空カニューレ922に挿入される。ツール806は、内視鏡904又は別の内視鏡によって生成される画像に基づいて、患者内で誘導される。
内視鏡904は、受信器910と接続される。この接続は、有線(例えば、同軸ケーブルを使用)又は無線である。この接続は、内視鏡904から画像データを受信器910に送信して受信器910で受信するためのものである。受信器910は、内視鏡904によって生成される画像データに基づいて画像を生成するプロセッサ912又は別のプロセッサ(例えば、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ、又は逆フーリエ変換を適用するための特定用途回路)を含む。受信器910は、ハードウェア又はソフトウェアによって構成される。
プロセッサ912は、汎用プロセッサ、中央処理装置、制御プロセッサ、グラフィックスプロセッサ、デジタル信号プロセッサ、三次元レンダリングプロセッサ、画像プロセッサ、特定用途集積回路、フィールドプログラマブルゲートアレイ、デジタル回路、アナログ回路、これらの組み合わせ、又は画像処理のための他の現在知られているもしくは今後開発されるデバイスである。プロセッサ912は、単一のデバイスか、シリアル、パラレル、又は別々に動作する複数のデバイスである。プロセッサ912は、ラップトップコンピュータ又はデスクトップコンピュータなどのコンピュータのメインプロセッサであってもよく、又は受信器910又は撮像システム804の一部など、より大きなシステム内でいくつかのタスクを処理するためのプロセッサであってもよい。プロセッサ912は、表面画像を拡張するなどの、本明細書で説明される過程を実行するための命令、設計、ハードウェア、ソフトウェア、又はこれらの組み合わせによって構成される。
メモリ914は、コンピュータ可読記憶媒体である。コンピュータ可読記憶媒体は、ランダムアクセスメモリ、リードオンリメモリ、プログラマブルリードオンリメモリ、電気的にプログラム可能なリードオンリメモリ、電気的に消去可能なリードオンリメモリ、フラッシュメモリ、磁気テープ又は磁気ディスク、光媒体などを含むが、これらに限定されない、様々な種類の揮発性及び不揮発性記憶媒体を含む。メモリ914は、単一のデバイスか、又はデバイスの組み合わせであってもよい。メモリ914は、プロセッサ912に隣接するかその一部とする、プロセッサ912とネットワーク化する、プロセッサ912から離れている、又はこれらの組み合わせとすることが可能である。
ディスプレイ916は、モニタ、CRT、LCD、プラズマスクリーン、フラットパネル、プロジェクタ、又は現在公知の又は今後開発される他のディスプレイデバイスである。ディスプレイ916は、二次元ビュー又はレンダリングされた三次元表現に関する画像を発生するように作動可能である。例えば、レンダリングを通して三次元ボリュームを表す二次元画像が表示される。
光学追跡システム906は、1つ以上の(例えば、2つの)カメラ924、第1のマーカー926(例えば、光学マーカー)、第2のマーカー928(例えば、光学マーカー)の1つ以上を含む。例えば、2つのカメラ924は、第1のマーカー926及び第2のマーカー928が2つのカメラ924の視野内にあるように配置される。カメラ924は、第1のマーカー926及び第2のマーカー928が2つのカメラ924の視野内にあるように、固定されるか、位置決め可能である。
第1のマーカー926は内視鏡904上に配置され、第2のマーカー928はツール806上に配置される。第1のマーカー926及び第2のマーカー928は、あらゆるサイズ、形状であり得る。例えば、第1のマーカー926及び第2のマーカー928は、形状が球状であり、第1のマーカー926及び第2のマーカー928がカメラ924によって生成される画像内で可視であるようなサイズである。他の形状やサイズで提供されてもよい。図9に示す実施形態においいて、第1のマーカー926は、4つの第1のマーカー926を含み、第2のマーカー928は、4つの第2のマーカー928を含む。より多くの又はより少ない第1のマーカー926、第2のマーカー928を提供することができる。第1のマーカー926及び第2のマーカー928は、互いに対してあらゆるパターン(例えば、X字形パターン)で位置決めされ、さらに、内視鏡904及びツール806に沿ったあらゆる位置に位置決めすることも可能である。
一実施形態において、メモリ914は、例えば患者920の表面(例えば、内面)とツール806の少なくとも一部との画像を保存するように構成される。メモリ914はまた、患者920の表面の3Dモデルを保存するように構成される。プロセッサ912は、ツール806の表現を、患者920の表面の同定した3Dモデルに重ね合わせるように構成される。プロセッサ912はまた、例えば、ツール806と、患者920の表面の同定した3Dモデルとの重ね合わせ表現に仮想光源を導入するように構成される。プロセッサ912は、導入した仮想光源に基づいて、ツール806と、患者920の同定した3Dモデルとの重ね合わせた表現において、患者920の表面に陰影の表現を生成するように構成される。プロセッサ912は、患者920の表面とツール806の少なくとも一部との保存画像に、生成した陰影の表現を重ね合わせるように構成される。
一実施形態において、1つ以上の内視鏡(例えば、内視鏡904)は、物体表面を表す第1のデータを生成し、物体表面を表す第2のデータを生成するように構成される。プロセッサ912はさらに、生成された第1のデータに基づいて患者920の表面の3Dモデルを生成し、生成された第2のデータに基づいて患者920の表面とツール806の少なくとも一部との画像を生成するように構成される。
一実施形態において、光学追跡システム906は、患者920の表面の3Dモデルに対するツール806の3D位置を決定するように構成される。1つ以上のカメラ924は、患者920から離して配置される。1つ以上のカメラ924は、内視鏡904上に位置決めされた第1のマーカー926及びツール806上に位置決めされた第2のマーカー928に関する画像データを生成するように構成される。プロセッサ912は、使用中のツール806(例えば、ツールのタイプ)に基づいて、メモリ914に保存されている複数のツールの所定のモデルから、ツール806の3Dモデルを同定するようにさらに構成される。代替として、プロセッサ912は、メモリ914に保存された患者920の表面とツール806の少なくとも一部との画像に基づいて、ツール806の形状及びサイズを測定するように構成される。プロセッサ912は、さらに、ツール806の測定した形状及びサイズに基づいて、ツール806の3Dモデルを生成するように構成される。
プロセッサ912は、患者920の表面の3Dモデルに対するツール806の3D位置を同定するように構成される。患者920の表面の3Dモデルに対するツール806の3D位置の同定は、内視鏡904上に位置決めされた第1のマーカー926及びツール806上に位置決めされた第2のマーカー928に関する画像データと、同定したツール806のモデルとに基づいて、患者920の表面の3Dモデルに対するツール806の3D位置を推定することを含む。プロセッサ912は、物体表面の3Dモデルに対するツールの同定した3D位置に基づいて、同定した患者920の表面の3Dモデルにツール806の表現を重ね合わせるようにさらに構成される。
様々な実施形態を参照して本発明を述べてきたが、当然ながら、多くの変更及び修正が、上記実施形態に対して可能である。すなわち、以上の説明は、限定ではなく例示とみなされるべきであり、実施形態の均等の態様や組み合せはすべて、上記説明に含まれるとみなされる。

Claims (20)

  1. 物体の表面の画像にデータ拡張を行う方法であって、
    プロセッサによって、物体表面とツールの少なくとも一部との画像である処理対象画像を同定し、
    プロセッサによって前記物体表面の3D(三次元)モデルを同定し、
    プロセッサによって第1の拡張3Dモデルを生成し、この第1の拡張3Dモデルの生成において、同定した前記物体表面の3Dモデルに前記ツールの表現を重ね合わせることを含み、
    プロセッサによって、生成した前記第1の拡張3Dモデルに仮想光源を導入し、
    プロセッサによって第2の拡張3Dモデルを生成し、この第2の拡張3Dモデルの生成において、生成した前記第1の拡張3Dモデルに導入した前記仮想光源に基づいて、生成した前記第1の拡張3Dモデルの前記物体表面に陰影の表現を生成することを含み、
    プロセッサによって、同定した前記処理対象画像のデータ拡張を実行し、この前記処理対象画像のデータ拡張において、同定した前記処理対象画像に、生成した前記陰影の表現を重ね合わせることを含む、方法。
  2. 前記処理対象画像を同定するときに、
    腹腔鏡によって、前記物体表面を撮像してその画像データを生成し、
    プロセッサによって、生成した前記画像データに基づいて、前記処理対象画像を生成することを含む、請求項1に記載の方法。
  3. 前記物体表面の3Dモデルを同定するときに、
    内視鏡によって、前記物体表面を表すデータを生成し、
    プロセッサによって、生成した前記データに基づいて、前記物体表面の3Dモデルを生成することを含む、請求項1又は2に記載の方法。
  4. 前記物体表面の3Dモデルを生成するときに、
    同定した前記処理対象画像の視点と同じ視点から生成した前記データに基づいて、前記物体表面の3Dモデルを生成することを含む、請求項3に記載の方法。
  5. 前記内視鏡が構造化光内視鏡であり、
    前記物体表面を表すデータを生成するときに、前記構造化光内視鏡によって、前記物体表面の点群を生成し、プロセッサによって、生成した前記点群に基づいて、前記物体表面のメッシュを生成することを含み、
    生成した前記データに基づいて前記物体表面の3Dモデルを生成するときに、生成した前記物体表面のメッシュに基づいて、前記物体表面の3Dモデルを生成することを含む、請求項3に記載の方法。
  6. 前記ツールの位置を同定することをさらに含む、請求項5に記載の方法。
  7. 前記ツールの位置を同定するときに、
    光学追跡システムによって、前記物体表面の3Dモデルに対する前記ツールの3D位置を同定することを含む、請求項6に記載の方法。
  8. 前記光学追跡システムは、
    前記ツール上に配置された1つ以上のマーカーと、
    前記構造化光内視鏡上に配置された1つ以上のマーカーと、
    前記物体から離して配置され、前記ツール上の1つ以上のマーカー及び前記構造化光内視鏡上の1つ以上のマーカーに関する画像データを生成するように構成された1つ以上のカメラとを備え、
    当該方法が、プロセッサによって、前記ツールの3Dモデルを同定することをさらに含み、
    前記物体表面の3Dモデルに対する前記ツールの3D位置を同定するときに、前記ツール上の1つ以上のマーカー及び前記構造化光内視鏡上の1つ以上のマーカーに関する前記画像データと、同定した前記ツールの3Dモデルとに基づいて、前記物体表面の3Dモデルに対する前記ツールの3D位置を推定することを含む、請求項7に記載の方法。
  9. 前記ツールの3Dモデルを同定するときに、
    プロセッサによって、使用中の前記ツールに従って、該プロセッサと通信するメモリに保存されている複数のツールのモデルから前記ツールの3Dモデルを同定するか、又は、
    プロセッサによって、同定した前記処理対象画像に基づいて前記ツールの形状及びサイズを測定し、プロセッサによって、測定した前記ツールの形状及びサイズに基づいて前記ツールの3Dモデルを生成することを含む、請求項8に記載の方法。
  10. 生成した前記第1の拡張3Dモデルに前記仮想光源を導入するときに、
    同定した前記処理対象画像からのアップベクトルにおいて、又は、前記ツールの位置を同定するように構成された光学追跡システムによって確定される重力の上方の位置で、生成した前記第1の拡張3Dモデルに前記仮想光源を導入することを含む、請求項1〜9のいずれか1項に記載の方法。
  11. プロセッサによって、生成した前記第1の拡張3Dモデルを、生成した前記第2の拡張3Dモデルから、前記陰影の表現が残るように差し引くことをさらに含む、請求項1〜10のいずれか1項に記載の方法。
  12. 同定した前記処理対象画像のデータ拡張を実行するときに、
    同定した前記処理対象画像と前記陰影の表現とを合成するか又は融合することを含む、請求項11に記載の方法。
  13. 物体の表面の画像にデータ拡張を行うために1つ以上のプロセッサによって実行可能な命令を記憶した非一時的コンピュータ可読記憶媒体であって、
    前記命令が、
    前記プロセッサによって、物体表面と該物体表面に近接するツールの少なくとも一部との画像である処理対象画像を同定し、
    前記プロセッサによって前記物体表面の3D(三次元)モデルを同定し、
    前記プロセッサによって、同定した前記物体表面の3Dモデルに前記ツールの表現を重ね合わせ、
    前記プロセッサによって、同定した前記物体表面の3Dモデル及び前記ツールの重ね合わせた表現に仮想光源を導入し、
    前記プロセッサによって、導入した前記仮想光源に基づいて、同定した前記物体表面の3Dモデル及び前記ツールの重ね合わせた表現において前記物体表面に陰影の表現を生成し、
    前記プロセッサによって、同定した前記処理対象画像に、生成した前記陰影の表現を重ね合わせることを含む、非一時的コンピュータ可読記憶媒体。
  14. 前記物体表面が人体の内部表面である、請求項13に記載の非一時的コンピュータ可読記憶媒体。
  15. 前記命令は、前記ツールの位置を同定することをさらに含み、
    この前記ツールの位置を同定するときに、光学追跡システムによって、前記物体表面の3Dモデルに対する前記ツールの3D位置を同定することを含む、請求項13又は14に記載の非一時的コンピュータ可読記憶媒体。
  16. 前記光学追跡システムは、
    前記ツール上に配置された1つ以上のマーカーと、
    構造化光内視鏡上に配置された1つ以上のマーカーと、
    前記物体から離して配置され、前記ツール上の1つ以上のマーカー及び前記構造化光内視鏡上の1つ以上のマーカーに関する画像データを生成するように構成された1つ以上のカメラとを備え、
    前記命令が、前記プロセッサによって、前記ツールの3Dモデルを同定することをさらに含み、
    前記物体表面の3Dモデルに対する前記ツールの3D位置を同定するときに、前記ツール上の1つ以上のマーカー及び前記構造化光内視鏡上の1つ以上のマーカーに関する前記画像データと、同定した前記ツールの3Dモデルとに基づいて、前記物体表面の3Dモデルに対する前記ツールの3D位置を推定することを含む、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  17. 前記ツールの3Dモデルを同定するときに、
    前記プロセッサによって、使用中の前記ツールに従って、前記プロセッサと通信するメモリに保存されている複数のツールのモデルから前記ツールの3Dモデルを同定するか、又は、
    前記プロセッサによって、同定した前記処理対象画像に基づいて前記ツールの形状及びサイズを測定し、前記プロセッサによって、測定した前記ツールの形状及びサイズに基づいて、前記ツールの3Dモデルを生成することを含む、請求項16に記載の非一時的コンピュータ可読記憶媒体。
  18. 物体の表面及びツールの少なくとも一部の画像を生成するシステムであって、
    物体表面及びツールの少なくとも一部の画像である処理対象画像と前記物体表面の3D(三次元)モデルとを保存するように構成されたメモリと、
    該メモリと通信するプロセッサであり、
    同定した前記物体表面の3Dモデルに前記ツールの表現を重ね合わせ、
    同定した前記物体表面の3Dモデル及び前記ツールの重ね合わせた表現に仮想光源を導入し、
    導入した前記仮想光源に基づいて、同定した前記物体表面の3Dモデル及び前記ツールの重ね合わせた表現において前記物体表面に陰影の表現を生成し、
    保存した前記処理対象画像に、生成した前記陰影の表現を重ね合わせるように構成されたプロセッサとを備えた、システム。
  19. 前記物体表面を表す第1のデータを生成し、前記物体表面を表す第2のデータを生成するように構成された1つ以上の内視鏡をさらに備え、
    前記プロセッサは、さらに、
    生成された前記第1のデータに基づいて、前記物体表面の3Dモデルを生成し、
    生成された前記第2のデータに基づいて、前記処理対象画像を生成するように構成される、請求項18に記載のシステム。
  20. 前記物体表面の3Dモデルに対する前記ツールの3D位置を測定するように構成された光学追跡システムをさらに備え、該光学追跡システムは、
    前記ツール上に配置された1つ以上のマーカーと、
    前記内視鏡上に配置された1つ以上のマーカーと、
    前記物体から離して配置され、前記ツール上の1つ以上のマーカー及び前記内視鏡上の1つ以上のマーカーに関する画像データを生成するように構成された1つ以上のカメラとを備え、
    前記プロセッサは、さらに、
    前記ツールの3Dモデルを同定し、この前記ツールの3Dモデルを同定するときに、
    使用中の前記ツールに従って、前記メモリに保存されている複数のツールのモデルから前記ツールの3Dモデルを同定するか、又は、
    保存した前記処理対象画像に基づいて前記ツールの形状及びサイズを測定し、測定した前記ツールの形状及びサイズに基づいて前記ツールの3Dモデルを生成することを含み、
    前記物体表面の3Dモデルに対する前記ツールの3D位置を同定し、この前記物体表面の3Dモデルに対する前記ツールの3D位置を同定するときに、
    前記ツール上の1つ以上のマーカー及び前記内視鏡上の1つ以上のマーカーに関する前記画像データと、同定した前記ツールの3Dモデルとに基づいて、前記物体表面の3Dモデルに対する前記ツールの3D位置を推定することを含むように構成され、
    前記プロセッサは、
    前記物体表面の3Dモデルに対する前記ツールの同定した3D位置に基づいて、同定した前記物体表面の3Dモデルに前記ツールの表現を重ね合わせるように構成される、請求項19に記載のシステム。
JP2019552063A 2017-03-24 2018-02-16 奥行き知覚を高める仮想陰影 Active JP6972163B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/468,810 2017-03-24
US15/468,810 US10262453B2 (en) 2017-03-24 2017-03-24 Virtual shadows for enhanced depth perception
PCT/EP2018/053856 WO2018171987A1 (en) 2017-03-24 2018-02-16 Virtual shadows for enhanced depth perception

Publications (2)

Publication Number Publication Date
JP2020512089A JP2020512089A (ja) 2020-04-23
JP6972163B2 true JP6972163B2 (ja) 2021-11-24

Family

ID=61283204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019552063A Active JP6972163B2 (ja) 2017-03-24 2018-02-16 奥行き知覚を高める仮想陰影

Country Status (5)

Country Link
US (1) US10262453B2 (ja)
EP (1) EP3571671A1 (ja)
JP (1) JP6972163B2 (ja)
CN (1) CN110709894B (ja)
WO (1) WO2018171987A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
CN114777682A (zh) * 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
CN112740666A (zh) 2018-07-19 2021-04-30 艾科缇弗外科公司 自动手术机器人视觉系统中多模态感测深度的系统和方法
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
CN113143459B (zh) * 2020-01-23 2023-07-25 海信视像科技股份有限公司 腹腔镜增强现实手术导航方法、装置及电子设备
EP4135615A4 (en) * 2020-04-17 2024-08-14 Activ Surgical Inc SYSTEMS AND METHODS FOR ENHANCING MEDICAL IMAGES
WO2021221017A1 (ja) * 2020-04-28 2021-11-04 Hoya株式会社 内視鏡システム
CN112741689B (zh) * 2020-12-18 2022-03-18 上海卓昕医疗科技有限公司 应用光扫描部件来实现导航的方法及系统
CA3212013A1 (en) * 2021-03-03 2022-09-09 Boston Scientific Scimed, Inc. Scope modifications to enhance scene depth inference
US11937799B2 (en) * 2021-09-29 2024-03-26 Cilag Gmbh International Surgical sealing systems for instrument stabilization
US20230156174A1 (en) * 2021-11-17 2023-05-18 3Dintegrated Aps Surgical visualization image enhancement
DE102022129663A1 (de) 2022-11-09 2024-05-16 Carl Zeiss Meditec Ag Verfahren zum Einblenden eines Einblendbildes, computerimplementiertes Verfahren zum Optimieren des Einblendens eines Einblendbildes sowie Computerprogramm, Datenverarbeitungseinheit und optisches Beobachtungssystem

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3667393B2 (ja) * 1995-08-04 2005-07-06 株式会社ナムコ 3次元ゲーム装置及び画像合成方法
US6563105B2 (en) * 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement
JP2002238844A (ja) * 2001-02-16 2002-08-27 Olympus Optical Co Ltd 内視鏡装置
JP4480492B2 (ja) * 2004-07-06 2010-06-16 株式会社キーエンス 拡大観察装置、画像ファイル生成装置、画像ファイル生成プログラム、3次元画像表示プログラム及びコンピュータで読み取り可能な記録媒体
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
JP5025496B2 (ja) * 2008-01-09 2012-09-12 キヤノン株式会社 画像処理装置及び画像処理方法
JP2009240621A (ja) * 2008-03-31 2009-10-22 Hoya Corp 内視鏡装置
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP5421828B2 (ja) * 2010-03-17 2014-02-19 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
WO2012073414A1 (ja) * 2010-11-30 2012-06-07 パナソニック株式会社 画像処理装置
CA2854829C (en) 2011-11-15 2019-07-02 Manickam UMASUTHAN Method of real-time tracking of moving/flexible surfaces
US20150015581A1 (en) * 2012-01-31 2015-01-15 Google Inc. Method for Improving Speed and Visual Fidelity of Multi-Pose 3D Renderings
US9949701B2 (en) * 2013-02-14 2018-04-24 Siemens Aktiengesellschaft Registration for tracked medical tools and X-ray systems
CN104000655B (zh) * 2013-02-25 2018-02-16 西门子公司 用于腹腔镜外科手术的组合的表面重构和配准
WO2015049684A1 (en) * 2013-10-02 2015-04-09 Given Imaging Ltd. System and method for size estimation of in-vivo objects
WO2015126466A1 (en) * 2014-02-21 2015-08-27 The University Of Akron Imaging and display system for guiding medical interventions
JP6323183B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置および画像処理方法
US9547940B1 (en) * 2014-09-12 2017-01-17 University Of South Florida Systems and methods for providing augmented reality in minimally invasive surgery
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US20180020992A1 (en) * 2015-02-16 2018-01-25 Dimensions And Shapes, Llc Systems and methods for medical visualization
WO2017027638A1 (en) * 2015-08-10 2017-02-16 The Board Of Trustees Of The Leland Stanford Junior University 3d reconstruction and registration of endoscopic data
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
US20190051039A1 (en) * 2016-02-26 2019-02-14 Sony Corporation Image processing apparatus, image processing method, program, and surgical system
JP6932135B2 (ja) 2016-03-16 2021-09-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 腹腔鏡画像及び超音波画像を重畳するための計算装置

Also Published As

Publication number Publication date
US10262453B2 (en) 2019-04-16
JP2020512089A (ja) 2020-04-23
WO2018171987A1 (en) 2018-09-27
CN110709894A (zh) 2020-01-17
CN110709894B (zh) 2023-07-28
US20180276877A1 (en) 2018-09-27
EP3571671A1 (en) 2019-11-27

Similar Documents

Publication Publication Date Title
JP6972163B2 (ja) 奥行き知覚を高める仮想陰影
US11883118B2 (en) Using augmented reality in surgical navigation
US10835344B2 (en) Display of preoperative and intraoperative images
US10258427B2 (en) Mixed reality imaging apparatus and surgical suite
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
Bichlmeier et al. The virtual mirror: a new interaction paradigm for augmented reality environments
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
EP2637593B1 (en) Visualization of anatomical data by augmented reality
US20160163105A1 (en) Method of operating a surgical navigation system and a system using the same
JP2018534011A (ja) 拡張現実感手術ナビゲーション
Navab et al. Laparoscopic virtual mirror new interaction paradigm for monitor based augmented reality
KR20130015146A (ko) 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
KR20130108320A (ko) 관련 애플리케이션들에 대한 일치화된 피하 해부구조 참조의 시각화
Liu et al. Toward intraoperative image-guided transoral robotic surgery
Fan et al. Three-dimensional image-guided techniques for minimally invasive surgery
Zhang et al. 3D augmented reality based orthopaedic interventions
Singh et al. A novel enhanced hybrid recursive algorithm: image processing based augmented reality for gallbladder and uterus visualisation
JP2024525733A (ja) 手術前及び手術中のシーンの画像データを表示する方法及びシステム
JP7172086B2 (ja) 手術シミュレーション装置及び手術シミュレーションプログラム
Kumar et al. Stereoscopic augmented reality for single camera endoscope using optical tracker: a study on phantom
Kersten-Oertel et al. 20 Augmented Reality for Image-Guided Surgery
US20230210627A1 (en) Three-dimensional instrument pose estimation
US10376335B2 (en) Method and apparatus to provide updated patient images during robotic surgery

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6972163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150