JP2011212301A - 投影画像生成装置および方法、並びにプログラム - Google Patents

投影画像生成装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2011212301A
JP2011212301A JP2010084272A JP2010084272A JP2011212301A JP 2011212301 A JP2011212301 A JP 2011212301A JP 2010084272 A JP2010084272 A JP 2010084272A JP 2010084272 A JP2010084272 A JP 2010084272A JP 2011212301 A JP2011212301 A JP 2011212301A
Authority
JP
Japan
Prior art keywords
image
projection
projection image
endoscope
treatment tool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010084272A
Other languages
English (en)
Other versions
JP5551957B2 (ja
Inventor
Hitoki Miyamoto
仁樹 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010084272A priority Critical patent/JP5551957B2/ja
Priority to EP11152080A priority patent/EP2372660A2/en
Priority to US13/016,131 priority patent/US8611988B2/en
Priority to CN201110034594.4A priority patent/CN102208114B/zh
Publication of JP2011212301A publication Critical patent/JP2011212301A/ja
Application granted granted Critical
Publication of JP5551957B2 publication Critical patent/JP5551957B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Graphics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pulmonology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】臓器中の病変のように他の構造物によって遮蔽された構造物に対する処置具の接近経路上の様子をより容易に把握できるようにする。
【解決手段】3次元医用画像中の第1構造物を所与の視点から見る複数の視線上の画像情報を所与の投影面に投影した投影画像を生成する投影画像生成部17を備えた投影画像生成装置に、3次元医用画像中に処置具の想定位置を設定する処置具位置設定部13と、3次元医用画像から第1構造物の表面を検出する表面検出部15と、3次元医用画像に表された、第1構造物によって遮蔽される位置にある第2構造物(例えば病変)を特定する病変位置特定部14と、処置具を想定位置から第2構造物に接近させる際の想定経路と第1構造物の表面との交点PAを検出する交点検出部16とを設け、投影画像生成部17が、視点と交点PAとを結ぶ視線上の画像情報が投影される位置に、交点PAを識別可能な態様で表すようにした。
【選択図】図2

Description

本発明は、3次元医用画像に表された構造物を所与の視点から見る複数の視線上の画像情報を所与の投影面に投影した投影画像を生成する技術に関するものである。
近年、マルチスライスCT(MDCT)等のモダリティの進歩により、質の高い3次元画像データが取得できるようになり、これらの画像データを用いた画像診断では、高精細な断面画像が用いられるだけでなく、被検体の仮想的・疑似的な3次元画像も用いられるようになってきる。さらに、画像認識技術を用いた3次元医用画像からの臓器構造の抽出等も行われており、より構造が識別された3次元医用画像から仮想的・疑似的な3次元画像を生成することが可能になり、生成された画像は、手術前のプランニング、シミュレーションや手術中のナビゲーションのためにも利用されている。
被検体の仮想的・疑似的な3次元画像を生成する手法としては、ボリュームレンダリングやサーフェスレンダリング等のレンダリング技術を用いた手法が知られている。また、特に、被検体内の仮想的な視点からの透視投影(中心投影)によって得られる画像は、仮想内視鏡画像と呼ばれ、あたかも被検体内を内視鏡で観察しているかのような画像が得られる。
この仮想内視鏡画像を用いて内視鏡下での手術を支援する技術が提案されている。
例えば、特許文献1には、内視鏡の位置をセンサで検出し、検出位置を視点とし、内視鏡よりも広い画角を有する仮想内視鏡画像を生成し、内視鏡撮影で得られた実内視鏡画像と仮想内視鏡画像とを重畳表示する装置が記載されている。
また、特許文献2には、内視鏡の位置をリアルタイムに検出し、内視鏡と同じ視野を有し、視野内の血管配置が視覚化された仮想内視鏡画像を生成するとともに、内視鏡下での手術に用いられる処置具の位置をリアルタイムに検出し、仮想内視鏡画像中での処置具の位置に処置具を表す画像を合成した画像を生成し、合成画像と実内視鏡画像を表示する装置が記載されている。
特開2002−263053号公報 特開2005−21353号公報
内視鏡下の手術では、内視鏡の視線方向と処置具の操作方向は異なるため、これらの文献に記載されたような内視鏡の視点からの仮想内視鏡画像を用いて臓器内の病変を透視的に観察しても、その画像において、処置具の操作方向、すなわち、処置具が病変にアプローチする経路上の様子を把握することは困難である。例えば、図7に模式的に示したように、視線方向VLが視野の中心となる仮想内視鏡画像では、処置具が臓器内に進入する位置を把握することは難しく、また、半透明化により、臓器内に存在する血管等の手術上注意すべき他の構造物を観察することは可能であるが、その構造物が処置具の進入位置から病変までの経路上に存在するかどうかについても把握することが難しい。
本発明は上記事情に鑑みてなされたものであり、臓器中の病変のように他の構造物によって遮蔽された注目構造物に対する処置具の接近経路上の様子をより容易に把握可能な投影画像を生成する装置および方法、並びにプログラムを提供することを目的とするものである。
本発明の投影画像生成装置は、3次元医用画像を入力として、該3次元医用画像に表された第1の構造物を所与の視点から見る複数の視線上の画像情報を所与の投影面に投影した投影画像を生成する投影画像生成手段を備えた投影画像生成装置に、前記3次元医用画像の座標空間内に処置具の想定位置を設定する処置具位置設定手段と、前記3次元医用画像から前記第1の構造物の表面を検出する表面検出手段と、前記3次元医用画像に表された、前記処置具の想定位置から見たときに前記第1の構造物によって遮蔽される位置にある第2の構造物を特定する第2の構造物特定手段と、前記処置具を前記想定位置から前記第2の構造物に接近させる際の想定経路と前記第1の構造物の表面との交点を検出する交点検出手段とを設け、前記投影画像生成手段が、前記投影面上における、前記視点と前記交点とを結ぶ視線上の画像情報が投影される位置に、前記交点を識別可能な態様で表した前記投影画像を生成するようにしたものである。
本発明の投影画像生成方法は、3次元医用画像を入力として、該3次元医用画像に表された第1の構造物を所与の視点から見る複数の視線上の画像情報を所与の投影面に投影した投影画像を生成する方法であって、前記3次元医用画像の座標空間において、前記視点から前記第1の構造物を見たときの該第1の構造物の正面側であって、該第1の構造物の外側に、処置具の想定位置を設定するステップと、前記3次元医用画像から前記第1の構造物の表面を検出するステップと、前記3次元医用画像に表された、前記処置具の想定位置から見たときに前記第1の構造物によって遮蔽される位置にある第2の構造物を特定するステップと、前記処置具を前記想定位置から前記第2の構造物に接近させる際の想定経路と前記第1の構造物の表面との交点を検出するステップとをさらに行うようにし、前記投影画像を生成するステップにおいて、前記投影面上における、前記視点と前記交点とを結ぶ視線上の画像情報が投影される位置に、前記交点を識別可能な態様で表した前記投影画像を生成するようにしたものである。
本発明の投影画像生成プログラムは、コンピュータを上記投影画像生成装置として機能させるために、上記投影画像生成装置の各手段を処理ステップとしてコンピュータに実行させるものである。
ここで、「第1の構造物」は、処置具の想定位置から見たときに「第2の構造物」を遮蔽するものである。「第1の構造物」と「第2の構造物」の具体例としては、第1の構造物である臓器の内部に第2の構造物である病変が存在する場合が挙げられる。あるいは、処置具の想定位置から見て、第1の構造物の後方に第2の構造物が存在する場合であってもよい。また、「第1の構造物」の他の具体例としては、体表が挙げられる。一方、「第2の構造物」は、典型的には、処置具による処置対象、すなわち、手術対象部位である。
「投影画像」の生成の際の所与の視点から所与の投影面への投影方法は、中心投影としてもよいし、視点が無限遠方にあると考えて平行投影としてもよい。
「複数の視線上の画像情報」を投影する際、各視線上の画像情報は、視線の近傍の画素の画像情報を用いた補間演算によって求められたものであってもよい。
「所与の視点」は、ユーザの手動操作によって設定された位置としてもよいし、3次元医用画像の座標空間における、内視鏡位置検出手段によってリアルタイムに検出された被検体の体腔内に挿入された内視鏡の位置に対応する位置としてもよい。
この場合、内視鏡によるリアルタイムの撮像によって体腔内を表す実内視鏡画像を形成するようにし、さらに、実内視鏡画像と、その実内視鏡画像の形成とほぼ同じタイミングで内視鏡位置検出手段によって検出された内視鏡の位置に基づく投影画像とを重畳させた重畳画像を生成するようにしてもよい。
「処置具の想定位置」は、ユーザの手動操作によって設定された位置としてもよいし、3次元医用画像の座標空間における、処置具位置検出手段によってリアルタイムに検出された被検体の体腔内に挿入された処置具の位置に対応する位置としてもよい。
「第1の構造物の表面を検出する」方法や「第2の構造物を特定する」方法は、公知の画像認識技術を用いた自動的方法、ユーザの手動操作による方法、両者を組み合わせた方法のいずれであってもよい。
「交点を検出する」方法の具体例としては、第2の構造物を、第2の構造物から処置具の想定位置に向かう方向にある第1の構造物の表面に投影することによって、交点を検出する方法が挙げられる。この場合、第1の構造物の表面に投影された第2の構造物を、前記所与の視点から投影画像の投影面に投影することによって、投影画像中で「交点を識別可能な態様で表す」ことができる。ここで、第1の構造物の表面に投影された第2の構造物は、平行投影によって投影を行うことが好ましい。
さらに、その際、処置具の位置から見て第2の構造物の手前にある第3の構造物を、第2の構造物から処置具の想定位置に向かう方向にある第1の構造物の表面にさらに投影するようにしてもよい。ここで、「第3の構造物」の具体例としては、手術において注意を有する解剖学的構造物、すなわち、血管や、臓器、腫瘍等が挙げられる。
本発明では、処置具の想定位置から見たときに第1の構造物によって遮蔽された第2の構造物が表された3次元医用画像を入力として、所与の視点からの複数の視線上の画像情報を所与の投影面に投影した投影画像を生成する際に、処置具をその想定位置から第2の構造物に接近させる際の想定経路と第1の構造物の表面との交点を検出し、投影画像の投影面上における、視点と交点とを結ぶ視線上の画像情報が投影される位置に、その交点を識別可能な態様で表すことができる。これにより、注目対象である第2の構造物を遮蔽する第1の構造物への処置具の進入位置を、所与の視点からの投影画像上で把握することが可能になる。この所与の視点からの投影画像を通常の診断や手術シミュレーション、手術ナビゲーションで用いる視点からの画像にすれば、観察者は、違和感を覚えたり、混乱をきたしたりすることなく、通常の画像を観察するのと同じ感覚で、臓器中の病変のように他の構造物(第1の構造物)によって遮蔽された注目構造物(第2の構造物)に対する処置具の接近経路上の様子をより容易に把握することが可能になり、手術の精度や安全性の向上に資する。
本発明の第1の実施の形態となる手術シミュレーション機能が実装された医用画像診断システムの概略構成図 本発明の第1の実施形態における手術シミュレーション機能を実現する構成および処理の流れを模式的に示したブロック図 本発明の実施形態における医用画像診断システムを用いた手術シミュレーションの流れを表したフローチャート 投影画像の視線および処置具の位置の設定を行う画面の一例を模式的に表した図 視線方向のレイキャスティングと処置具の操作方向のレイキャスティングを模式的に表した図 本発明の第1の実施形態において生成される投影画像の一例を模式的に表した図 本発明に対する比較例における視線方向のレイキャスティングを模式的に表した図 本発明に対する比較例において生成される投影画像の一例を模式的に表した図 本発明の第2の実施形態およびその比較例におけるレイキャスティングを模式的に表した図 本発明の第2の実施形態およびその比較例において生成される投影画像の一例を模式的に表した図 本発明の第3の実施形態において生成される投影画像の一例を模式的に表した図 本発明の第4の実施形態においてサーフェスレンダリングによって投影画像が生成される様子を模式的に表した図 本発明の第5の実施の形態となる手術ナビゲーション機能が実装された内視鏡観察支援システムのハードウェア構成図 本発明の第5の実施形態における内視鏡観察支援システムの機能ブロック図 本発明の第5の実施形態における内視鏡観察支援システムを用いた手術ナビゲーションの流れを表したフローチャート 本発明の第5の実施形態において生成される、実内視鏡画像と仮想内視鏡画像を重畳した表示画像の一例を模式的に表した図
図1は、本発明の第1の実施形態となる手術シミュレーション機能が実装された医用画像診断システムの概要を示すハードウェア構成図である。図に示すように、このシステムでは、モダリティ1と、画像保管サーバ2と、画像処理ワークステーション3とが、ネットワーク9を経由して通信可能な状態で接続されている。
モダリティ1には、被検体の検査対象部位を撮影することにより、その部位を表す3次元医用画像の画像データを生成し、その画像データにDICOM(Digital Imaging and Communications in Medicine)規格で規定された付帯情報を付加して、画像情報として出力する装置が含まれる。具体例としては、CT、MRIなどが挙げられる。本実施形態では、CTで被検体である人体の体軸方向にスキャンすることによって人体の肝臓を含む腹部の3次元画像データを生成する場合について説明する。
画像保管サーバ2は、モダリティ1で取得された医用画像データや画像処理ワークステーション3での画像処理によって生成された医用画像の画像データを画像データベースに保存・管理するコンピュータであり、大容量外部記憶装置やデータベース管理用ソフトウェア(たとえば、ORDB(Object Relational Database)管理ソフトウェア)を備えている。
画像処理ワークステーション3は、読影者からの要求に応じて、モダリティ1や画像保管サーバ2から取得した医用画像データに対して画像処理(画像解析を含む)を行い、生成された画像を表示するコンピュータであり、CPU,主記憶装置、補助記憶装置、入出力インターフェース、通信インターフェース、入力装置(マウス、キーボード等)、表示装置(ディスプレイモニタ)、データバス等の周知のハードウェア構成を備え、周知のオペレーティングシステム等がインストールされたものである。本発明の投影画像生成処理を用いた手術シミュレーション機能は、この画像処理ワークステーション3に実装されており、この処理は、CD−ROM等の記録媒体からインストールされたプログラムを実行することによって実現される。また、プログラムは、インターネット等のネットワーク経由で接続されたサーバの記憶装置からダウンロードされた後にインストールされたものであってもよい。
画像データの格納形式やネットワーク9経由での各装置間の通信は、DICOM等のプロトコルに基づいている。
図2は、画像処理ワークステーション3の機能のうち、本発明の第1の実施形態となる手術シミュレーション機能に関連する部分を示すブロック図である。図に示すように、本発明の第1の実施形態となる手術シミュレーション機能は、3次元医用画像取得部11、視線設定部12、処置具位置設定部13、病変位置特定部14、表面位置検出部15、交点検出部16、投影画像生成部17、表示制御部18によって実現される。また、3次元医用画像V、投影画像IP、投影画像IPにおける視線VL、処置具の想定位置(以下、処置具位置)PT、肝臓中の病変位置PI、肝臓の表面位置SF、処置具の操作方向と肝臓の表面位置との交点PA、は、各々、上記各処理部によって、画像処理ワークステーション3の所定のメモリ領域に対して読み書きされるデータである。
図3は、本発明の第1の実施形態となる手術シミュレーションのためのソフトウェアの実行下でのユーザの操作や、演算処理、表示処理等の流れを示したフローチャートであり、図2も参照しつつ、本発明の第1の実施形態となる手術シミュレーションの流れについて説明する。
まず、モダリティ1による被検体の腹部の撮像により、3次元医用画像Vが形成される。画像処理ワークステーション3では、3次元医用画像取得部11が、モダリティ1によって形成された3次元医用画像Vを取得した後(#1)、病変位置特定部14が、3次元医用画像Vに表された肝臓中の病変を抽出し、その位置PIを特定するとともに(#2)、表面位置検出部15が、3次元医用画像Vから肝臓の表面位置SFを検出する(#3)。一方、視線設定部12および処置具位置設定部13が、ユーザの操作に基づき、各々、後続のステップで生成される投影画像IPにおける視線VL、および、手術で用いられる処置具位置PTを設定する(#4)。
次に、投影画像生成部17が、3次元医用画像Vを入力として、視線設定部12によって設定された複数の視線VL上の画像情報を所与の投影面に投影した投影画像IPを生成する(#5, #6, #8, #9, #10)。その際、交点検出部16が、処置具位置設定部13によって設定された処置具位置PTから病変位置特定部14によって特定された病変位置PIまで処置具を接近させる際の想定経路(操作方向)と表面位置検出部15によって検出された肝臓の表面SFとの交点PAを検出し(#7)、投影画像生成部17は、交点検出部16によって検出された交点PAを通る視線VL上の画像情報が投影される位置に、交点PAを識別可能な態様で表した投影画像IPを生成する(#8)。なお、この一連の処理の詳細については後述するが、本実施形態では、交点検出部16は、病変位置特定部14によって抽出された病変位置PIを、処置具の操作方向にある肝臓の表面SFに平行投影することによって、交点PAを検出するように構成されており、この交点検出部16の処理は投影画像生成部17の視線毎の投影処理の中で逐次行われる。
そして、表示制御部18が、生成された投影画像IPを画像処理ワークステーション3のディスプレイに表示させる(#11)。
次に、画像処理ワークステーション3内の各処理部で行われる処理の詳細について説明する。
3次元医用画像取得部11は、モダリティ1から3次元医用画像Vを受信し、画像処理ワークステーション3の所定のメモリ領域に格納する通信インターフェース機能を有する。
視線設定部12および処置具位置設定部13は、各々、投影画像IPにおける視線VLおよび手術で用いられる処置具位置PTの設定のためのユーザ操作を受け付ける、図4に例示したような設定画面を含むユーザインターフェースを提示する。図に示したように、視線設定部12および処置具位置設定部13は、3次元医用画像Vに基づいてアキシャル断面画像を生成し、設定画面中に表示させる。ここで、アキシャル断面画像の断面の位置は、例えば、アキシャル断面画像の生成に先立って病変位置特定部14で特定された病変位置PIの中心を通る位置とすることができ、さらに、ユーザによるキーボードやポインティングデバイス等を用いた操作に応じて断面位置を変更することができる。また、病変を表す領域(図中PIを付した領域)にはマーカーが重畳表示されている。ユーザが、例えば、ポインティングデバイスを用いてツールバー(図示せず)から視線設定のためのアイコンを選択した後、アキシャル断面画像中の所望の位置でクリック操作をしたままドラッグ操作をすることによって、視線方向を表す矢印(図中のVL)を描くと、視線設定部12は、この操作を検知して3次元医用画像Vの座標空間における視線VLの向きを決定し、所定のメモリ領域に格納する。一方、ユーザが、例えば、ポインティングデバイスを用いてツールバー(図示せず)から処置具位置設定のためのアイコンを選択した後、アキシャル断面画像中の所望の処置具の想定位置でクリック操作すると(図中の点PT)、処置具設定部13は、この操作を検知して3次元医用画像Vの座標空間における処置具位置PTの位置を特定し、所定のメモリ領域に格納する。なお、処置具位置PTが設定されることにより、処置具が病変位置PIの中心に向かう向き、すなわち、処置具の操作方向(図中のTL)が決定される。
病変位置特定部14は、3次元医用画像Vを入力として、公知の画像認識手法を用いて、手術対象となる肝臓中の病変領域を抽出し、病変位置PIを特定する。例えば、本出願人が提案する特開2008-245719号公報に記載の手法を用いた場合、病変位置特定部14は、アキシャル断面画像に対するユーザのポインティングデバイス等の操作による病変領域内の任意の点の設定を受け付け、予め定義しておいた病変領域のありうる大きさの情報を用いて、病変領域が存在し得る3次元の存在範囲を決定し、設定された点と、決定された存在範囲の外側の点とに基づいて、グラフカット法等の領域分割方法などを用いて病変領域を抽出することができる。なお、本実施形態では、病変位置PIは病変位置特定部14によって抽出された3次元の病変領域を表す点の集合を意味する。以下では、文脈に応じて病変位置PIを病変領域PIと呼ぶ。
表面位置検出部15は、3次元医用画像Vを入力として、公知の画像認識手法を用いて、肝臓の表面位置SFを検出する。例えば、本出願人が提案する特開2009-211138号公報に記載の手法を用いた場合、表面位置検出部15は、まず、肝臓が表されたアキシャル断面画像に対するユーザによるポインティングデバイス等の操作に応じて、肝臓領域内の任意の点を設定する(以下、この点をユーザ設定点と呼ぶ)。次に、AdaBoost手法等の機械学習によって取得された識別器を用いて肝臓領域の輪郭の角ばった箇所を基準点として検出する。さらに、ユーザ設定点を中心として、肝臓を含む程度の大きさの3次元領域(以下、処理対象領域と呼ぶ)内の各点(ボクセル)について、AdaBoost手法等の機械学習によって取得された識別器を用いて、肝臓の輪郭上の点かどうかを表す評価値を算出する。そして、処理対象領域の外周上の各点を肝臓領域外の背景領域内の点と予め判定するとともに、ユーザ設定点および基準点が肝臓領域内の点であると予め判定した上で、さらに処理対象領域内の各点の評価値を用いて、グラフカット法を適用することによって、3次元医用画像Vから肝臓領域を抽出する。抽出された肝臓領域の輪郭が表面位置SFとなる。
交点検出部16は、公知のレイキャスティング手法を応用して、病変位置PIを処置具の操作方向TLに肝臓の表面位置SF上に投影することによって、処置具の操作方向TLと肝臓の表面位置SFとの交点PA、すなわち、処置具の肝臓への進入位置を検出する。
一方、投影画像生成部17は、3次元医用画像Vを入力とし、公知のレイキャスティングを用いたボリュームレンダリング手法を用いて視線VL方向への平行投影を行うことによって、投影画像IPを生成する。
ここで、本実施形態では、図3のフローチャートのステップ#6から#10に示したように、交点検出部16と投影画像生成部17とは一体的に処理を行う。以下、図5の模式図を参照しつつ、その処理内容を説明する。なお、病変位置特定部14で検出された病変領域PIに属する各ボクセルには色情報(R,G,Bの各信号値)CIおよび不透明度αI(=1)、表面位置検出部15で検出された肝臓の表面位置SFを表す各ボクセルには色情報CSFおよび不透明度αSF(=1)、他の領域には色情報COTおよび不透明度αOT(=0)が、各々、割り当てられるように、プログラムの起動パラメータや設定ファイル等で予め定義されている。
まず、投影画像生成部17は、視線VL上の最初の探索点の情報を読み込み(#5)、その探索点が肝臓の表面位置SF上にあるかどうかを判定する(#6)。具体的には、その探索点自体、あるいは、その近傍の8ボクセルの少なくとも1つが表面位置SFにあるかどうかを判定する。その探索点が表面位置SF上ではない場合には(#6;No)、その探索点に割り当てられた色情報および不透明度を用いたレイキャスティング(視線方向レイキャスティング)を行う(#9)。一方、その探索点が表面位置SF上にある場合には(#6;Yes)、交点検出部16が、その探索点から操作方向TLの被検体内部に向かう向きにレイキャスティング(操作方向レイキャスティング)を行い、計算結果となる色情報CTL、累積不透明度αTLを求める(#7)。そして、投影画像生成部17は、その表面位置SF上の探索点に割り当てられた色情報CSFと、操作方向レイキャスティングによって得られた色情報CTLおよび累積不透明度αTLとから、その探索点における色情報をαTL・CTL+(1−αTL)・CSFに置換して視線方向レイキャスティングを行う(#8)。以上の処理により、視線方向における1つの探索点に対するレイキャスティング処理が終わり、この時点で、視線方向レイキャスティングの終了条件を満たした場合、すなわち、視線方向レイキャスティングにおける累積不透明度αVLが1に達したか、探索点が3次元医用画像Vの範囲外に達したかのいずれかの場合(#10; Yes)、視線方向レイキャスティングを終了し、終了条件を満たしていない場合には(#10; No)、視線方向における次の探索点の情報を取得し(#5)、上記ステップ#6から#9の処理を終了条件を満たすまで(#10; Yes)、繰り返し行う。なお、図3のフローチャートには明示していないが、ステップ#5から#10までの処理は、投影画像IPを構成する各画素に対応する複数の視線のすべてに対して、並列にあるいは順次行われる。
図5に示した例では、視線VL1、VL2とも、各視線に沿った視線方向レイキャスティングにおいて、探索点が肝臓の表面位置SFに達するまでは探索点における不透明度αOTが0であるため、色情報は蓄積されない。そして、探索点が肝臓表面位置SFに達すると、各々、操作方向TL1、TL2に沿った操作方向レイキャスティングが行われる。まず、肝臓の表面位置SFにある視線VL1上の探索点では、その探索点からの操作方向レイキャスティングにおいて、探索点が病変領域PIに達するまでは探索点における不透明度αOTが0であるため、色情報CTL1および累積不透明度αTL1は蓄積されないが、探索点が病変領域PIに達すると、色情報CIが蓄積されるとともに、この病変領域PI内の探索点では不透明度αIが1であるため、操作方向レイキャスティングの終了条件(視線方向レイキャスティングの終了条件と同様)を満たし、操作方向レイキャスティングは終了する。したがって、この操作方向レイキャスティングによって色情報CTL1(=病変領域PIの色情報CI)および累積不透明度αTL1(=病変領域PIの不透明度αI=1)が得られる。ここで、視線方向レイキャスティングに戻ると、肝臓の表面位置SFに割り当てられた色情報CSFと、操作方向レイキャスティングで得られた色情報CTL1(=CI)および累積不透明度αTL1(=1)とより、この探索点の色情報は、αTL1・CTL1+(1−αTL1)・CSF=CIとなり、肝臓の表面位置SF上の探索点に割り当てられた不透明度αSFが1のため、ここで視線方向レイキャスティングも終了条件を満たして終了する。これにより、視線VL1に対応する投影画像IPの画素の色情報はCIとなる。一方、肝臓の表面位置SFにある視線VL2上の探索点では、その探索点からの操作方向レイキャスティングにおいて、その操作方向TL2上に病変領域PI内の探索点が存在しないので、すべての探索点で不透明度はαOT(=0)となり、色情報CTL2および累積透明度αTL2が蓄積されることなく、探索点が3次元医用画像Vの範囲外に達して終了条件を満たし、色情報CTL2および累積不透明度αTL2は0のまま操作方向レイキャスティングが終了する。ここで、視線方向レイキャスティングに戻ると、操作方向レイキャスティングで得られた色情報CTL2(=0)および累積不透明度αTL2(=0)とより、この探索点の色情報は、αTL2・CTL2+(1−αTL2)・CSF=CSFとなり、肝臓の表面位置SF上の探索点では不透明度αSFが1のため、ここで視線方向レイキャスティングも終了条件を満たして終了する。これにより、視線VL2に対応する投影画像IPの画素の色情報CSFとなる。
このように、視線方向レイキャスティングと操作方向レイキャスティングとを組み合わせて行うことにより、病変領域PIは操作方向に肝臓の表面SFに平行投影され、視線方向VLへの平行投影により、肝臓の表面の他の領域とは異なる色情報が投影画像IPの投影面に投影される。すなわち、処置具位置PTから病変位置PIまでの処置具の操作経路と肝臓の表面SFとの交点PAが検出され、投影画像IPに識別可能な態様で表されたことになる。
図6は、以上の処理によって生成された投影画像IPの一例を模式的に表したものである。図に示したとおり、肝臓の表面SFが投影されたボリュームレンダリング画像に、想定位置PTから病変領域PIに向かう処置具の進入位置である交点PAが重畳された画像となっている。
これに対して、図7および図8は、本発明の第1の実施形態に対する比較例であり、図7に模式的に表したように、病変領域PIを視線VLに沿って肝臓の表面位置SFに平行投影した場合、生成される投影画像は図8に示したようになり、病変領域PIの投影位置PA´は、本発明の第1の実施形態における投影位置PAとは異なり、処置具の進入位置とは一致しなくなる。なお、投影位置PAは比較対照のために描いたものであり、図7に示した投影方法では描出されない。
以上のように、本発明の第1の実施形態によれば、投影画像生成部17が、3次元医用画像Vを入力として、視線設定部12によって設定された複数の視線VL上の画像情報を所与の投影面に投影した投影画像IPを生成する際に、交点検出部16が、病変位置特定部14によって特定された病変領域PIを、処置具位置設定部13によって設定された処置具の想定位置PTから病変領域PIまで処置具を接近させる際の操作方向に、肝臓の表面SFに平行投影することによって、交点PAを検出し、投影画像生成部17は、検出された交点PAを通る視線上の画像情報が投影される位置に、交点PAを識別可能な態様で表した投影画像IPを生成することができる。これにより、病変領域PIを包含する肝臓への処置具の進入位置を、投影画像IP上で容易かつ的確に把握することが可能になる。また、この投影画像IPは、手術の際の視野と同様のものとすることができるので、この投影画像IPを手術シミュレーションで用いることによって、観察者は、違和感を覚えたり、混乱をきたしたりすることなく、通常の手術時に患部を観察するのと同じ感覚で、肝臓中の病変領域PIに対する処置具の接近経路上の様子をより容易に把握することが可能になり、手術の精度や安全性の向上に資する。
また、病変位置特定部14によって抽出された病変位置PIは、処置具の操作方向に沿って肝臓の表面SFに平行投影されるので、病変位置PIの形状や大きさも肝臓の表面SF上にそのまま反映され、より観察に適した投影画像IPが得られる。
上記実施形態では、交点検出部16と投影画像生成部17とは、一体的に処理を行っているが、交点検出部16が、まず、病変領域PIを操作方向TLに沿って肝臓の表面SFに投影し、その投影された肝臓の表面SF上の位置の色情報をαTL・CTL+(1−αTL)・CSFに置換しておき、次に、投影画像生成部17が視線方向VLに平行投影を行うようにしてもよい。あるいは、先に、投影画像生成部17が視線方向VLに平行投影を行い、その後、交点検出部16が、病変領域PIを操作方向TLに沿って肝臓の表面SFに投影し、投影された位置PAが投影される投影画像IP中の位置を特定し、その位置の色情報をαTL・CTL+(1−αTL)・CSFに置換するようにしてもよい。
本発明の第2の実施形態は、肝臓内部の血管等の構造物PXに対して、色情報CX(≠0)、および、不透明度αX(0<αX<1)を割り当てるとともに、病変領域PIに対する不透明度αIを0<αI<1の範囲内に変更した形態である。また、交点検出部16と投影画像生成部17とは一体的に処理を行わず、上記のように交点検出部16、投影画像生成部17の順か、その逆の順に処理を行うようにした形態である。
これにより、図9に模式的に示したように、交点検出部16による処置具の操作方向TLのレイキャスティングの際、病変領域PIだけでなく、処置具位置PTと病変領域PIを結ぶ直線上にある、色情報CXおよび不透明度αXが割り当てられた構造物PXも肝臓の表面SFに投影される。図10は、本発明の第2の実施形態において生成される投影画像IPを模式的に表したものである。図に示したように、投影画像IP上において、操作方向TLと肝臓の表面SFが交わる位置に、病変領域PIを表す領域PAおよび他の構造物PXを表す領域PBが投影され、処置具の操作方向TLにおける病変領域PIと他の構造物PXとの位置関係が把握しやすくなるので、手術の際の要注意構造物(ここではPX)等の発見が容易になり、手術の精度や安全性がさらに向上する。一方、本発明の第1の実施形態に対する比較例と同様に、病変領域PIと他の構造物PXとを視線方向VLに投影した場合、投影画像IP上では、各々、PA´、PB´のように投影されてしまい、処置具の操作方向TLにおける病変領域PIと他の構造物PXとの位置関係が把握しづらくなってしまう。
本発明の第3の実施形態は、上記第2の実施形態において、さらに、肝臓の表面SFに割り当てられた不透明度αSFを0<αSF<1の範囲内に変更した形態である。これにより、図11に模式的に表したように、肝臓の表面SFを半透明化し、肝臓の内部の血管等の構造物を視認可能にしたボリュームレンダリング画像に、病変領域PIや構造物PXを処置具の操作方向TLに肝臓の表面SFに投影して重畳した投影画像IPを生成することが可能になり、肝臓の内部構造を観察しやすくしつつ、処置具の進入位置の把握も可能になる。
本発明の第4の実施形態は、公知のサーフェスレンダリング手法を用いて投影画像IPを生成するようにした形態である。具体的には、図12に模式的に示したように、病変位置特定部14が病変領域の表面モデルPIを生成するとともに、表面位置検出部15が肝臓の表面モデルSFを生成しておき、交点検出部16が、病変領域の表面モデルPIを処置具の操作方向TLに投影したときの肝臓の表面モデルSFとの交差部分に病変領域の表面モデルPIを表すテクスチャを貼り付け、投影画像生成部17が、視線方向VLから、病変領域の表面モデルPIを表すテクスチャが貼り付けられた肝臓の表面モデルSFを可視化した投影画像IPを生成する。これにより、レンダリング手法の違いはあるものの、第1の実施形態と同様の効果が得られる。
本発明の第5の実施の形態は、手術ナビゲーション機能が実装された内視鏡観察支援システムである。図13は、この内視鏡観察支援システムの概要を示すハードウェア構成図である。図に示したように、このシステムは、内視鏡101、デジタルプロセッサ102、光源装置103、実内視鏡画像用ディスプレイ104、モダリティ105、処置具106、内視鏡用マーカー107a、処置具用マーカー107b、位置センサ108、画像処理ワークステーション109、画像処理ワークステーション用ディスプレイ(以下、WSディスプレイ)110から構成されている。
本実施形態では、内視鏡101は腹腔用の硬性鏡であり、被検体の腹腔内に挿入される。光源装置103から光ファイバーで導かれた光が内視鏡101の先端部から照射され、内視鏡101の撮像光学系により被検体の腹腔内の画像が得られる。デジタルプロセッサ102は、内視鏡101で得られた撮像信号をデジタル画像信号に変換し、ホワイトバランス調整やシェーディング補正等のデジタル信号処理によって画質の補正を行った後、DICOM規格で規定された付帯情報を付加して、実内視鏡画像データ(IRE)を出力する。出力された実内視鏡画像データ(IRE)は、DICOM規格に準拠した通信プロトコルに従って、LAN経由で画像処理ワークステーション109に送信される。また、デジタルプロセッサ102は、実内視鏡画像データ(IRE)をアナログ信号に変換して実内視鏡画像用ディスプレイ104に出力し、実内視鏡画像用ディスプレイ104には実内視鏡画像(IRE)が表示される。内視鏡101での撮像信号の取得は所定のフレームレートで行われるので、実内視鏡用ディスプレイ4では、実内視鏡画像(IRE)が腹腔内を表す動画として表示される。さらに、内視鏡101では、ユーザの操作に応じて静止画撮影も可能である。
モダリティ105は、第1から第4の実施形態のモダリティ1と同様であり、形成された3次元医用画像データ(V)は、DICOM規格に準拠した通信プロトコルに従って、LAN経由で画像処理ワークステーション109に送信される。
内視鏡用マーカー107a、処置具用マーカー107b、および、位置センサ108は、公知の3次元位置計測装置を構成する。内視鏡用マーカー107a、処置具用マーカー107bは、各々、内視鏡101および処置具106の手元付近に設けられており、光学式の位置センサ108によって、所定の時間間隔で各マーカー107a、107bの3次元位置が検出される。内視鏡用マーカー107a、処置具用マーカー107bは、各々、複数のマーカー片から構成されているので、位置センサ108は、各マーカー片の位置関係から内視鏡101や処理具106の向きも検出可能であり、オフセット計算によって、内視鏡101や処置具106の先端部の3次元位置(PSE、PST)を算出することができる。位置センサ108は、算出された内視鏡101および処置具106の3次元位置データ(PSE、PST)を、USBインターフェースを介して画像処理ワークステーション109に送信する。
画像処理ワークステーション109は、CPU、主記憶装置、補助記憶装置、入出力インターフェース、通信インターフェース、データバス等の周知のハードウェア構成を備えたコンピュータであり、入力装置(ポインティングデバイス、キーボード等)や、WSディスプレイ110が接続されている。また、画像処理ワークステーション109は、デジタルプロセッサ102やモダリティ105とはLAN接続されており、位置センサ108とはUSB接続されている。さらに、画像処理ワークステーション109は、周知のオペレーティングシステムや各種アプリケーション・ソフトウェア等がインストールされたものであり、本発明の手術ナビゲーションを実行させるためのアプリケーションもインストールされている。これらのソフトウェアは、CD−ROM等の記録媒体からインストールされたものであってもよいし、インターネット等のネットワーク経由で接続されたサーバの記憶装置からダウンロードされた後にインストールされたものであってもよい。
図14は、本発明の第5の実施形態における内視鏡観察支援システムを機能レベルで分割したブロック図である。図に示したように、本発明の第5の実施形態となる内視鏡観察得支援システムは、内視鏡101、実内視鏡画像形成部102、実内視鏡画像用ディスプレイ104、3次元医用画像形成部105、処置具106、WSディスプレイ110、内視鏡位置検出部111、処置具位置検出部112、実内視鏡画像取得部121、内視鏡位置取得部122、処置具位置取得部123、3次元医用画像取得部124、病変位置特定部125、表面位置検出部126、交点検出部127、仮想内視鏡画像生成部128、表示制御部129から構成されている。なお、図13に示したハードウェア機器と図14に示した各機能ブロックとが概ね1対1に対応する場合には同じ符号を付している。すなわち、実内視鏡画像形成部102の機能は図13のデジタルプロセッサによって実現され、3次元医用画像形成部105の機能は図13のモダリティによって実現される。一方、内視鏡位置検出部111の機能は、内視鏡用マーカー107aおよび位置センサ108によって、処置具位置検出部112の機能は、処置具用マーカー107bおよび位置センサ108によって、各々実現される。また、破線枠は画像処理ワークステーション109を示しており、破線枠内の各処理部の機能は、画像処理ワークステーション109で所定のプログラムを実行することによって実現される。さらに、破線枠内の、実内視鏡画像IRE、内視鏡位置PE、処置具位置PT、3次元医用画像V、病変位置PI、病変を遮蔽する構造物(以下、遮蔽構造物という)の表面位置SF、仮想内視鏡画像IVEは、各々、破線枠内の各処理部によって、画像処理ワークステーション109の所定のメモリ領域に対して読み書きされるデータである。
次に、図15に示したフローチャートを用いて、本発明の第5の実施形態となる内視鏡観察支援システムで行われるユーザの操作や、上記各処理部で行われる処理の概略的な流れを説明する。
まず、内視鏡101を用いた被検体の腹腔内の観察に先立って、3次元医用画像形成部105による被検体の腹腔内の撮像により、3次元医用画像Vが形成される。画像処理ワークステーション109では、3次元医用画像取得部124が、3次元医用画像形成部105によって形成された3次元医用画像Vを取得した後(#101)、病変位置特定部125が、3次元医用画像Vに表された病変領域を抽出し、その位置PI(以下、第1の実施形態と同様に病変領域PIともいう)を特定するとともに(#102)、表面位置検出部126が、3次元医用画像Vから、遮蔽構造物の表面位置SFを検出する(#103)。
そして、図15のフローチャートの右側に付記したように、病変領域PIを対象とする内視鏡下手術中、すなわち、内視鏡101を用いた被検体の腹腔内の観察中は、観察が終了するまで(#113; YES)、実内視鏡画像形成部102は、所定のフレームレートで、体腔内に挿入された内視鏡101による実内視鏡画像IREを繰り返し形成し、形成された実内視鏡画像IREは実内視鏡画像用ディスプレイ104にスルー動画としてリアルタイムに表示される。また、内視鏡位置検出部111および処置具位置検出部112は、各々、所定の時間間隔で、体腔内に挿入された内視鏡101および処置具106の各々の位置PSE、PSTを繰り返しリアルタイムに検出する。
画像処理ワークステーション109では、実内視鏡画像取得部121が、実内視鏡画像形成部102で形成された実内視鏡画像IREを取得し(#104)、これとほぼ同じタイミングで、内視鏡位置取得部122が、内視鏡位置検出部111で検出された内視鏡位置PSEを取得し、取得された内視鏡位置PSEを3次元医用画像Vの座標系における位置に変換して得られた内視鏡位置PEを出力するとともに、処置具位置取得部123が、処置具位置検出部112で検出された処置具位置PSTを取得し、取得された処置具位置PSTを3次元医用画像Vの座標系における位置に変換して得られた処置具位置PTを出力する(#105)。
仮想内視鏡画像生成部128は、3次元医用画像取得部124によって取得された3次元医用画像Vを入力として、内視鏡位置取得部122によって取得された内視鏡位置PEを視点とする複数の視線上の画像情報を所与の投影面に中心投影した仮想内視鏡画像IVEを生成する(#106, #107, #109, #110, #111)。その際、交点検出部127が、処置具位置取得部123によって取得された処置具位置PTから病変位置特定部125によって特定された病変位置PIまで処理具106を移動させる際の想定経路(操作方向)と、表面位置検出部126によって検出された遮蔽構造物の表面SFとの交点PAを検出し(#108)、仮想内視鏡画像生成部128は、交点検出部127によって検出された交点PAを通る視線上の画像情報が投影される位置に、交点PAを識別可能な態様で表した仮想内視鏡画像IVEを生成する(#109)。
そして、表示制御部129は、実内視鏡画像取得部121によって取得された実内視鏡画像IREと、仮想内視鏡画像生成部128によって生成された仮想内視鏡画像IVEとを重畳させてWSディスプレイ110に表示させる(#112)。
画像処理ワークステーション109では、観察終了を指示する操作が行わない限り(#113; No)、新たな実内視鏡画像IREの取得(#104)、その時点での内視鏡位置PEおよび処置具位置PTの取得(#105)、仮想内視鏡画像IVEの生成(#106から#111)、実内視鏡画像IREと仮想内視鏡画像IVEの重畳表示の更新(#112)が繰り返し行われる。これにより、WSディスプレイ110では、実内視鏡画像IREと仮想内視鏡画像IVEとが時間的に同期した連続重畳表示が実現される。一方、観察終了を指示する操作が行われた場合には(#113; Yes)、画像処理ワークステーション109は、上記ステップ#104から#112までの繰返し処理を終了する。
次に、画像処理ワークステーション109内の各処理部で行われる処理の詳細について説明する。
実内視鏡画像取得部121は、実内視鏡画像形成部(デジタルプロセッサ)2との通信により、実内視鏡画像IREを受信し、画像処理ワークステーション109の所定のメモリ領域の格納する通信インターフェースであり、実内視鏡画像取得部121からの要求に基づいて実内視鏡画像形成部102から実内視鏡画像IREが転送される。
内視鏡位置取得部122は、内視鏡位置検出部111との通信により内視鏡位置PSEを取得する通信インターフェースとしての機能と、取得した内視鏡位置PSEを位置センサ108の3次元座標系から3次元医用画像Vの3次元座標系の座標値で表現された内視鏡位置PEに変換して画像処理ワークステーション109の所定のメモリ領域に格納する機能とを有する。前者の通信インターフェース機能では、内視鏡位置取得部122からの要求ベースで内視鏡位置検出部111から内視鏡位置PSEが取得される。また、後者の座標変換機能では、位置センサの3次元座標系における各座標軸と3次元医用画像Vの3次元座標系における各座標軸との向きの対応関係に基づいて、座標軸の回転量を予め求めておくとともに、3次元医用画像Vの原点に相当する被検体中の位置の、位置センサ108の3次元座標系における座標値を予め計測しておき、この原点の座標値に基づいて、両座標軸の平行移動量を求めておけば、その回転量の回転とその平行移動量の平行移動を行う行列を用いて、位置センサ108の3次元座標系で表現された内視鏡位置PSEを3次元医用画像Vの3次元座標系の座標値で表現された内視鏡位置PEに変換することができる。
処置具位置取得部123は、内視鏡位置取得部122と同様に、処置具位置検出部112との通信により処置具位置PSTを取得する通信インターフェースとしての機能と、取得した処置具位置PSTを位置センサ108の3次元座標系から3次元医用画像Vの3次元座標系の座標値で表現された処置具位置PTに変換して画像処理ワークステーション109の所定のメモリ領域に格納する機能とを有する。
3次元医用画像取得部124は、3次元医用画像形成部105から3次元医用画像Vを受信し、画像処理ワークステーション109の所定のメモリ領域に格納する通信インターフェース機能を有する。
病変位置特定部125は、第1から第4の実施形態の病変位置特定部14と同様である。
表面位置検出部126は、第1の実施形態と同様に公知の画像認識技術を用いた手法を用いて、または、内視鏡位置PEからの中心投影の際の各視線上において、画素値が所定の閾値以上に急激に変化する位置、あるいは、画素値が所定の閾値以上となる位置を検出することによって、遮蔽構造物の表面SFを検出する。
交点検出部127は、処置具位置PTが処置具位置取得部123から得られた実際の処置具106の位置である点を除いて第1から第4の実施形態の交点検出部16と同様である。
仮想内視鏡画像生成部128は、視線VL方向への平行投影ではなく、内視鏡位置取得部122で得られた内視鏡101の実際の位置PEを視点とする中心投影である点を除いて、第1から第4の実施形態の投影画像生成部17と同様である。すなわち、仮想内視鏡画像生成部128は、本発明における投影画像生成手段に相当する。
したがって、図15のステップ#106から#111までは図3のステップ#5から#10と同様である。すなわち、仮想内視鏡画像生成部128による視線方向レイキャスティングと交点検出部127による操作方向レイキャスティングとを組み合わせて行うことにより、病変領域PIは処置具106の実際の操作方向に遮蔽構造物の表面SFに平行投影され、実際の内視鏡の位置PEからの中心投影により、遮蔽構造物の表面SFとは異なる色情報が仮想内視鏡画像IVEの投影面に投影される。
表示制御部129は、実内視鏡画像IREと仮想内視鏡画像IVEとを視野の中心が一致するように重ね合わせた表示画像を生成し、WSディスプレイ110に出力する。両画像の重ね合わせは公知のアルファブレンド処理を用いることができる。図16はこの表示画像の一例を模式的に表したものであり、実内視鏡画像IREと、実内視鏡画像IREよりも視野の広い仮想内視鏡画像IVEとが重ね合わされ、仮想内視鏡画像IVE中において、遮蔽構造物の表面SFに操作方向に投影された病変領域PIがPAとして識別可能な態様で表示されている。
以上のように、本発明の第5の実施形態では、交点検出部127が、処置具位置検出部112によって検出され、処置具位置取得部123によって座標変換された、実際の処置具106のリアルタイムの位置PTを用いて、病変位置PIが投影される操作方向を決定するとともに、仮想内視鏡画像生成部128が、内視鏡位置検出部111によって検出され、内視鏡位置取得部122によって座標変換された、実際の内視鏡101のリアルタイムの位置PEを中心投影の視点として仮想内視鏡画像IVEを生成するので、内視鏡位置検出部111や処置具位置検出部112が内視鏡101や処置具106の位置をリアルタイムに検出した結果のフィードバックによって仮想内視鏡の視野や、処置具106の遮蔽構造物への進入位置PAがリアルタイムに変更された仮想内視鏡画像IVEが連続的に表示される、いわゆる拡張現実感表示(Augmented Reality)が実現され、内視鏡下手術を動的にかつ的確に支援することが可能になる。
上記の各実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。
また、上記の実施形態におけるシステム構成、ハードウェア構成、処理フロー、モジュール構成、ユーザインターフェースや具体的処理内容等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。
例えば、システム構成については、図1のシステム構成において、画像処理ワークステーション3を複数台で構成し、各ワークステーションで処理を分担してもよい。また、図13のシステム構成において、画像保管サーバをLAN上に接続し、モダリティ105で形成された3次元医用画像Vは、いったん画像保管サーバのデータベースに格納されるようにし、画像処理ワークステーション109からの要求に応じて、画像保管サーバから画像処理ワークステーション109に3次元医用画像Vが転送されるようにしてもよい。
また、ハードウェア構成については、図1のモダリティ1や図13のモダリティ105は、上記のCT装置のほか、超音波診断装置やMRI装置等を用いてもよい。また、図13の内視鏡101は、硬性鏡ではなく、軟性鏡やカプセル型内視鏡を用いてもよい。さらに、内視鏡位置検出部111や処置具位置検出部112は、磁気式のものを用いてもよいし、上記特許文献2に記載されているように、ジャイロやロータリーエンコーダ等を用いてもよい。
観察部位は肝臓や腹腔内ではなく、胸腔内等、被検体の他の部位であってもよい。
さらに、画像処理ワークステーション3、109の処理では、3次元医用画像取得部11、124は、3次元医用画像Vを術前に取得するようにしてもよいし、術中に取得するようにしてもよい。ここで、第5の実施形態の場合、3次元医用画像Vを術中に取得する場合には、内視鏡用マーカー107a、処置具用マーカー107b、位置センサ108を用いずに、術中に取得された3次元医用画像Vから公知のパターン認識により内視鏡101や処置具106の位置を検出するようにしてもよい。また、術中に3次元医用画像を連続的に取得する場合、被検体の被ばく量低減のため、モダリティ1、105には超音波診断装置を用いることが好ましい。
病変位置特定部125は、予め3次元医用画像Vの付帯情報として関連づけられた病変位置PIの情報を取得するようにしてもよい。
交点検出部16、127は、表面位置SF上ではなく、表面位置SFと等価な位置、例えば、表面位置SFから数画素程度離れた位置等に、病変位置PIを平行投影するようにしてもよい。
また、交点検出部16,127は、病変位置PIを操作方向に表面位置SF上に平行投影する代わりに、病変領域PIの中心と処置具位置PTとを結んだ操作方向を表す直線と表面位置SFとの交点PAの位置を算出するようにし、投影画像生成部17または仮想内視鏡画像生成部128は、投影画像IPまたは仮想内視鏡画像IVE上における交点PAの位置に、矢印や丸印等のマーカー、テキストコメント等のアノテーションを付加するようにしてもよい。
第1の実施形態における投影画像生成部17は、中心投影によって投影画像IPを生成するようにしてもよい。この場合、視線設定部12の代わりに、視点位置を手動設定する処理部を設ければよい。
内視鏡位置取得部122や処置具位置取得部123で行われる座標変換を仮想内視鏡画像生成部128で行うようにしてもよい。
1 モダリティ
2 画像保管サーバ
3 画像処理ワークステーション
9 ネットワーク
11 3次元医用画像取得部
12 視線設定部
13 処置具位置設定部
14 病変位置特定部
15 表面位置検出部
16 交点検出部
17 投影画像生成部
18 表示制御部
101 内視鏡
102 デジタルプロセッサ
103 光源装置
104 実内視鏡画像用ディスプレイ
105 モダリティ
106 処置具
107a 内視鏡用マーカー
107b 処置具用マーカー
108 位置センサ
109 画像処理ワークステーション
110 画像処理ワークステーション用ディスプレイ
111 内視鏡位置検出部
112 処置具位置検出部
121 実内視鏡画像取得部
122 内視鏡位置取得部
123 処置具位置取得部
124 3次元医用画像取得部
125 病変位置特定部
126 表面位置検出部
127 交点検出部
128 仮想内視鏡画像生成部
129 表示制御部

Claims (11)

  1. 3次元医用画像を入力として、該3次元医用画像に表された第1の構造物を所与の視点から見る複数の視線上の画像情報を所与の投影面に投影した投影画像を生成する投影画像生成手段を備えた投影画像生成装置であって、
    前記3次元医用画像の座標空間内に処置具の想定位置を設定する処置具位置設定手段と、
    前記3次元医用画像から前記第1の構造物の表面を検出する表面検出手段と、
    前記3次元医用画像に表された、前記処置具の想定位置から見たときに前記第1の構造物によって遮蔽される位置にある第2の構造物を特定する第2の構造物特定手段と、
    前記処置具を前記想定位置から前記第2の構造物に接近させる際の想定経路と前記第1の構造物の表面との交点を検出する交点検出手段とをさらに備え、
    前記投影画像生成手段が、前記投影面上における、前記視点と前記交点とを結ぶ視線上の画像情報が投影される位置に、前記交点を識別可能な態様で表した前記投影画像を生成するものであることを特徴とする投影画像生成装置。
  2. 前記交点検出手段は、前記第2の構造物を、該第2の構造物から前記処置具の想定位置に向かう方向にある前記第1の構造物の表面に投影することによって、前記交点を検出するものであり、
    前記投影画像生成手段は、前記第1の構造物の表面に投影された前記第2の構造物を、前記視点から前記投影面に投影することによって、前記交点を識別可能な態様で表すものであることを特徴とする請求項1に記載の投影画像生成装置。
  3. 前記交点検出手段は、前記処置具の位置から見て前記第2の構造物の手前にある第3の構造物を、該第2の構造物から前記処置具の想定位置に向かう方向にある前記第1の構造物の表面にさらに投影するものであることを特徴とする請求項2に記載の投影画像生成装置。
  4. 前記第1の構造物の表面への投影は平行投影であることを特徴とする請求項2または3に記載の投影画像生成装置。
  5. 被検体の体腔内に挿入された内視鏡の位置をリアルタイムに検出する内視鏡位置検出手段をさらに備え、
    前記所与の視点の位置が、前記3次元医用画像の座標空間における、前記内視鏡位置検出手段によって検出された前記内視鏡の位置に対応する位置であることを特徴とする請求項1から4のいずれか1項に記載の投影画像生成装置。
  6. 前記内視鏡によるリアルタイムの撮像によって前記体腔内を表す実内視鏡画像を形成する実内視鏡画像形成手段と、
    前記実内視鏡画像と、該実内視鏡画像の形成とほぼ同じタイミングで前記内視鏡位置検出手段によって検出された前記内視鏡の位置に基づく前記投影画像とを重畳させた重畳画像を生成する重畳画像生成手段とをさらに備えたことを特徴とする請求項5に記載の投影画像生成装置。
  7. 被検体の体腔内に挿入された処置具の位置をリアルタイムに検出する処置具位置検出手段をさらに備え、
    前記処置具の想定位置が、前記3次元医用画像の座標空間における、前記処置具位置検出手段によって検出された前記処置具の位置に対応する位置であることを特徴とする請求項1から6のいずれか1項に記載の投影画像生成装置。
  8. 前記第2の構造物は手術対象部位であることを特徴とする請求項1から7のいずれか1項に記載の投影画像生成装置。
  9. 前記第3の構造物は手術において注意を有する解剖学的構造物であることを特徴とする請求項1から8のいずれか1項に記載の投影画像生成装置。
  10. 3次元医用画像を入力として、該3次元医用画像に表された第1の構造物を所与の視点から見る複数の視線上の画像情報を所与の投影面に投影した投影画像を生成するステップを有する投影画像生成方法であって、
    前記3次元医用画像の座標空間において、前記視点から前記第1の構造物を見たときの該第1の構造物の正面側であって、該第1の構造物の外側に、処置具の想定位置を設定するステップと、
    前記3次元医用画像から前記第1の構造物の表面を検出するステップと、
    前記3次元医用画像に表された、前記処置具の想定位置から見たときに前記第1の構造物によって遮蔽される位置にある第2の構造物を特定するステップと、
    前記処置具を前記想定位置から前記第2の構造物に接近させる際の想定経路と前記第1の構造物の表面との交点を検出するステップとをさらに有し、
    前記投影画像を生成するステップにおいて、前記投影面上における、前記視点と前記交点とを結ぶ視線上の画像情報が投影される位置に、前記交点を識別可能な態様で表した前記投影画像を生成することを特徴とする投影画像生成方法。
  11. コンピュータに、3次元医用画像を入力として、該3次元医用画像に表された第1の構造物を所与の視点から見る複数の視線上の画像情報を所与の投影面に投影した投影画像を生成するステップを実行させる投影画像生成プログラムであって、該コンピュータに、
    前記3次元医用画像の座標空間内に処置具の想定位置を設定するステップと、
    前記3次元医用画像から前記第1の構造物の表面を検出するステップと、
    前記3次元医用画像に表された、前記処置具の想定位置から見たときに前記第1の構造物によって遮蔽される位置にある第2の構造物を特定するステップと、
    前記処置具を前記想定位置から前記第2の構造物に接近させる際の想定経路と前記第1の構造物の表面との交点を検出するステップとをさらに実行させ、
    前記投影画像を生成するステップにおいて、前記投影面上における、前記視点と前記交点とを結ぶ視線上の画像情報が投影される位置に、前記交点を識別可能な態様で表した前記投影画像を生成させることを特徴とする投影画像生成プログラム。
JP2010084272A 2010-03-31 2010-03-31 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム Active JP5551957B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010084272A JP5551957B2 (ja) 2010-03-31 2010-03-31 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
EP11152080A EP2372660A2 (en) 2010-03-31 2011-01-25 Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
US13/016,131 US8611988B2 (en) 2010-03-31 2011-01-28 Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
CN201110034594.4A CN102208114B (zh) 2010-03-31 2011-01-31 投影图像生成技术

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010084272A JP5551957B2 (ja) 2010-03-31 2010-03-31 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム

Publications (2)

Publication Number Publication Date
JP2011212301A true JP2011212301A (ja) 2011-10-27
JP5551957B2 JP5551957B2 (ja) 2014-07-16

Family

ID=44202067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084272A Active JP5551957B2 (ja) 2010-03-31 2010-03-31 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム

Country Status (4)

Country Link
US (1) US8611988B2 (ja)
EP (1) EP2372660A2 (ja)
JP (1) JP5551957B2 (ja)
CN (1) CN102208114B (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013103032A1 (ja) * 2012-01-05 2013-07-11 オムロン株式会社 画像検査装置の検査領域設定方法
JP2014045884A (ja) * 2012-08-30 2014-03-17 Olympus Medical Systems Corp 医療機器
JP2014225105A (ja) * 2013-05-15 2014-12-04 国立大学法人 東京大学 画像処理装置及びプログラム
JP2015535466A (ja) * 2012-11-23 2015-12-14 アイカード インコーポレイテッドIcad, Inc. トモシンセシス医療用画像データ読影におけるワークフロー効率を改善するためのシステム及び方法
JP2016013438A (ja) * 2014-07-01 2016-01-28 株式会社東芝 医用画像処理装置
JP2016039874A (ja) * 2014-08-13 2016-03-24 富士フイルム株式会社 内視鏡画像診断支援装置、システム、方法およびプログラム
JP2017113050A (ja) * 2015-12-21 2017-06-29 キヤノンマーケティングジャパン株式会社 医用画像処理装置、その制御方法、及びプログラム
JP2018019993A (ja) * 2016-08-05 2018-02-08 国立大学法人千葉大学 画像作成装置、画像作成システム、画像作成方法およびダミー器具
JP2018094409A (ja) * 2016-12-12 2018-06-21 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線診断装置及び医用画像処理方法
WO2020110278A1 (ja) * 2018-11-30 2020-06-04 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
JP7414585B2 (ja) 2020-02-28 2024-01-16 富士フイルムヘルスケア株式会社 医用画像録画装置およびx線撮像装置

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011001322A1 (en) * 2009-06-29 2011-01-06 Koninklijke Philips Electronics N.V. Visualizing surgical trajectories
JP5421828B2 (ja) * 2010-03-17 2014-02-19 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
DE102011005259A1 (de) * 2011-03-08 2012-09-13 Olympus Winter & Ibe Gmbh Verfahren und System zur Darstellung videoendoskopischer Bilddaten eines Videoendoskops
WO2012165572A1 (ja) * 2011-06-01 2012-12-06 株式会社 東芝 医用画像表示装置及び医用画像診断装置
EP2804557B1 (en) * 2012-01-17 2018-04-25 Sunnybrook Health Sciences Centre Method for three-dimensional localization of an object from a two-dimensional medical image
JP5918548B2 (ja) * 2012-01-24 2016-05-18 富士フイルム株式会社 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
JP6221166B2 (ja) * 2012-10-22 2017-11-01 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 表示装置、医用装置、およびプログラム
US20140176661A1 (en) * 2012-12-21 2014-06-26 G. Anthony Reina System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom)
JP2014127011A (ja) * 2012-12-26 2014-07-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
DE102013200898A1 (de) * 2013-01-21 2014-07-24 Siemens Aktiengesellschaft Endoskop, insbesondere für die minimal-invasive Chirurgie
JP6026932B2 (ja) * 2013-03-22 2016-11-16 富士フイルム株式会社 医用画像表示制御装置および方法並びにプログラム
JP6145875B2 (ja) * 2013-07-31 2017-06-14 富士フイルム株式会社 医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム
WO2015172227A1 (en) * 2014-05-13 2015-11-19 Pcp Vr Inc. Method, system and apparatus for generation and playback of virtual reality multimedia
JP6323184B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
JP6750194B2 (ja) * 2015-06-19 2020-09-02 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
CN107924459B (zh) * 2015-06-24 2021-08-27 埃达技术股份有限公司 用于肾结石去除程序的交互式3d镜放置和测量的方法和系统
JP6667231B2 (ja) * 2015-08-31 2020-03-18 キヤノン株式会社 情報処理装置、画像処理装置、情報処理システム、情報処理方法、及びプログラム。
DE102015226669B4 (de) 2015-12-23 2022-07-28 Siemens Healthcare Gmbh Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
WO2017131184A1 (ja) 2016-01-28 2017-08-03 シャープ株式会社 書物電子化方法および書物電子化装置
EP3179450B1 (de) * 2016-04-12 2020-09-09 Siemens Healthcare GmbH Verfahren zur multisensorischen darstellung eines objekts und darstellungssystem
US10610302B2 (en) * 2016-09-20 2020-04-07 Siemens Healthcare Gmbh Liver disease assessment in medical imaging
US10201389B2 (en) * 2016-10-31 2019-02-12 Edda Technology, Inc. Method and system for interactive grid placement and measurements for lesion removal
DE102017203048B3 (de) * 2017-02-24 2018-03-15 Siemens Healthcare Gmbh Verfahren zum Bestimmen eines Projektionsdatensatzes, Projektionsbestimmungssystem, Computerprogrammprodukt und computerlesbares Speichermedium
EP3787543A4 (en) 2018-05-02 2022-01-19 Augmedics Ltd. REGISTRATION OF A REFERENCE MARK FOR AN AUGMENTED REALITY SYSTEM
CN109272483B (zh) * 2018-08-01 2021-03-30 安翰科技(武汉)股份有限公司 胶囊内镜阅片及质量控制的系统及控制方法
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
CN111609847B (zh) * 2020-04-23 2023-08-15 上海理工大学 一种面向薄板件的机器人拍照测量系统自动规划方法
CN113645396B (zh) * 2020-04-27 2023-07-25 成都术通科技有限公司 图像叠加方法、装置、设备及存储介质
WO2022154847A1 (en) 2021-01-12 2022-07-21 Emed Labs, Llc Health testing and diagnostics platform
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11373756B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11610682B2 (en) 2021-06-22 2023-03-21 Emed Labs, Llc Systems, methods, and devices for non-human readable diagnostic tests
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
AU2022349022A1 (en) * 2021-09-27 2024-05-02 iMIRGE Medical INC. Anatomical scanning, targeting, and visualization

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000500031A (ja) * 1995-07-16 2000-01-11 ウルトラ−ガイド リミティド フリーハンドでの針案内の照準
JP2000083941A (ja) * 1998-09-08 2000-03-28 Toshiba Corp X線コンピュータ断層撮影装置
JP2000197630A (ja) * 1998-10-27 2000-07-18 Shimadzu Corp 断層撮影装置
JP2002253480A (ja) * 2001-03-02 2002-09-10 Olympus Optical Co Ltd 医療処置補助装置
JP2003339644A (ja) * 2002-05-24 2003-12-02 Hitachi Medical Corp 臓器の切除領域抽出表示装置
JP2005052217A (ja) * 2003-08-06 2005-03-03 Ge Medical Systems Global Technology Co Llc Ct画像表示方法およびct装置
JP2005058584A (ja) * 2003-08-19 2005-03-10 Toshiba Corp 超音波診断装置
JP2006187385A (ja) * 2005-01-04 2006-07-20 Olympus Corp 内視鏡装置及びその接触位置取得方法
JP2006218129A (ja) * 2005-02-10 2006-08-24 Olympus Corp 手術支援システム
JP2007007041A (ja) * 2005-06-29 2007-01-18 Hitachi Medical Corp 手術支援装置
JP2007531553A (ja) * 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ 術中ターゲティングのシステムおよび方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638819A (en) * 1995-08-29 1997-06-17 Manwaring; Kim H. Method and apparatus for guiding an instrument to a target
JP5030335B2 (ja) 2001-03-06 2012-09-19 オリンパス株式会社 医用画像表示装置
US20050033117A1 (en) * 2003-06-02 2005-02-10 Olympus Corporation Object observation system and method of controlling object observation system
US9259195B2 (en) * 2003-06-18 2016-02-16 Koninklijke Philips N.V. Remotely held needle guide for CT fluoroscopy
JP4365630B2 (ja) 2003-07-01 2009-11-18 オリンパス株式会社 手術支援装置
US7232409B2 (en) * 2003-11-20 2007-06-19 Karl Storz Development Corp. Method and apparatus for displaying endoscopic images
JP4698966B2 (ja) * 2004-03-29 2011-06-08 オリンパス株式会社 手技支援システム
JP4109224B2 (ja) * 2004-07-01 2008-07-02 ザイオソフト株式会社 展開画像投影方法、展開画像投影プログラム、展開画像投影装置
US7536216B2 (en) * 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
CN1803102A (zh) * 2005-12-02 2006-07-19 北京航空航天大学 基于医学图像的预显示穿刺轨迹的受限手术规划方法
JP4450797B2 (ja) * 2006-01-05 2010-04-14 ザイオソフト株式会社 画像処理方法および画像処理プログラム
US20090156895A1 (en) * 2007-01-31 2009-06-18 The Penn State Research Foundation Precise endoscopic planning and visualization
JP4493679B2 (ja) 2007-03-29 2010-06-30 富士フイルム株式会社 対象領域抽出方法および装置ならびにプログラム
JP4964171B2 (ja) 2008-02-29 2012-06-27 富士フイルム株式会社 対象領域抽出方法および装置ならびにプログラム
CN101477706B (zh) * 2008-12-19 2010-09-15 天津工业大学 基于医用图像的模拟手术规划方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000500031A (ja) * 1995-07-16 2000-01-11 ウルトラ−ガイド リミティド フリーハンドでの針案内の照準
JP2000083941A (ja) * 1998-09-08 2000-03-28 Toshiba Corp X線コンピュータ断層撮影装置
JP2000197630A (ja) * 1998-10-27 2000-07-18 Shimadzu Corp 断層撮影装置
JP2002253480A (ja) * 2001-03-02 2002-09-10 Olympus Optical Co Ltd 医療処置補助装置
JP2003339644A (ja) * 2002-05-24 2003-12-02 Hitachi Medical Corp 臓器の切除領域抽出表示装置
JP2005052217A (ja) * 2003-08-06 2005-03-03 Ge Medical Systems Global Technology Co Llc Ct画像表示方法およびct装置
JP2005058584A (ja) * 2003-08-19 2005-03-10 Toshiba Corp 超音波診断装置
JP2007531553A (ja) * 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ 術中ターゲティングのシステムおよび方法
JP2006187385A (ja) * 2005-01-04 2006-07-20 Olympus Corp 内視鏡装置及びその接触位置取得方法
JP2006218129A (ja) * 2005-02-10 2006-08-24 Olympus Corp 手術支援システム
JP2007007041A (ja) * 2005-06-29 2007-01-18 Hitachi Medical Corp 手術支援装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013103032A1 (ja) * 2012-01-05 2013-07-11 オムロン株式会社 画像検査装置の検査領域設定方法
JP2014045884A (ja) * 2012-08-30 2014-03-17 Olympus Medical Systems Corp 医療機器
JP2015535466A (ja) * 2012-11-23 2015-12-14 アイカード インコーポレイテッドIcad, Inc. トモシンセシス医療用画像データ読影におけるワークフロー効率を改善するためのシステム及び方法
JP2014225105A (ja) * 2013-05-15 2014-12-04 国立大学法人 東京大学 画像処理装置及びプログラム
JP2016013438A (ja) * 2014-07-01 2016-01-28 株式会社東芝 医用画像処理装置
JP2016039874A (ja) * 2014-08-13 2016-03-24 富士フイルム株式会社 内視鏡画像診断支援装置、システム、方法およびプログラム
JP2017113050A (ja) * 2015-12-21 2017-06-29 キヤノンマーケティングジャパン株式会社 医用画像処理装置、その制御方法、及びプログラム
JP2018019993A (ja) * 2016-08-05 2018-02-08 国立大学法人千葉大学 画像作成装置、画像作成システム、画像作成方法およびダミー器具
JP2018094409A (ja) * 2016-12-12 2018-06-21 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線診断装置及び医用画像処理方法
JP7160529B2 (ja) 2016-12-12 2022-10-25 キヤノンメディカルシステムズ株式会社 医用画像処理装置、x線診断装置及び医用画像処理方法
WO2020110278A1 (ja) * 2018-11-30 2020-06-04 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
JPWO2020110278A1 (ja) * 2018-11-30 2021-10-28 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
JP7127785B2 (ja) 2018-11-30 2022-08-30 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
US11907849B2 (en) 2018-11-30 2024-02-20 Olympus Corporation Information processing system, endoscope system, information storage medium, and information processing method
JP7414585B2 (ja) 2020-02-28 2024-01-16 富士フイルムヘルスケア株式会社 医用画像録画装置およびx線撮像装置

Also Published As

Publication number Publication date
US8611988B2 (en) 2013-12-17
JP5551957B2 (ja) 2014-07-16
US20110245660A1 (en) 2011-10-06
CN102208114A (zh) 2011-10-05
EP2372660A2 (en) 2011-10-05
CN102208114B (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
JP5551957B2 (ja) 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
JP5535725B2 (ja) 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP5421828B2 (ja) 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP5380348B2 (ja) 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
CN103356155A (zh) 虚拟内窥镜辅助的腔体病灶检查系统
US9808145B2 (en) Virtual endoscopic image generation device, method, and medium containing program
US9830737B2 (en) Virtual endoscopic image generation device, method, and medium containing program
WO2012014438A1 (ja) 内視鏡観察を支援する装置および方法、並びに、プログラム
JP6145870B2 (ja) 画像表示装置および方法、並びにプログラム
WO2016054775A1 (zh) 超声虚拟内窥成像系统和方法及其装置
US10803645B2 (en) Visualization of anatomical cavities
Habert et al. Multi-layer visualization for medical mixed reality
JP2013048688A (ja) 画像処理装置、画像処理方法及びプログラム
Kumar et al. Stereoscopic augmented reality for single camera endoscope using optical tracker: a study on phantom
JP6662580B2 (ja) 医用画像処理装置
JP5751993B2 (ja) 画像処理装置、画像処理方法及びプログラム
De Paolis Advanced navigation and augmented visualization in minimally invasive surgery
JP2018102913A (ja) 解剖学的空腔の壁への距離の可視化
JP2016036687A (ja) 画像処理装置、医用画像診断システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140523

R150 Certificate of patent or registration of utility model

Ref document number: 5551957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250