JP2014124384A - 仮想内視鏡画像表示装置および方法並びにプログラム - Google Patents

仮想内視鏡画像表示装置および方法並びにプログラム Download PDF

Info

Publication number
JP2014124384A
JP2014124384A JP2012283873A JP2012283873A JP2014124384A JP 2014124384 A JP2014124384 A JP 2014124384A JP 2012283873 A JP2012283873 A JP 2012283873A JP 2012283873 A JP2012283873 A JP 2012283873A JP 2014124384 A JP2014124384 A JP 2014124384A
Authority
JP
Japan
Prior art keywords
line
virtual endoscopic
endoscopic image
sight vector
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012283873A
Other languages
English (en)
Other versions
JP5947707B2 (ja
Inventor
Yoshinori Itai
善則 板井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012283873A priority Critical patent/JP5947707B2/ja
Priority to PCT/JP2013/007402 priority patent/WO2014103238A1/ja
Publication of JP2014124384A publication Critical patent/JP2014124384A/ja
Priority to US14/747,027 priority patent/US9619938B2/en
Application granted granted Critical
Publication of JP5947707B2 publication Critical patent/JP5947707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B45/00ICT specially adapted for bioinformatics-related data visualisation, e.g. displaying of maps or networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B5/00ICT specially adapted for modelling or simulations in systems biology, e.g. gene-regulatory networks, protein interaction networks or metabolic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biotechnology (AREA)
  • Evolutionary Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Abstract

【課題】マウスなどの簡易な操作のみによって、注目点の周辺の仮想内視鏡画像を順次生成して表示し、かつ注目点を正面から見た観察し易い仮想内視鏡画像を生成して表示する。
【解決手段】注目点の指定を受付け、その後、マウスなどの操作部において受け付けられた操作量に基づいて初期視点からの経路上の移動距離を取得し、その取得した移動距離に基づいて、内視鏡の視点を初期視点から経路上に沿って注目点に向かって近づけ、かつ視線方向を注目点の方向に近づけるように変更することによって、初期視点を始点とする初期視線ベクトルから注目点と視点との距離が最短となる最短視線ベクトルまで視線ベクトルを順次変更して設定し、その設定した視線ベクトルに基づいて、仮想内視鏡画像を順次生成し、その生成した仮想内視鏡画像を順次表示させる。
【選択図】図6

Description

本発明は、被検体の3次元画像に基づいて、内視鏡によって撮影が行われたものとして仮想的な内視鏡画像を生成し、その仮想内視鏡画像を表示させる仮想内視鏡画像表示装置および方法並びにプログラムに関するものである。
近年、CT(Computed Tomography)装置などのモダリティによって撮影された3次元画像から患者の大腸、小腸、気管支および血管などの管状組織を抽出し、その抽出した管状組織の3次元画像を画像診断に用いることが行われている。
たとえば、大腸コロノグラフィーにおいては、大腸領域の3次元画像に基づいて、その大腸領域の内部を通過する内視鏡の経路を決定し、その決定した経路に沿って視点を動かしながら実際にその視点から内視鏡によって撮影された画像と類似した仮想内視鏡画像を生成し、この仮想内視鏡画像を表示することによって目標とする地点までの経路をナビゲーションする技術が提案されている。
特開2011−206297号公報
ここで、上述したような大腸コロノグラフィーにおいて、たとえば腫瘤のような病変部と疑われる部分が発見された場合には、その病変部を仮想内視鏡画像上において確認したい場合がある。
このような場合、従来は、その病変部に近いと思われる内視鏡の視点位置と、病変部へ向いた内視鏡の視線方向とをユーザが設定入力する必要があり、煩わしい作業となっていた。また、必ずしも病変部に向いた視線方向がユーザによって設定入力されているとは限らず、これらに基づいて生成された仮想内視鏡画像内の適切な位置に病変部が現れていない場合もあり、視点位置と視線方向の微調整が必要となっていた。
また、病変部近傍だけでなく、病変部の周囲の状態も観察したい場合もあり、このような場合、ユーザがわざわざ視点位置と視線方向とを改めて設定入力する必要があり、さらに煩わしい作業となっていた。特に、大腸内の襞に病変部らしき部分が存在する場合には、その襞の一方の面から見た仮想内視鏡画像だけでなく、他方の面、すなわち襞の裏側から見た仮想内視鏡画像を観察したい場合もあり、このような場合にも、これらの仮想内視鏡画像を生成するために視点位置と視線方向をわざわざ設定入力し直す必要があり、診断効率の低下を招くことになっていた。
なお、特許文献1には、所望の注目点を含む仮想内視鏡画像を生成する際、その注目点を正面から見た仮想内視鏡画像を自動的に生成することによって注目点を観察し易くする方法が提案されているが、特許文献1に記載の方法では、注目点を正面から見た仮想内視鏡画像しか観察することができず、その注目点の周辺の仮想内視鏡画像を観察することができず、このような仮想内視鏡画像を生成するためには、やはり視点位置と視線方向の設定入力が改めて必要である。
本発明は、上記事情に鑑み、マウスなどの操作部による簡易な操作のみによって、病変部など注目点の周辺の仮想内視鏡画像を順次生成して表示することができるとともに、注目点を正面から見た観察し易い仮想内視鏡画像を生成して表示することができる仮想内視鏡画像表示装置および方法並びにプログラムを提供することを目的とするものである。
本発明の仮想内視鏡画像表示装置は、被検体の3次元画像に基づいて、被検体内に挿入された内視鏡によって撮影が行われたものとして仮想的な仮想内視鏡画像を生成する仮想内視鏡画像生成部と、仮想内視鏡画像を表示させる表示制御部とを備えた仮想内視鏡画像表示装置において、被検体の3次元画像上における内視鏡の経路を設定する経路設定部と、仮想内視鏡画像上における注目点の指定を受け付ける注目点指定受付部と、注目点の受付け後、操作部において受け付けられた操作量を取得する操作量取得部と、操作量取得部によって取得された操作量に基づいて、仮想的な内視鏡の経路上の初期視点からの移動距離を取得する移動距離取得部と、移動距離取得部によって取得された移動距離に基づいて、仮想的な内視鏡の視点を初期視点から経路上に沿って注目点に向かって近づけ、かつ仮想的な内視鏡の視線方向を注目点の方向に近づけるように変更することによって、初期視点を始点とする初期視線ベクトルから、注目点から最短距離である経路上の視点と注目点とを結ぶ最短視線ベクトルまで視線ベクトルを順次変更して設定する視線ベクトル設定部とを備え、仮想内視鏡画像生成部が、視線ベクトル設定部において設定された視線ベクトルに基づいて、仮想内視鏡画像を順次生成し、表示制御部が、視線ベクトルの変更に応じて仮想内視鏡画像を順次表示させるものであることを特徴とする。
また、上記本発明の仮想内視鏡画像表示装置においては、視線ベクトル設定部を、最短視線ベクトルの視点から経路上に沿ってさらに進めた視点と注目点とを結ぶ視線ベクトルをさらに設定するものとできる。
また、視線ベクトル設定部を、操作部における操作が終了した際、現在設定している視線ベクトルの視点を初期視点に変更して視点ベクトルを設定するものとできる。
また、視線ベクトル設定部を、現在設定している視線ベクトルの視点から初期視点に変更するまで視線ベクトルを順次変更して設定するものとし、表示制御部を、視線ベクトルの変更に応じて仮想内視鏡画像を順次表示させるものとできる。
また、仮想内視鏡画像生成部を、操作部における操作中において、仮想内視鏡画像の記録指示を受け付け、その記録指示を受け付けた時点において設定されている視線ベクトルに基づいて生成された仮想内視鏡画像を記録するものとできる。
また、視線ベクトル設定部を、視点が注目点に近づくにつれて視線方向が徐々に注目点の方向に近づくように視線ベクトルを順次設定するものとできる。
また、視線ベクトル設定部を、視点が初期視点側に存在するときよりも注目点から最短距離である経路上の視点側に存在するときの方が、視線ベクトルが最短視線ベクトルに近づく変化量を大きくするものとできる。
また、視線ベクトル設定部において最短視線ベクトルが設定されていることを報知する報知部を設けることができる。
また、視線ベクトル設定部において現在設定されている視線ベクトルが、最短視線ベクトルの視点よりも経路上をさらに進んだ視点を含む視線ベクトルであることを報知する報知部を設けることができる。
また、3次元画像上における初期視点の指定を受け付ける初期視点指定受付部を設けることができる。
また、注目点指定受付部をマウスを備えたものとし、仮想内視鏡画像上に表示されたカーソルの位置の指定とマウスにおけるクリック操作とを受け付けることによって注目点の指定を受け付けるものとできる。
また、操作部をマウスを備えたものとし、操作量取得部を、マウスのドラッグ操作またはホイール操作の操作量を取得するものとできる。
本発明の仮想内視鏡画像表示方法は、被検体の3次元画像に基づいて、被検体内に挿入された内視鏡によって撮影が行われたものとして仮想的な仮想内視鏡画像を生成し、その生成した仮想内視鏡画像を表示させる仮想内視鏡画像表示方法において、被検体の3次元画像上における内視鏡の経路を設定し、仮想内視鏡画像上における注目点の指定を受け付け、注目点の受付け後、操作部において受け付けられた操作量を取得し、その取得した操作量に基づいて、仮想的な内視鏡の経路上の初期視点からの移動距離を取得し、その取得した移動距離に基づいて、仮想的な内視鏡の視点を初期視点から経路上に沿って注目点に向かって近づけ、かつ仮想的な内視鏡の視線方向を注目点の方向に近づけるように変更することによって、初期視点を始点とする初期視線ベクトルから、注目点から最短距離である経路上の視点と注目点とを結ぶ最短視線ベクトルまで視線ベクトルを順次変更して設定し、その設定した視線ベクトルに基づいて、仮想内視鏡画像を順次生成し、その生成した仮想内視鏡画像を順次表示させることを特徴とする。
本発明の仮想内視鏡画像表示プログラムは、コンピュータを、被検体の3次元画像に基づいて、被検体内に挿入された内視鏡によって撮影が行われたものとして仮想的な仮想内視鏡画像を生成する仮想内視鏡画像生成部と、仮想内視鏡画像を表示させる表示制御部として機能させる仮想内視鏡画像表示プログラムであって、コンピュータを、さらに被検体の3次元画像上における内視鏡の経路を設定する経路設定部と、仮想内視鏡画像上における注目点の指定を受け付ける注目点指定受付部と、注目点の受付け後、操作部において受け付けられた操作量を取得する操作量取得部と、操作量取得部によって取得された操作量に基づいて、仮想的な内視鏡の経路上の初期視点からの移動距離を取得する移動距離取得部と、移動距離取得部によって取得された移動距離に基づいて、仮想的な内視鏡の視点を初期視点から経路上に沿って注目点に向かって近づけ、かつ仮想的な内視鏡の視線方向を注目点の方向に近づけるように変更することによって、初期視点を始点とする初期視線ベクトルから、注目点から最短距離である経路上の視点と注目点とを結ぶ最短視線ベクトルまで視線ベクトルを順次変更して設定する視線ベクトル設定部として機能させ、仮想内視鏡画像生成部が、視線ベクトル設定部において設定された視線ベクトルに基づいて、仮想内視鏡画像を順次生成し、表示制御部が、視線ベクトルの変更に応じて仮想内視鏡画像を順次表示させるものであることを特徴とする。
本発明の仮想内視鏡画像表示装置および方法並びにプログラムによれば、注目点の指定を受付け、その後、マウスなどの操作部において受け付けられた操作量に基づいて初期視点からの経路上の移動距離を取得し、その取得した移動距離に基づいて、内視鏡の視点を初期視点から経路上に沿って注目点に向かって近づけ、かつ視線方向を注目点の方向に近づけるように変更することによって、初期視点を始点とする初期視線ベクトルから注目点と視点との距離が最短となる最短視線ベクトルまで視線ベクトルを順次変更して設定し、その設定した視線ベクトルに基づいて、仮想内視鏡画像を順次生成し、その生成した仮想内視鏡画像を順次表示させるようにしたので、マウスなどの操作部による簡易な操作のみによって、注目点の周辺の仮想内視鏡画像を順次生成して表示することができるとともに、最短視線ベクトルに基づく仮想内視鏡画像、すなわち注目点を正面から見た観察し易い仮想内視鏡画像を生成して表示することができる。
本発明の仮想内視鏡画像表示装置および方法並びにプログラムの一実施形態を用いた内視鏡画像診断支援システムの概略構成を示すブロック図 図1に示す内視鏡画像診断支援システムの作用を説明するためのフローチャート 初期視線ベクトルに基づいて生成された仮想内視鏡画像の一例を示す図 仮想内視鏡画像とカーソルの一例を示す図 視線ベクトルの設定方法を説明するための図 視線ベクトルの変更に応じて順次生成される仮想内視鏡画像の一例を示す図 視点位置の移動に応じて左右に移動するマーカMと経路上における位置を示すスケールの一例を示す図
以下、本発明の仮想内視鏡画像表示装置および方法並びにプログラムの一実施形態を用いた内視鏡画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の内視鏡画像診断支援システムの概略構成を示すブロック図である。
本実施形態の内視鏡画像診断支援システムは、図1に示すように、内視鏡画像診断支援装置1と、3次元画像保管サーバ2と、ディスプレイ3と、入力装置4とを備えている。
内視鏡画像診断支援装置1は、コンピュータに本実施形態の仮想内視鏡画像表示プログラムがインストールされたものである。
そして、内視鏡画像診断支援装置1は、中央処理装置(CPU)および半導体メモリや、本実施形態の仮想内視鏡画像表示プログラムがインストールされたハードディスクやSSD(Solid State Drive)等のストレージデバイスを備えており、これらのハードウェアによって、図1に示すような3次元画像取得部10、管状組織領域取得部11、経路設定部12、操作量取得部13、移動距離取得部14、視線ベクトル設定部15、仮想内視鏡画像生成部16および表示制御部17が構成されている。そして、ハードディスクにインストールされた本実施形態の仮想内視鏡画像表示プログラムが中央処理装置によって実行されることによって上記各部がそれぞれ動作する。
3次元画像取得部10は、内視鏡装置を用いた手術前または検査前などに予め撮影された被検体の3次元画像5を取得するものである。3次元画像5としては、たとえばCT装置やMRI(Magnetic Resonance Imaging)装置などから出力されたスライスデータから再構成されたボリュームデータや、MS(Multi Slice)CT装置やコーンビームCT装置から出力されたボリュームデータなどがある。3次元画像5は、3次元画像保管サーバ2に被検体の識別情報とともに予め保管されており、3次元画像取得部10は、入力装置4において入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出すものである。
管状組織領域取得部11は、3次元画像取得部10によって取得された3次元画像5が入力され、その入力された3次元画像5から被検体内の管状組織領域を取得するものである。上記管状組織としては、たとえば大腸、小腸、気管支または冠動脈などの血管があるが、これに限らずその他の管状組織でもよい。なお、本実施形態においては大腸の形状を抽出して取得するものとする。
大腸領域を抽出する方法としては、具体的には、まず、3次元画像5に基づいて体軸に垂直な断面(軸位断;axial)の軸位断画像を複数生成し、その各軸位断画像に対して、公知の手法により、体表を基準に体外と体内領域を分離する処理を行う。たとえば、入力された軸位断画像に対して二値化処理を施し、輪郭抽出処理により輪郭を抽出し、その抽出した輪郭内部を体内(人体)領域として抽出する。次に、体内領域の軸位断画像に対して閾値による二値化処理を行い、各軸位断画像における大腸の領域の候補を抽出する。具体的には、大腸の管内には空気が入っているため、空気のCT値に対応する閾値(たとえば、−600以下)を設定して二値化処理を行い、各軸位断画像の体内の空気領域を大腸領域候補として抽出する。最後に、各軸位断画像データ間で、抽出された体内の大腸領域候補がつながる部分のみを抽出することによって大腸領域を取得する。なお、大腸領域を取得する方法としては、上記の方法に限らず、その他にもRegion Growing法やLevel Set法など公知な方法を用いるようにしてもよい。
経路設定部12は、上記のようにして取得された大腸領域の3次元画像を細線化して大腸の中心線を推定することによって大腸の木構造を抽出し、これを仮想的な内視鏡の経路として設定するものである。なお、細線化処理については、公知な方法を採用することができ、たとえば“安江正宏,森 健策,齋藤豊文,他:3次元濃淡画像の細線化法と医用画像への応用における能力の比較評価.電子情報通信学会論文誌J79‐D‐H(10):1664-1674,1996”や、“齋藤豊文,番正聡志,鳥脇純一郎:ユークリッド距離に基づくスケルトンを用いた3次元細線化手法の改善一ひげの発生を制御できる一手法.電子情報通信学会論文誌(E日刷中),2001”などに記載の方法を用いることができる。
経路設定部12は、上述したようにして取得した内視鏡の経路の情報を表示制御部17に出力するものであり、内視鏡経路は、表示制御部17によってディスプレイ3に表示されるものである。
操作量取得部13は、ディスプレイ3に表示された仮想内視鏡画像上においてユーザによって所定の注目点の指定が行われた後の、ユーザによるマウス4aのドラッグ操作またはホイール操作の操作量を取得するものである。
移動距離取得部14は、操作量取得部13によって取得された操作量に基づいて、内視鏡の経路上の初期視点からの移動距離を取得するものである。移動距離の取得方法については、後で詳述する。なお、初期視点とは、ユーザによって最初に指定される仮想内視鏡画像の視点である。
視線ベクトル設定部15は、移動距離取得部14によって取得された移動距離に基づいて、初期視点を内視鏡の経路上に沿って注目点に向かって近づけ、かつ仮想的な内視鏡の視線方向を注目点の方向に近づけるように変更することによって、初期視点を始点とする初期視線ベクトルから、注目点から最短距離である経路上の視点と注目点とを結ぶ最短視線ベクトルまで視線ベクトルを順次変更して設定するものである。
すなわち、視線ベクトル設定部15は、視点位置が注目点に次第に近づくとともに、視線方向が注目点の正面方向に次第に近づくような視線ベクトルを順次設定するものである。なお、視線ベクトルの設定方法については、後で詳述する。
仮想内視鏡画像生成部16は、視線ベクトル設定部15において設定された視線ベクトルと、管状組織領域取得部11において取得された大腸領域の3次元画像とが入力され、これらに基づいて仮想内視鏡画像を生成するものである。具体的には、仮想内視鏡画像生成部16は、入力された視線ベクトルを中心として放射線状に伸ばした複数の視線上の3次元画像を所定の投影面に投影した中心投影による投影画像を仮想内視鏡画像として取得するものである。なお、中心投影の具体的な方法としては、たとえば公知のボリュームレンダリング手法等を用いることができる。
表示制御部17は、仮想内視鏡画像生成部16によって生成された仮想内視鏡画像や、ユーザによって指定された注目点をディスプレイ3に表示させるものである。
また、表示制御部17は、管状組織領域取得部11において取得された大腸領域の3次元画像が入力され、その3次元画像に対してボリュームレンダリングやサーフェスレンダリングを施して、大腸全体の3次元画像をボクセルモデルまたはサーフェスモデルによってディスプレイ3に表示させるものである。
また、表示制御部17は、経路設定部12において設定された内視鏡の経路を大腸全体の3次元画像内に重ねて表示させるものであり、ユーザは、この経路上の点を指定することによって上述した初期視点を指定する。
入力装置4は、マウス4a(操作部に相当する)とキーボード4bとを備えたものであり、ユーザによる操作入力を受け付けるものである。
本実施形態においては、ユーザがマウス4aを用いて仮想内視鏡画像上におけるカーソルの位置を指定し、マウス4aによってクリック操作を行うことによって上記カーソルの位置が注目点の位置として指定される。すなわち、入力装置4は、請求項における注目点指定受付部に相当するものである。
また、本実施形態においては、ユーザによるマウス4aのドラッグ操作またはホイール操作を受け付けることによって初期視点の移動を受け付ける。上述したように操作量取得部13は、マウス4aのドラッグ操作またはホイール操作の操作量を取得するものであり、移動距離取得部14は、その操作量に基づいて初期視点からの移動距離を取得するものである。
次に、本実施形態の内視鏡画像診断支援システムの作用について、図2に示すフローチャートおよび図3から図6を参照しながら説明する。
まず、入力装置4のキーボード4bなどを用いてユーザによって被検体の識別情報が入力され、内視鏡画像診断支援装置1の3次元画像取得部10は、その入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出して取得する(S10)。
3次元画像取得部10によって取得された3次元画像は、管状組織領域取得部11に入力され、管状組織領域取得部11は、入力された3次元画像に基づいて大腸領域を抽出して取得する(S12)。
管状組織領域取得部11によって取得された大腸領域の3次元画像は、表示制御部17に出力され、表示制御部17は、大腸領域全体の3次元画像をディスプレイ3に表示させる(S14)。
また、管状組織領域取得部11によって取得された大腸領域の3次元画像は経路設定部12に入力され、経路設定部12は、入力された大腸領域の3次元画像に基づいて、上述したように仮想的な内視鏡の経路を取得して設定する(S16)。そして、経路設定部12によって取得された内視鏡の経路は表示制御部17に出力され、表示制御部17は、入力された内視鏡の経路をディスプレイ3に表示させる。このとき表示制御部17は、大腸領域の3次元画像に重ねて内視鏡の経路を表示させる。
そして、ユーザが、マウス4a(初期視点指定受付部に相当する)を用いて内視鏡経路上における所定の点を初期視点P1(0≦P1≦L,Lは経路の長さ)として指定し、その初期視点の座標値(xP1,yP1,zP1)が視線ベクトル設定部15に出力される(S18)。
視線ベクトル設定部15は、入力された初期視点P1の座標値(xP1,yP1,zP1)と予め初期設定された視線方向とに基づいて初期視線ベクトルV1を設定し、その初期視線ベクトルV1の情報を仮想内視鏡画像生成部16に出力する(S20)。図5は、本実施形態における視線ベクトルの設定方法を説明するための図であり、ここでは図5に示すような初期視線ベクトルV1が設定される。なお、初期視線ベクトルV1の視線方向は、必ずしも後で指定される注目点の方向ではなく、予め初期設定された方向である。
仮想内視鏡画像生成部16は、入力された初期視線ベクトルV1の情報に基づいて仮想内視鏡画像を生成し、その仮想内視鏡画像を表示制御部17に出力する。表示制御部17は、入力された仮想内視鏡画像をディスプレイ3に表示させる(S22)。図3は、初期視線ベクトルV1に基づいて生成された仮想内視鏡画像の一例を示すものである。
さらに、図4に示すように、表示制御部17によって仮想内視鏡画像上にカーソルcが表示され、ユーザが、マウス4aを用いてカーソルcを注目点まで移動させ、注目点の位置でマウス4aをクリック操作することによって仮想内視鏡画像上における注目点の位置が指定される(S24)。図6の一番上に示された図は、カーソルcによって注目点が指定された時点における仮想内視鏡画像の一例を示すものである。
そして、ユーザによって指定された注目点の画面上の位置情報(X,Y)が取得され、その位置情報(X,Y)が視線ベクトル設定部15に出力される。視線ベクトル設定部15は、入力された画面上の位置情報(X,Y)に対応する3次元画像上の注目点の座標値(x,y,z)を算出する。なお、仮想内視鏡画像はボリュームレンダリングによって得られた画像であるため、画面上の座標値(X,Y)に対応する3次元画像上の座標値(x,y,z)を求めることは可能である。
次いで、視線ベクトル設定部15は、図5に示すような注目点から最短距離である経路上の視点である最近点P2(0≦P2≦L,Lは経路の長さ)の座標値(xP2,yP2,zP2)を算出し、この最近点P2の座標値(xP2,yP2,zP2)と注目点の座標値(x,y,z)とを結ぶ最短視線ベクトルV2(x−xP2,y−yP2,z−zP2)を設定する。
次に、ユーザによって注目点がクリックされている状態からドラッグ操作が行われた場合またはクリックが解除されてホイール操作が行われた場合には、操作量取得部13によってその操作量が取得される(S26)。具体的には、たとえばマウス4aによるドラッグ操作中またはドラッグ操作後のカーソルcの画面上の座標値(X’,Y’)とすると、マウス4aによる操作量dは、
d=√((X’−X)+(Y’−Y)
となる。
そして、操作量取得部13によって取得された操作量dは移動距離取得部14に出力され、移動距離取得部14は、入力された操作量dに基づいて、初期視点P1からの経路上に沿った移動距離を取得する(S28)。具体的には、制御量C=d×a(a:定数)を用いて、下式を算出することによって、図5に示すような移動距離L1を取得する。
L1=C/(P2−P1)
次いで、移動距離取得部14によって取得された移動距離L1は視線ベクトル設定部15に出力され、視線ベクトル設定部15は、上述した初期視線ベクトルV1と最短視線ベクトルV2と移動距離L1とを用いて、下式を算出することによって新たな視線ベクトルVを設定する(S30)。なお、下式のDは、D=L2/(L1+L2)によって表され、L2は、図5に示すように初期視点P1から最近点P2までの経路上の距離から移動距離L1を減算した値である。
V=V1×(1.0−D)+V2×D
上述したようにして、マウス4aにおける操作量に応じて新たに設定された視線ベクトルVは、仮想内視鏡画像生成部16に出力され、仮想内視鏡画像生成部16において新たな視線ベクトルVに基づく仮想内視鏡画像が生成されて表示制御部17に出力される。表示制御部17は、入力された視線ベクトルVに基づく仮想内視鏡画像をディスプレイ3に表示させる。図6の上から2番目に示す図は、マウス4aによるドラッグ操作またはホイール操作の開始から間もない時点における仮想内視鏡画像の一例を示すものである。このときの仮想内視鏡画像は、初期視線ベクトルV1に基づく仮想内視鏡画像に近いものとなる。
そして、視線ベクトル設定部15は、上述したようにしてマウス4aによる操作量に応じて初期視線ベクトルV1から最短視線ベクトルV2までの視線ベクトルVを順次変更して設定し、これを仮想内視鏡画像生成部16に出力する。
仮想内視鏡画像生成部16は、入力された視線ベクトルVに基づいて仮想内視鏡画像を順次生成して表示制御部17に出力し、表示制御部17は、仮想内視鏡画像を順次更新してディスプレイ3に表示させる。
なお、視線ベクトルVの算出式は、上式に限らず、たとえば下式に基づいて算出するようにしてもよい。上式も下式とも、マウス4aによる操作によって視点が注目点に近づくにつれて視線方向が徐々に注目点の方向に近づくように視線ベクトルVを順次設定するものであるが、下式は、視点が注目点付近にある程度移動した後に視線方向を注目点の方向に向けるようにしたものである。すなわち、視点が初期視点側P1に存在するときよりも最近点P2側に存在するときの方が、視線ベクトルが最短視線ベクトルV2に近づく変化量を大きくしたものである。このように視線ベクトルVを順次設定して仮想内視鏡画像を順次更新して表示させた方が、仮想内視鏡画像の変化がより円滑であり、注目点の観察もし易くなる。
V=V1×(1.0−D)+V2×D
そして、マウス4aのドラッグ操作またはホイール操作によって視点の位置が最近点P2まで移動した際には、視線ベクトル設定部15は、最短視線ベクトルV2を仮想内視鏡画像生成部16に出力し、仮想内視鏡画像生成部16は、入力された最短視線ベクトルV2に基づく仮想内視鏡画像を生成する。最短視線ベクトルV2に基づく仮想内視鏡画像は、表示制御部17に出力されてディスプレイ3に表示される(S32)。すなわち、このとき注目点が中央に位置し、注目点を正面方向から見た仮想内視鏡画像がディスプレイ3に表示される。図6の上から3番目に示す図は、視点の位置が最近点P2に近づいた時点における視線ベクトルVに基づく仮想内視鏡画像の一例を示すものである。なお、最近点P2を視点とした最短視線ベクトルV2に基づく仮想内視鏡画像においては、注目点が仮想内視鏡画像の中心に位置することになる。
そして、さらにマウス4aによるドラッグ操作またはホイール操作が行われた場合には、最近点P2からさらに進んだ視点P3の座標値が取得され、視線ベクトル設定部15は、その視点P3の座標値と注目点の座標値とを結ぶ新たな視線ベクトルVを設定し、仮想内視鏡画像生成部16に出力する。
仮想内視鏡画像生成部16は、入力された新たな視線ベクトルVに基づいて仮想内視鏡画像を生成して表示制御部17に出力し、表示制御部17は、仮想内視鏡画像を更新してディスプレイ3に表示させる。すなわち、このとき注目点が中央に位置し、注目点を裏側から見た仮想内視鏡画像がディスプレイ3に表示される(S34)。図6の一番下に示す図は、上述したように注目点を裏側から見た仮想内視鏡画像の一例を示すものである。
次いで、ユーザが、マウス4aのクリックを解除することによってドラッグ操作を終了した場合、またはホイール操作後、ホイールをクリックなどしてホイール操作の終了の指示が入力された場合には、その操作終了の信号が視線ベクトル設定部15に出力される(S36)。
そして、視線ベクトル設定部15は、上述した操作終了の信号が入力された場合には、現在設定している視線ベクトルの視点を初期視点に変更して再び初期視線ベクトルを設定し、その初期視線ベクトルの情報を仮想内視鏡画像生成部16に出力する。
仮想内視鏡画像生成部16は、入力された初期視線ベクトルに基づく仮想内視鏡画像を再び生成して表示制御部17に出力し、表示制御部17は、仮想内視鏡画像を更新して表示させる(S38)。すなわち、マウス4aによるドラッグ操作またはホイール操作が終了した場合には、再び最初の仮想内視鏡画像がディスプレイ3に表示される。
上記実施形態の内視鏡画像診断支援システムによれば、注目点の指定を受付け、その後、マウス4aにおいて受け付けられた操作量に基づいて初期視点からの経路上の移動距離を取得し、その取得した移動距離に基づいて、内視鏡の視点を初期視点から経路上に沿って注目点に向かって近づけ、かつ視線方向を注目点の方向に近づけるように変更することによって、初期視線ベクトルから最短視線ベクトルまで視線ベクトルを順次変更して設定し、その設定した視線ベクトルに基づいて、仮想内視鏡画像を順次生成し、その生成した仮想内視鏡画像を順次表示させるようにしたので、マウス4aによる簡易な操作のみによって、注目点の周辺の仮想内視鏡画像を順次生成して表示することができるとともに、最短視線ベクトルに基づく仮想内視鏡画像、すなわち注目点を正面から見た観察し易い仮想内視鏡画像を生成して表示することができる。
なお、上記実施形態の説明においては、マウス4aによるドラッグ操作またはホイール操作が終了した場合、視線ベクトル設定部15が、現在設定している視線ベクトルから初期視線ベクトルに即座に変更するようにしたが、これに限らず、たとえば現在設定している視線ベクトルの視点から初期視点に変更するまでの間の視線ベクトルを順次変更して設定し、その視線ベクトルの変更に応じて仮想内視鏡画像を順次更新して表示させるようにしてもよい。すなわち、現在設定されている視線ベクトルに基づく仮想内視鏡画像が表示されるまでに順次更新された仮想内視鏡画像を逆の順番で順次表示させて元に戻すようにしてもよい。
上述したようにマウス4aによるドラッグ操作またはホイール操作が終了した場合に、再び初期視線ベクトルに基づく仮想内視鏡画像を生成して表示するようにすれば、再度、初期視点から視点を変更して仮想内視鏡画像を観察したい場合や、最初に表示されていた仮想内視鏡画像に戻したい場合などに改めて視点や視線方向の設定を行う必要がない。
また、上記実施形態の説明では、視点が最近点P2を通過し、視点P3の位置まで移動した後にドラッグ操作またはホイール操作を終了するようにしたが、これに限らず、視点が初期視点P1から最近点P2まで移動する途中においてドラッグ操作またはホイール操作を終了してもよく、その場合においても、上述したように現在設定されている視線ベクトルに基づく仮想内視鏡画像から初期視線ベクトルに基づく仮想内視鏡画像に更新されて表示される。
また、上記実施形態の内視鏡画像診断支援システムにおいて、マウス4aによるドラッグ操作中またはホイール操作中において、仮想内視鏡画像の記録指示を受け付け、仮想内視鏡画像生成部16が、その記録指示を受け付けた時点において設定されている視線ベクトルに基づいて生成された仮想内視鏡画像を記録するようにしてもよい。このように所望の視点位置の仮想内視鏡画像を記録しておくことによって、後から読み出して再度確認したりして所望の用途に用いることができる。なお、仮想内視鏡画像の記録指示については、たとえばキーボード4bにおける「Enter」キーを用いて入力するようにすればよい。
また、上記実施形態の内視鏡画像診断システムにおいては、現在設定されている視線ベクトルが最短視線ベクトルV2であることをユーザに報知するようにしてもよい。すなわち、現在、ディスプレイ3に表示されている仮想内視鏡画像が、注目点を正面方向から見た仮想内視鏡画像であることをユーザに報知するようにしてもよい。ユーザに報知する方法としては、たとえば表示制御部17(報知部に相当する)が、ディスプレイ3にメッセージやマークなどを表示するようにしてもよいし、音声によって知らせるようにしてもよい。このような報知を行うことによって、ユーザが、現在表示されている仮想内視鏡画像が注目点を正面方向から見た仮想内視鏡画像であることを容易に把握することができる。
また、現在設定されている視線ベクトルが、最短視線ベクトルV2の最近点P2よりも経路上をさらに進んだ視点を含む視線ベクトルであることをユーザに報知するようにしてもよい。すなわち、現在、ディスプレイ3に表示されている仮想内視鏡画像が、注目点を裏側から見た仮想内視鏡画像であることをユーザに報知するようにしてもよい。具体的には、たとえば表示制御部17が、図7に示すような視点位置の移動に応じて左右に移動するマーカMと経路上における位置を示すスケールとをディスプレイ3に表示させ、マーカMをスケール上の最近点よりも左側に表示させることによってユーザに報知するようにしてもよい。このような報知を行うことによって、ユーザが、現在表示されている仮想内視鏡画像が注目点を裏側から見た仮想内視鏡画像であることを容易に把握することができる。
また、視線ベクトル設定部15が、現在設定されている視線ベクトルの視点と注目点との間の距離を算出し、表示制御部17が、その距離をディスプレイ3に表示させるようにしてもよい。
1 内視鏡画像診断支援装置
2 3次元画像保管サーバ
3 ディスプレイ
4 入力装置
4a マウス
4b キーボード
10 3次元画像取得部
11 管状組織領域取得部
12 経路設定部
13 操作量取得部
14 移動距離取得部
15 視線ベクトル設定部
16 仮想内視鏡画像生成部
17 表示制御部

Claims (14)

  1. 被検体の3次元画像に基づいて、前記被検体内に挿入された内視鏡によって撮影が行われたものとして仮想的な仮想内視鏡画像を生成する仮想内視鏡画像生成部と、前記仮想内視鏡画像を表示させる表示制御部とを備えた仮想内視鏡画像表示装置において、
    前記被検体の3次元画像上における前記内視鏡の経路を設定する経路設定部と、
    前記仮想内視鏡画像上における注目点の指定を受け付ける注目点指定受付部と、
    前記注目点の受付け後、操作部において受け付けられた操作量を取得する操作量取得部と、
    該操作量取得部によって取得された操作量に基づいて、仮想的な内視鏡の前記経路上の初期視点からの移動距離を取得する移動距離取得部と、
    該移動距離取得部によって取得された移動距離に基づいて、仮想的な内視鏡の視点を前記初期視点から前記経路上に沿って前記注目点に向かって近づけ、かつ仮想的な内視鏡の視線方向を前記注目点の方向に近づけるように変更することによって、前記初期視点を始点とする初期視線ベクトルから、前記注目点から最短距離である前記経路上の視点と前記注目点とを結ぶ最短視線ベクトルまで視線ベクトルを順次変更して設定する視線ベクトル設定部とを備え、
    前記仮想内視鏡画像生成部が、前記視線ベクトル設定部において設定された視線ベクトルに基づいて、前記仮想内視鏡画像を順次生成し、
    前記表示制御部が、前記視線ベクトルの変更に応じて前記仮想内視鏡画像を順次表示させるものであることを特徴とする仮想内視鏡画像表示装置。
  2. 前記視線ベクトル設定部が、前記最短視線ベクトルの視点から前記経路上に沿ってさらに進めた視点と前記注目点とを結ぶ視線ベクトルをさらに設定するものであることを特徴とする請求項1記載の仮想内視鏡画像表示装置。
  3. 前記視線ベクトル設定部が、前記操作部における操作が終了した際、現在設定している視線ベクトルの視点を前記初期視点に変更して視点ベクトルを設定するものであることを特徴とする請求項1または2記載の仮想内視鏡画像表示装置。
  4. 前記視線ベクトル設定部が、前記現在設定している視線ベクトルの視点から前記初期視点に変更するまで視線ベクトルを順次変更して設定するものであり、
    前記表示制御部が、前記視線ベクトルの変更に応じて前記仮想内視鏡画像を順次表示させるものであることを特徴とする請求項3記載の仮想内視鏡画像表示装置。
  5. 前記仮想内視鏡画像生成部が、前記操作部における操作中において、前記仮想内視鏡画像の記録指示を受け付け、該記録指示を受け付けた時点において設定されている視線ベクトルに基づいて生成された仮想内視鏡画像を記録するものであることを特徴とする請求項1から4いずれか1項記載の仮想内視鏡画像表示装置。
  6. 前記視線ベクトル設定部が、前記視点が注目点に近づくにつれて前記視線方向が徐々に前記注目点の方向に近づくように前記視線ベクトルを順次設定するものであることを特徴とする請求項1から5いずれか1項記載の仮想内視鏡画像表示装置。
  7. 前記視線ベクトル設定部が、前記視点が初期視点側に存在するときよりも前記注目点から最短距離である前記経路上の視点側に存在するときの方が、前記視線ベクトルが前記最短視線ベクトルに近づく変化量を大きくするものであることを特徴とする請求項6記載の仮想内視鏡画像表示装置。
  8. 前記視線ベクトル設定部において前記最短視線ベクトルが設定されていることを報知する報知部を備えたことを特徴とする請求項1から7いずれか1項記載の仮想内視鏡画像表示装置。
  9. 前記視線ベクトル設定部において現在設定されている視線ベクトルが、前記最短視線ベクトルの視点よりも前記経路上をさらに進んだ視点を含む視線ベクトルであることを報知する報知部を備えたことを特徴とする請求項1から7いずれか1項記載の仮想内視鏡画像表示装置。
  10. 前記3次元画像上における前記初期視点の指定を受け付ける初期視点指定受付部を備えたことを特徴とする請求項1から9いずれか1項記載の仮想内視鏡画像表示装置。
  11. 前記注目点指定受付部がマウスを備え、前記仮想内視鏡画像上に表示されたカーソルの位置の指定と前記マウスにおけるクリック操作とを受け付けることによって前記注目点の指定を受け付けるものであることを特徴とする請求項1から10いずれか1項記載の仮想内視鏡画像表示装置。
  12. 前記操作部がマウスを備え、
    前記操作量取得部が、前記マウスのドラッグ操作またはホイール操作の操作量を取得するものであることを特徴とする請求項1から11いずれか1項記載の仮想内視鏡画像表示装置。
  13. 被検体の3次元画像に基づいて、前記被検体内に挿入された内視鏡によって撮影が行われたものとして仮想的な仮想内視鏡画像を生成し、該生成した仮想内視鏡画像を表示させる仮想内視鏡画像表示方法において、
    前記被検体の3次元画像上における前記内視鏡の経路を設定し、
    前記仮想内視鏡画像上における注目点の指定を受け付け、
    前記注目点の受付け後、操作部において受け付けられた操作量を取得し、
    該取得した操作量に基づいて、仮想的な前記内視鏡の前記経路上の初期視点からの移動距離を取得し、
    該取得した移動距離に基づいて、仮想的な内視鏡の視点を前記初期視点から前記経路上に沿って前記注目点に向かって近づけ、かつ仮想的な前記内視鏡の視線方向を前記注目点の方向に近づけるように変更することによって、前記初期視点を始点とする初期視線ベクトルから、前記注目点から最短距離である前記経路上の視点と前記注目点とを結ぶ最短視線ベクトルまで視線ベクトルを順次変更して設定し、
    該設定した視線ベクトルに基づいて、前記仮想内視鏡画像を順次生成し、
    該生成した前記仮想内視鏡画像を順次表示させることを特徴とする仮想内視鏡画像表示方法。
  14. コンピュータを、被検体の3次元画像に基づいて、前記被検体内に挿入された内視鏡によって撮影が行われたものとして仮想的な仮想内視鏡画像を生成する仮想内視鏡画像生成部と、前記仮想内視鏡画像を表示させる表示制御部として機能させる仮想内視鏡画像表示プログラムであって、
    コンピュータを、さらに前記被検体の3次元画像上における前記内視鏡の経路を設定する経路設定部と、
    前記仮想内視鏡画像上における注目点の指定を受け付ける注目点指定受付部と、
    前記注目点の受付け後、操作部において受け付けられた操作量を取得する操作量取得部と、
    該操作量取得部によって取得された操作量に基づいて、仮想的な前記内視鏡の前記経路上の初期視点からの移動距離を取得する移動距離取得部と、
    該移動距離取得部によって取得された移動距離に基づいて、仮想的な内視鏡の視点を前記初期視点から前記経路上に沿って前記注目点に向かって近づけ、かつ仮想的な前記内視鏡の視線方向を前記注目点の方向に近づけるように変更することによって、前記初期視点を始点とする初期視線ベクトルから、前記注目点から最短距離である前記経路上の視点と前記注目点とを結ぶ最短視線ベクトルまで視線ベクトルを順次変更して設定する視線ベクトル設定部として機能させ、
    前記仮想内視鏡画像生成部が、前記視線ベクトル設定部において設定された視線ベクトルに基づいて、前記仮想内視鏡画像を順次生成し、
    前記表示制御部が、前記視線ベクトルの変更に応じて前記仮想内視鏡画像を順次表示させるものであることを特徴とする仮想内視鏡画像表示プログラム。
JP2012283873A 2012-12-27 2012-12-27 仮想内視鏡画像表示装置および方法並びにプログラム Active JP5947707B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012283873A JP5947707B2 (ja) 2012-12-27 2012-12-27 仮想内視鏡画像表示装置および方法並びにプログラム
PCT/JP2013/007402 WO2014103238A1 (ja) 2012-12-27 2013-12-17 仮想内視鏡画像表示装置および方法並びにプログラム
US14/747,027 US9619938B2 (en) 2012-12-27 2015-06-23 Virtual endoscopic image display apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012283873A JP5947707B2 (ja) 2012-12-27 2012-12-27 仮想内視鏡画像表示装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2014124384A true JP2014124384A (ja) 2014-07-07
JP5947707B2 JP5947707B2 (ja) 2016-07-06

Family

ID=51020361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012283873A Active JP5947707B2 (ja) 2012-12-27 2012-12-27 仮想内視鏡画像表示装置および方法並びにプログラム

Country Status (3)

Country Link
US (1) US9619938B2 (ja)
JP (1) JP5947707B2 (ja)
WO (1) WO2014103238A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105231978A (zh) * 2015-09-14 2016-01-13 袁非牛 一种引导式虚拟内窥镜导航方法
WO2017150716A1 (ja) * 2016-03-03 2017-09-08 拡史 瀬尾 内視鏡訓練装置、内視鏡訓練方法及び記録媒体
JP2018047258A (ja) * 2015-06-19 2018-03-29 コヴィディエン リミテッド パートナーシップ 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
WO2021250951A1 (ja) * 2020-06-08 2021-12-16 Hoya株式会社 プログラム、情報処理方法及び情報処理装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6134978B2 (ja) * 2013-05-28 2017-05-31 富士フイルム株式会社 投影画像生成装置、方法およびプログラム
WO2016009701A1 (ja) * 2014-07-15 2016-01-21 オリンパス株式会社 ナビゲーションシステム、ナビゲーションシステムの作動方法
EP3342326B1 (en) * 2015-08-28 2022-01-19 FUJIFILM Corporation Instrument operation device, instrument operation method, and electronic instrument system
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US20220156936A1 (en) * 2019-04-05 2022-05-19 Carnegie Mellon University Real-time measurement of visible surface area from colonoscopy video
KR20240022745A (ko) * 2022-08-12 2024-02-20 주식회사 데카사이트 수술 영상데이터를 녹화하는 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127279A (ja) * 1990-06-11 1992-04-28 Hitachi Ltd 物体の運動経路生成装置および方法
JP2000126457A (ja) * 1998-08-21 2000-05-09 Sega Enterp Ltd ゲーム画面の表示制御方法、キャラクタの移動制御方法およびゲーム機並びにプログラムを記録した記録媒体
WO2005002432A2 (en) * 2003-06-25 2005-01-13 Siemens Corporate Research, Inc. System and method for polyp visualization
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
WO2010119690A1 (ja) * 2009-04-16 2010-10-21 富士フイルム株式会社 診断支援装置、診断支援方法および診断支援プログラムが記憶された記憶媒体
JP2011206297A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 仮想内視鏡画像処理装置、方法、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69130549T2 (de) 1990-06-11 1999-05-27 Hitachi Ltd Vorrichtung zur Erzeugung eines Objektbewegungsweges
US20090226065A1 (en) * 2004-10-09 2009-09-10 Dongqing Chen Sampling medical images for virtual histology
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US8493389B2 (en) * 2006-09-29 2013-07-23 Koninklijke Philips Electronics N.V. 3D connected shadow mouse pointer
US8834245B2 (en) * 2007-08-17 2014-09-16 Nintendo Co., Ltd. System and method for lock on target tracking with free targeting capability
US8795080B1 (en) * 2012-03-30 2014-08-05 Zynga Inc. Gaming platform providing a game action sweep mechanic
WO2013158034A1 (en) * 2012-04-20 2013-10-24 Skydoor Pte Ltd A method for making a content sensitive video

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127279A (ja) * 1990-06-11 1992-04-28 Hitachi Ltd 物体の運動経路生成装置および方法
JP2000126457A (ja) * 1998-08-21 2000-05-09 Sega Enterp Ltd ゲーム画面の表示制御方法、キャラクタの移動制御方法およびゲーム機並びにプログラムを記録した記録媒体
WO2005002432A2 (en) * 2003-06-25 2005-01-13 Siemens Corporate Research, Inc. System and method for polyp visualization
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
WO2010119690A1 (ja) * 2009-04-16 2010-10-21 富士フイルム株式会社 診断支援装置、診断支援方法および診断支援プログラムが記憶された記憶媒体
JP2011206297A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 仮想内視鏡画像処理装置、方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014006091; Lichan Hong et al.: 'Virtual voyage: interactive navigation in the human colon' SIGGRAPH '97 Proceedings of the 24th annual conference on Computer graphics and interactive techniqu , 19970803, Pages 27-34 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018047258A (ja) * 2015-06-19 2018-03-29 コヴィディエン リミテッド パートナーシップ 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
US10163262B2 (en) 2015-06-19 2018-12-25 Covidien Lp Systems and methods for navigating through airways in a virtual bronchoscopy view
JP2019030673A (ja) * 2015-06-19 2019-02-28 コヴィディエン リミテッド パートナーシップ 仮想気管支鏡検査視野における気道を通ってナビゲートするためのシステムおよび方法
US10453257B2 (en) 2015-06-19 2019-10-22 Covidien Lp Systems and methods for navigating through airways in a virtual bronchoscopy view
CN105231978A (zh) * 2015-09-14 2016-01-13 袁非牛 一种引导式虚拟内窥镜导航方法
WO2017150716A1 (ja) * 2016-03-03 2017-09-08 拡史 瀬尾 内視鏡訓練装置、内視鏡訓練方法及び記録媒体
WO2021250951A1 (ja) * 2020-06-08 2021-12-16 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
JP7377769B2 (ja) 2020-06-08 2023-11-10 Hoya株式会社 プログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
US9619938B2 (en) 2017-04-11
US20150287243A1 (en) 2015-10-08
JP5947707B2 (ja) 2016-07-06
WO2014103238A1 (ja) 2014-07-03

Similar Documents

Publication Publication Date Title
JP5947707B2 (ja) 仮想内視鏡画像表示装置および方法並びにプログラム
JP5918548B2 (ja) 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
US9104902B2 (en) Instrument-based image registration for fusing images with tubular structures
JP6085366B2 (ja) 画像誘導手順用の超音波撮像システム及びその作動方法
JP4653542B2 (ja) 画像処理装置
JP5624308B2 (ja) 画像処理装置及び画像処理方法
US9024941B2 (en) Sequentially displaying virtual endoscopic images by setting an observation path to compensate for a curved region of the tubular structure
JP2006246941A (ja) 画像処理装置及び管走行トラッキング方法
JP2012115635A (ja) 画像処理方法、画像処理装置、画像システム及びプログラムコード
US9357981B2 (en) Ultrasound diagnostic device for extracting organ contour in target ultrasound image based on manually corrected contour image in manual correction target ultrasound image, and method for same
JP5670145B2 (ja) 医用画像処理装置及び制御プログラム
JP6066197B2 (ja) 手術支援装置、方法およびプログラム
JP2010284405A (ja) 医用画像処理装置、医用画像診断装置および医用画像処理プログラム
US9558589B2 (en) Medical image display apparatus, method, and program
JP2008067991A (ja) 画像診断装置、管腔物情報表示装置及び管腔物情報表示方法
JP5992853B2 (ja) 手術支援装置、方法およびプログラム
JP5366713B2 (ja) 消化管画像表示装置及び消化管画像データ表示用制御プログラム
US20240013386A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
KR101204887B1 (ko) 곡면 재구성 영상을 이용한 관상 물체의 표시장치 및 표시방법
JP2017113050A (ja) 医用画像処理装置、その制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160506

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160603

R150 Certificate of patent or registration of utility model

Ref document number: 5947707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250