JPWO2019130868A1 - 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2019130868A1
JPWO2019130868A1 JP2019562831A JP2019562831A JPWO2019130868A1 JP WO2019130868 A1 JPWO2019130868 A1 JP WO2019130868A1 JP 2019562831 A JP2019562831 A JP 2019562831A JP 2019562831 A JP2019562831 A JP 2019562831A JP WO2019130868 A1 JPWO2019130868 A1 JP WO2019130868A1
Authority
JP
Japan
Prior art keywords
image
endoscope
endoscopic
information
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019562831A
Other languages
English (en)
Other versions
JP7050817B2 (ja
Inventor
加來 俊彦
俊彦 加來
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019130868A1 publication Critical patent/JPWO2019130868A1/ja
Application granted granted Critical
Publication of JP7050817B2 publication Critical patent/JP7050817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

仮想内視鏡画像と実内視鏡画像とを正確に対応付け、両者の好ましい連携を可能とする画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラムを提供する。3次元画像(19)を入力する3次元画像入力部(41a)、実内視鏡画像(38)を入力する実内視鏡画像入力部(41b)、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部(51、52)、及び3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部(53)を備える。

Description

本発明は画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラムに係り、特に実内視鏡画像と仮想内視鏡画像との連携に関する。
近年、内視鏡を用いて患者の大腸等の管状構造物を観察又は処置を行う技術が注目されている。内視鏡画像はCCD(Charge Coupled Device)等の撮像素子を用いて撮影された画像である。そして、内視鏡画像は管状構造物内部の色、及び質感が鮮明に表現された画像である。一方、内視鏡画像は、管状構造物の内部を表す2次元画像である。このため、内視鏡画像が管状構造物内のどの位置を表しているものかを把握することが困難である。
そこで、CT装置又はMRI装置等のモダリティを用いて断層撮影をして取得された3次元画像を用いて、実際に内視鏡を用いて撮影した画像と類似した仮想内視鏡画像を生成する手法が提案されている。CTはComputed Tomographyの省略語である。また、MRIはMagnetic Resonance Imagingの省略語である。
このため、3次元検査画像から管状構造物の画像を抽出し、管状構造物の画像と内視鏡を用いて撮影を行い取得した実際の内視鏡画像である実内視鏡画像との対応付けを行い、内視鏡の現在位置における仮想内視鏡画像を管状構造物の3次元検査画像から生成して表示する手法が提案されている。
特許文献1は、内視鏡を用いて取得した内視鏡画像と、医用画像診断装置を用いて取得した医用画像とを表示する場合に、内視鏡画像と医用画像とにそれぞれ表された観察対象の位置を合わせて表示する医用画像処理装置が記載されている。
同文献に記載の医用画像処理装置は、大腸内を表す内視鏡画像データから腸管の輪郭と結腸ひもとを特定し、大腸を表すCT画像データから腸管領域と結腸ひも領域とを特定する。同文献に記載の医用画像処理装置は、内視鏡画像データに基づく結腸ひもの位置と、CT画像に基づく結腸ひも領域の位置とを合わせ、更に、CT画像に基づく腸管領域の形状を内視鏡画像に基づく輪郭の形状に合わせる。
同文献に記載の医用画像処理装置は、形状が合わされた腸管領域の各位置に、CT画像データにおいて対応する位置の画素値を割り当てた腸管画像と内視鏡画像とを、表示部に表示させる。
特許文献2は、X線CT装置を用いて撮像された断層画像が積み上げられたボリュームデータから展開画像を作成し、展開画像における凸部領域の密度、芯線曲率、及び芯線上の各点に直交する断面形状に基づいて、大腸の部位を特定する医用画像処理装置が記載されている。
特許文献3は、姿勢が異なる同一人物の大腸を撮影した2つ以上の3次元画像から、特徴形状を抽出し、2つ以上の3次元画像の大腸を対応付ける医用画像観察支援装置が記載されている。特許文献3に記載の発明は、特徴形状として大腸のひだの位置、及び体積に基づいて定められるひだ特徴形状と、大腸の屈曲状態に基づいて定められる屈曲特徴形状が適用される。
特許文献4は、内視鏡画像からR信号成分を抽出し、明暗情報、又は輝度情報の変化に基づき、R画像の3次元形状情報を算出する画像処理装置が記載されている。なお、R画像は内視鏡画像のR信号成分を表す。
特許文献5は、軟性内視鏡のナビゲーションに関する発明が記載されている。特許文献5に記載の発明は、検査対象の仮想内視鏡画像と、仮想内視鏡画像に対応する仮想的なカメラの位置の情報、及び内視鏡先端の姿勢の情報が記憶されたデータベースを参照し、検査対象の実内視鏡画像をデータベース内の仮想内視鏡画像と比較する。そして、実内視鏡画像と最も類似度が高い仮想内視鏡画像を決定し、これに対応する仮想カメラの位置、及び姿勢を得る。仮想カメラの位置、及び姿勢から、現時点の内視鏡先端部がどの位置にいて、どの方向を向いているかを知ることができる。
特許文献6は、被検体の3次元画像データに基づく体腔路の仮想画像を用いて、挿入ナビゲーションを行う内視鏡装置が記載されている。特許文献6に記載の内視鏡装置は、仮想気管支内視鏡画像と、内視鏡画像との類似度を比較し、比較結果に基づいて両画像が同一の分岐部を示した画像であるか否かを判断する。
特開2011−50590号公報 特開2013−431号公報 特開2011−30839号公報 国際公開第2007/119297号 特開2003−265408号公報 特開2009−56238号公報
実内視鏡画像と仮想内視鏡画像とを連携させる際に、実内視鏡画像の動きに合わせて仮想内視鏡画像を表示させたい。しかしながら、仮想内視鏡と軟性内視鏡とは撮像する画像が異なるために、仮想内視鏡画像と実内視鏡画像とを直接対応付け、かつ正確に対応付けることが困難である。
特許文献1に記載の発明は、腸管の回転方向の位置、形状を合わせているものの、内視鏡の進行方向について、腸管断層画像を内視鏡画像に合わせることについて記載されていない。すなわち、特許文献1は、仮想内視鏡画像と実内視鏡画像とを正確に対応付けることについて記載されていない。
特許文献2に記載の発明は、X線CT装置を用いて撮像された断層画像が積み上げられたボリューム画像データを用いて作成された展開画像の各部分領域に対応する大腸の部位を決定するものであって、仮想内視鏡画像と実内視鏡画像との直接の対応付けを取るものではない。
特許文献3に記載の発明は、被検体の姿勢が異なる2つ以上の3次元画像について、それぞれの特徴部位を対応付けるものであって、仮想内視鏡画像と実内視鏡画像との直接の対応付けを取るものではない。
特許文献4に記載の発明は、2次元画像である内視鏡画像から3次元形状情報を算出するものであって、仮想内視鏡画像と実内視鏡画像との直接の対応付けを取るものではない。
特許文献5に記載の発明は、実内視鏡画像と最も類似度が高い仮想内視鏡画像に基づいて、現時点の内視鏡の位置、及び姿勢を把握しているが、あくまでも両者は類似するものであって、仮想内視鏡画像と実内視鏡画像とを正確に対応付けていない。
特許文献6に記載の発明は、仮想気管支内視鏡画像と、内視鏡画像との類似度を用いて、両者が同一の分岐部を示しているか否かを判断しているが、あくまでも両者は類似するものであって、仮想内視鏡画像と実内視鏡画像とを正確に対応付けていない。
また、特許文献6の段落<0015>に記載のように、特許文献6に記載の発明は、仮想気管支内視鏡画像と、内視鏡画像とが同一の分岐部を示す画像である場合にも、誤認識が発生し得る。
本発明はこのような事情に鑑みてなされたもので、仮想内視鏡画像と実内視鏡画像とを正確に対応付け、両者の好ましい連携を可能とする画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、次の発明態様を提供する。
第1態様に係る画像処理装置は、被検体の3次元画像を入力する3次元画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部と、を備えた画像処理装置である。
第1態様によれば、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点における向きの情報を含む視点情報を取得する。これにより、実内視鏡画像と仮想内視鏡画像とを正確に対応付けることが可能である。
3次元画像という用語は、3次元画像自体だけでなく、3次元画像を表す3次元画像のデータの意味が含まれてもよい。3次元画像の例として、CT装置を用いて被検体を断層撮影して得られた3次元画像が挙げられる。3次元画像のデータの例としてボリュームデータが挙げられる。
3次元画像入力部は、3次元画像を取得する態様、3次元画像を表す3次元画像のデータを取得する態様の両者を含み得る。
特徴点は、1つでもよいし、複数でもよい。特徴点が複数の場合の特徴点の一致は、全ての特徴点の一致を意味する。特徴点は、複数の画素が含まれる領域を適用してもよい。
第1態様に係る画像処理装置は、1つ以上のプロセッサと、1つ以上のメモリとを備えた画像処理装置であって、プロセッサは、被検体の3次元画像を入力し、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力し、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出し、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得し、メモリはプロセッサの処理結果を記憶する画像処理装置として構成し得る。
第2態様は、第1態様の画像処理装置において、視点情報取得部を用いて取得した視点情報に基づいて、3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部を備えた構成としてもよい。
第2態様によれば、実内視鏡画像と特徴点が一致する第1仮想内視鏡画像を生成し得る。
第3態様は、第1態様又は第2態様の画像処理装置において、3次元画像から第2仮想内視鏡画像を生成する第2仮想内視鏡画像生成部を備え、特徴点抽出部は、3次元画像の特徴点として第2仮想内視鏡画像の特徴点を抽出する構成としてもよい。
第3態様によれば、第2仮想内視鏡画像の特徴点、及び実内視鏡画像の特徴点に基づく視点情報の取得が可能である。
第4態様は、第3態様の画像処理装置において、内視鏡の視野方向の情報を取得する視野方向情報取得部を備え、第2仮想内視鏡画像生成部は、視野方向情報取得部を用いて取得した内視鏡の視野方向の情報を用いて、第2仮想内視鏡画像を生成する構成としてもよい。
第4態様によれば、内視鏡の視野方向の情報が反映された第2仮想内視鏡画像の生成が可能である。
第5態様は、第4態様の画像処理装置において、視野方向情報取得部は、内視鏡の移動支援情報から視野方向を取得する構成としてもよい。
第5態様によれば、内視鏡の移動支援情報を用いた内視鏡の視野方向の情報の取得が可能である。
第6態様は、第4態様の画像処理装置において、視野方向情報取得部は、実内視鏡画像の変化から導出される移動ベクトルを用いて視野方向の情報を取得する構成としてもよい。
第6態様によれば、実内視鏡画像の変化から導出される移動ベクトルを用いた内視鏡の視野方向の情報の取得が可能である。
第7態様は、第3態様から第6態様のいずれか一態様の画像処理装置において、内視鏡の位置の情報を取得する位置情報取得部を備え、第2仮想内視鏡画像生成部は、位置情報取得部を用いて取得した内視鏡の位置の情報を用いて、第2仮想内視鏡画像を生成する構成としてもよい。
第7態様によれば、位置情報取得部を用いて取得した内視鏡の位置情報を用いた第2仮想内視鏡画像の生成が可能である。
第8態様は、第1態様から第7態様のいずれか一態様の画像処理装置において、実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像、又は実内視鏡画像から凹凸情報を抽出した画像を生成する実内視鏡画像修正部を備え、特徴点抽出部は、実内視鏡画像修正部を用いて生成された画像から特徴点を抽出する構成としてもよい。
第8態様によれば、実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像、又は実内視鏡画像から凹凸情報を抽出した画像を生成する。これにより、凹凸情報を持ち、且つ色情報、及びテクスチャ情報を持たない3次元画像との特徴点の比較が良好となる。
実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像の例として、実内視鏡画像のB信号成分を除去した画像が挙げられる。実内視鏡画像から凹凸情報を抽出した画像の例として、実内視鏡画像のR信号成分を抽出した画像が挙げられる。
第9態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、視点情報取得部は、内視鏡の位置が異なる2つの実内視鏡画像について、一方の実内視鏡画像と他方の実内視鏡画像との変化から導出される移動ベクトルを用いて、一方の実内視鏡画像に対応する3次元画像の視点の位置を起点とする移動量を導出して、他方の実内視鏡画像に対応する3次元画像の視点の位置を特定する構成としてもよい。
第9態様によれば、内視鏡の位置が異なる2つの実内視鏡画像の移動ベクトルを用いて、両者に対応する3次元画像の視点間の距離の導出が可能である。
第10態様は、第1態様から第9態様のいずれか一態様の画像処理装置において、視点情報取得部は、実内視鏡画像の毎フレームに、実内視鏡画像の2以上の規定フレーム数ごとに、又は内視鏡が規定の移動を行った場合に、実内視鏡画像に対応する3次元画像の視点情報を取得する構成としてもよい。
第10態様によれば、規定のフレーム数、又は内視鏡の移動に応じた内視鏡画像と仮想内視鏡画像との対応付けが可能である。
第11態様は、第1態様から第10態様のいずれか一態様の画像処理装置において、視点情報取得部は、既に視点情報を取得した実内視鏡画像について、新たに視点情報を取得した場合、実内視鏡画像に対応する3次元画像の視点情報を更新する構成としてもよい。
第11態様によれば、最新の視点情報の使用が可能となる。これにより、最新の視点情報を用いた第1仮想内視鏡画像を実内視鏡画像に対応付けすることが可能となる。
第12態様は、第1態様から第11態様のいずれか一態様の画像処理装置において、実内視鏡画像と対応する視点情報を非取得の場合に警告する警告部を備えた構成としてもよい。
第12態様によれば、視点情報の非取得を術者が認識し得る。
第13態様は、第1態様から第12態様のいずれか一態様の画像処理装置において、3次元画像入力部は、大腸の3次元画像を入力し、特徴点抽出部は、盲腸入口、上行結腸と横行結腸との間の湾曲部、横行結腸と下行結腸との間の湾曲部、下行結腸とS字結腸との間の湾曲部、ひだ、ポリープ、及び血管の少なくともいずれか1つを特徴点として抽出する構成としてもよい。
第13態様によれば、大腸の3次元画像に基づき、盲腸入口などの大腸の特徴的な形状を有する部位の特定が可能となる。
第14態様は、第13態様の画像処理装置において、視点情報取得部は、大腸のひだの数に基づいて実内視鏡画像に対応する3次元画像の視点情報を取得する構成としてもよい。
第14態様によれば、大腸のひだの数を用いた実内視鏡画像と第1仮想内視鏡画像との対応付けが可能となる。
第15態様は、第1態様から第14態様のいずれか一態様の画像処理装置において、特徴点抽出部は、3次元画像から予め抽出された特徴点の情報を取得する構成としてもよい。
第15態様によれば、実内視鏡画像から特徴点を抽出する際の処理の効率化、及び処理負荷の低減化の少なくともいずれかが可能となる。
第16態様に係るプロセッサ装置は、内視鏡の動作を制御する内視鏡制御部と、内視鏡を用いた撮像を制御する撮像制御部と、内視鏡を用いて撮像して得られた内視鏡画像を処理する画像処理部と、を備えたプロセッサ装置であって、画像処理部は、被検体の3次元画像を入力する3次元画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部と、を備えたプロセッサ装置である。
第16態様によれば、第1態様と同様の効果を得ることができる。
第16態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプロセッサ装置の構成要素として把握することができる。
第16態様に係るプロセッサ装置は、1つ以上のプロセッサと、1つ以上のメモリとを備えたプロセッサ装置であって、プロセッサは、内視鏡の動作を制御し、内視鏡を用いた撮像を制御し、内視鏡を用いて撮像して得られた内視鏡画像を処理し、内視鏡画像の処理においてプロセッサは、被検体の3次元画像を入力し、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力し、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出し、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得し、メモリはプロセッサの処理結果を記憶するプロセッサ装置として構成し得る。
第17態様に係る内視鏡システムは、内視鏡を備えた内視鏡装置と、画像処理装置と、を備えた内視鏡システムであって、画像処理装置は、被検体の3次元画像を入力する3次元画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得部と、を備えた内視鏡システムである。
第17態様によれば、第1態様と同様の効果を得ることができる。
第17態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う内視鏡システムの構成要素として把握することができる。
第17態様に係る内視鏡システムは、1つ以上のプロセッサと、1つ以上のメモリとを備え、内視鏡を備えた内視鏡装置を備えた内視鏡システムであって、プロセッサは、被検体の3次元画像を入力し、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力し、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出し、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得し、メモリはプロセッサの処理結果を記憶する内視鏡システムとして把握し得る。
第18態様は、第17態様の内視鏡システムにおいて、3次元画像から生成される仮想内視鏡画像を表示する表示部と、視点情報取得部を用いて取得した視点情報に基づいて、3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部と、を備え、表示部は、新たな第1仮想内視鏡画像を表示する際に、先に表示した第1仮想内視鏡画像から新たな第1仮想内視鏡画像へ直接切り替えるか、早送りするか、又はモーフィングを用いるかのいずれかを選択する構成としてもよい。
第18態様によれば、新たな第1仮想内視鏡画像が生成された場合に、先に生成された第1仮想内視鏡画像から、新たな第1仮想内視鏡画像への表示の切り替えがスムーズに行われる。
第19態様は、第18態様の内視鏡システムにおいて、表示部は、実内視鏡画像と、実内視鏡画像に対応する第1仮想内視鏡画像とを同期して表示させる構成としてもよい。
第19態様によれば、実内視鏡画像と第1仮想内視鏡画像の同期表示が可能である。
第20態様は、第18態様又は第19態様の内視鏡システムにおいて、実内視鏡画像を記憶する内視鏡画像記憶部を備え、内視鏡画像記憶部は、視点情報を付加した実内視鏡画像を記憶する構成としてもよい。
第20態様によれば、視点情報を付加した実内視鏡画像の記憶が可能である。
第21態様は、第20態様の内視鏡システムにおいて、内視鏡画像記憶部は、実内視鏡画像に対応する第1仮想内視鏡画像を記憶する構成としてもよい。
第21態様によれば、実内視鏡画像と第1内視鏡画像との連携の維持が可能である。
第22態様に係る画像処理方法は、被検体の3次元画像を入力する3次元画像入力工程と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力工程と、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出工程と、3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得工程と、を含む画像処理方法である。
第22態様によれば、第1態様と同様の効果を得ることができる。
第22態様において、第2態様から第15態様で特定した事項、及び第17態様か第20態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置、又は内視鏡システムにおいて特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理方法の構成要素として把握することができる。
第23態様に係るプログラムは、コンピュータに、被検体の3次元画像を入力する3次元画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力機能、3次元画像、及び実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出機能、及び3次元画像、及び実内視鏡画像のそれぞれの特徴点に基づいて、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点の方向の情報を含む視点情報を取得する視点情報取得機能を実現させるプログラムある。
第23態様によれば、第1態様と同様の効果を得ることができる。
第23態様において、第2態様から第15態様で特定した事項、及び第17態様か第20態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置、又は内視鏡システムにおいて特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
本発明によれば、実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び視点における向きの情報を含む視点情報を取得する。これにより、実内視鏡画像と仮想内視鏡画像とを正確に対応付けることが可能である。
図1は内視鏡システムの全体構成を示す概略図である。 図2は画像処理装置のハードウェアの構成例を示すブロック図である。 図3は第1実施形態に係る画像処理装置の機能を示す機能ブロック図である。 図4は図3に示した画像解析処理部の機能を示す機能ブロック図である。 図5は大腸の3次元モデルを示す3次元画像の説明図である。 図6は3次元画像の特徴点抽出の一例を示す模式図である。 図7は3次元視鏡画像の特徴点抽出の他の例を示す模式図である。 図8は内視鏡画像の特徴点抽出の一例を示す模式図である。 図9は内視鏡画像の特徴点抽出の他の例を示す模式図である。 図10は内視鏡画像と仮想内視鏡画像との対応付けの一例を示す模式図である。 図11は内視鏡画像と仮想内視鏡画像との対応付けの他の例を示す模式図である。 図12は視点情報取得の一例の説明図である。 図13は対応付け後の仮想内視鏡画像の表示例を示す模式図である。 図14は第1実施形態に係る画像処理方法の手順の流れを示すフローチャートである。 図15は図14に示した視点情報取得工程の手順の流れを示すフローチャートである。 図16は内視鏡画像と仮想内視鏡画像との対応付けのバリエーションを示す模式図である。 図17は対応付けの更新の説明図である。 図18は大腸ナビゲーションの説明図である。 図19は第2実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。 図21は第2実施形態に係る画像処理方法を模式的に示す模式図である。 図21は第3実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。 図22は第4実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明を省略する。
[内視鏡システムの全体構成]
図1は内視鏡システムの全体構成を示す概略図である。図1に示した内視鏡システム9は、内視鏡10、光源装置11、プロセッサ装置12、表示装置13、画像処理装置14、入力装置15、及びモニタ装置16を備える。内視鏡システム9は、ネットワーク17を介して記憶装置18と通信可能に接続される。
内視鏡10は電子内視鏡である。また、内視鏡10は軟性内視鏡である。内視鏡10は挿入部20、操作部21、及びユニバーサルコード22を備える。挿入部20は被検体内に挿入される。挿入部20は、全体が細径で長尺状に形成されている。
挿入部20は、軟性部25、湾曲部26、及び先端部27を備える。挿入部20は、軟性部25、湾曲部26、及び先端部27が連設されて構成される。軟性部25は、挿入部20の基端側から先端側に向けて順に可撓性を有する。湾曲部26は、操作部21が操作された場合に湾曲可能な構造を有する。先端部27は、図示しない撮像光学系及び撮像素子28等が内蔵される。
撮像素子28は、CMOS型撮像素子又はCCD型撮像素子が適用される。CMOSは、Complementary Metal Oxide Semiconductorの省略語である。CCDは、Charge Coupled Deviceの省略語である。
先端部27の先端面27aは、図示しない観察窓が配置される。観察窓は、先端部27の先端面27aに形成された開口である。観察窓の後方には、図示しない撮像光学系が配置される。撮像素子28の撮像面は、観察窓、及び撮像光学系等を介して、被観察部位の像光が入射する。撮像素子28は、撮像素子28の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、被観察部位からの反射光を電気信号へ変換するという意味が含まれる。
操作部21は挿入部20の基端側に連設される。操作部21は、術者が操作する各種操作部材を備える。具体的には、操作部21は、2種類の湾曲操作ノブ29を備える。湾曲操作ノブ29は、湾曲部26の湾曲操作の際に用いられる。なお、術者は、医師、操作者、及びユーザなどと呼ばれることがあり得る。
操作部21は、送気送水ボタン30、及び吸引ボタン31を備える。送気送水ボタン30は、術者が送気送水操作を行う際に用いられる。吸引ボタン31は、術者が吸引操作を行う際に用いられる。
操作部21は、静止画像撮像指示部32、及び処置具導入口33を備える。静止画像撮像指示部32は、被観察部位の静止画像を撮像する際に、術者が操作する。処置具導入口33は、挿入部20の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路、及び処置具の図示は省略する。なお、静止画像は符号38cを付して図3に図示する。
ユニバーサルコード22は、内視鏡10を光源装置11に接続する接続コードである。ユニバーサルコード22は、挿入部20の内部を挿通しているライトガイド35、信号ケーブル36、及び図示しない流体チューブを内包している。
また、ユニバーサルコード22の先端部は、光源装置11に接続されるコネクタ37a、及びコネクタ37aから分岐され、且つプロセッサ装置12に接続されるコネクタ37bを備える。
コネクタ37aを光源装置11に接続すると、ライトガイド35及び図示しない流体チューブが光源装置11に挿入される。これにより、ライトガイド35及び図示しない流体チューブを介して、光源装置11から内視鏡10に対して必要な照明光と水と気体とが供給される。
その結果、先端部27の先端面27aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン30の押下操作に応じて、先端部27の先端面27aの図示しない送気送水ノズルから先端面27aの図示しない観察窓に向けて気体又は水が噴射される。
コネクタ37bをプロセッサ装置12に接続すると、信号ケーブル36とプロセッサ装置12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡10の撮像素子28からプロセッサ装置12へ被観察部位の撮像信号が出力され、且つプロセッサ装置12から内視鏡10へ制御信号が出力される。すなわち、プロセッサ装置12は、内視鏡10の動作を制御する内視鏡制御部として機能する。
本実施形態では、内視鏡10として軟性内視鏡を例に挙げて説明を行ったが、内視鏡10として、硬性内視鏡等の被観察部位の動画撮像を可能な各種の電子内視鏡を用いてもよい。
光源装置11は、コネクタ37aを介して、内視鏡10のライトガイド35へ照明光を供給する。照明光は、白色光、又は特定の波長帯域の光を適用可能である。照明光は、白色光、及び特定の波長帯域の光を組み合わせてもよい。光源装置11は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。なお、特定の波長帯域は、特殊光と呼ばれる場合がある。
プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の動作を制御する。また、プロセッサ装置12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の撮像素子28から撮像信号を取得する。プロセッサ装置12は規定のフレームレートを適用して内視鏡10から出力された撮像信号を取得する。
プロセッサ装置12は、内視鏡10から取得した撮像信号に基づき、被観察部位の観察画像である内視鏡画像38を生成する。ここでいう内視鏡画像38には動画像が含まれる。内視鏡画像38は静止画像が含まれてもよい。動画像は符号38aを付して図3に図示する。
プロセッサ装置12は、操作部21の静止画像撮像指示部32が操作された場合、動画像の生成と並行して、撮像素子28から取得した撮像信号に基づき被観察部位の静止画像を生成する。静止画像は、動画像の解像度に対して高解像度に生成されていてもよい。
内視鏡画像38の生成の際に、プロセッサ装置12はホワイトバランス調整、及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。すなわち、プロセッサ装置12は、内視鏡10を用いた撮像を制御する撮像制御部として機能する。
プロセッサ装置12はDICOM規格で規定された付帯情報を内視鏡画像38へ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。
内視鏡画像38は、被検体内、すなわち生体内を撮像した生体内画像である。内視鏡画像38が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ装置12は、生成した内視鏡画像38を、表示装置13と画像処理装置14とのそれぞれに出力する。プロセッサ装置12は、DICOM規格に準拠した通信プロトコルに従って、ネットワーク17を介して内視鏡画像38を記憶装置18へ出力してもよい。内視鏡画像38は実内視鏡画像に相当する。
表示装置13は、プロセッサ装置12に接続される。表示装置13は、プロセッサ装置12から送信された内視鏡画像38を表示する。術者は、表示装置13に表示される内視鏡画像38を確認しながら、挿入部20の進退操作等をし得る。術者は、被観察部位に病変等を検出した場合に、静止画像撮像指示部32を操作して被観察部位の静止画を撮像し得る。表示装置13は、後述するモニタ装置16の一部の機能、又は全ての機能を備えてもよい。
画像処理装置14は、コンピュータが用いられる。入力装置15はコンピュータに接続可能なキーボード及びマウス等が用いられる。入力装置15とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置16は、コンピュータに接続可能な各種モニタが用いられる。
画像処理装置14として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、入力装置15及びモニタ装置16は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、画像処理装置14として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。
画像処理装置14は、内視鏡画像38の取得、及び内視鏡画像38の記憶を行う。画像処理装置14は、モニタ装置16の再生制御を行う。すなわち、画像処理装置14は、内視鏡画像38を取得する内視鏡画像取得部、内視鏡画像38の記憶する画像記憶部、及び内視鏡画像38の表示制御を行う表示制御部を備える。
内視鏡画像取得部は符号41bを付して図3に図示する。画像記憶部は符号48を付して図3に図示する。表示制御部は符号44を付して図3に図示する。なお、本明細書における画像の記憶は、画像の保存と読み替えることが可能である。ここでいう画像の記憶は、画像の非一時的記憶を意味する。画像処理装置14は画像を一次記憶する一次記憶用のメモリを備えてもよい。
画像処理装置14は、3次元画像19を取得する。例えば、画像処理装置14は、ネットワーク17を介して記憶装置18から3次元画像19を取得することが可能である。3次元画像19の例として、CT装置を用いて生成された複数のCT画像が含まれるCT画像群、及びMRI装置を用いて生成された複数のMRI画像が含まれるMRI画像群等が挙げられる。
以下、複数のCT画像が含まれるCT画像群を、単にCT画像と呼ぶことがある。MRI画像群も同様である。すなわち、CT画像という用語は、1枚のCT画像、及び複2枚以上のCT画像の総称の意味を有する。
画像処理装置14は、3次元画像19を用いて仮想内視鏡画像を生成する。画像処理装置14はモニタ装置16を用いて仮想内視鏡画像を表示させるための表示制御信号を生成する。画像処理装置14はモニタ装置16へ表示制御信号を送信する。なお、仮想内視鏡画像は符号39を付して図4に図示する。仮想内視鏡画像の生成、及びモニタ装置16を用いた仮想内視鏡画像の表示の詳細は後述する。
入力装置15は、画像処理装置14に対する操作指示の入力に用いられる。モニタ装置16は、画像処理装置14の制御の下、内視鏡画像38の表示を行う。モニタ装置16は、画像処理装置14における各種情報の表示部として機能してもよい。
画像処理装置14は、ネットワーク17を介して記憶装置18と接続される。画像の格納形式、及びネットワーク17を経由した各装置間の通信は、DICOM規格、及びDICOM規格に準拠したプロトコル等を適用可能である。
なお、画像という用語は、画像を表す画像データの意味が含まれている。本明細書における画像という用語は、画像自身、及び画像データの少なくともいずれかを意味している。
記憶装置18は、データを非一時的に記憶するストレージ等を適用可能である。記憶装置18は、図示しないサーバ装置を用いて管理されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。図1に示した内視鏡システム9、及び画像処理装置14を含むシステムは、内視鏡を備えた内視鏡装置と、画像処理装置と、を備えた内視鏡システムの一例に相当する。
[第1実施形態に係る画像処理装置の構成]
次に、第1実施形態に係る画像処理装置について説明する。
〔概要〕
本実施形態に係る画像処理装置方法は、内視鏡10の動きに合わせて仮想内視鏡画像をモニタ装置16に表示させる。すなわち、画像処理装置14は、内視鏡画像38と仮想内視鏡画像との対応付けを行い、内視鏡画像38と対応付けがされた仮想内視鏡画像をモニタ装置16に表示させる。以下に、画像処理装置について詳細に説明する。
〔ハードウェア構成〕
図2は画像処理装置のハードウェアの構成例を示すブロック図である。画像処理装置14は、制御部1、メモリ2、ハードディスク装置3、通信インターフェース4、入力コントローラ5、及びディスプレイコントローラ6を備える。
〈制御部〉
制御部1は、画像処理装置14の全体制御部、各種演算部、及び記憶制御部として機能する。制御部1は、メモリ2に具備されるROM(read only memory)に記憶されているプログラムを実行する。制御部1は、通信インターフェース4を介して、外部の記憶装置からプログラムをダウンロードし、ダウンロードしたプログラムを実行してもよい。外部の記憶装置は、ネットワーク17を介して画像処理装置14と通信可能に接続されていてもよい。
制御部1は、メモリ2に具備されるRAM(random access memory)を演算領域とし、各種プログラムと協働して、各種処理を実行する。これにより、画像処理装置14の各種機能が実現される。
制御部1は、ハードディスク装置3からのデータの読み出し、及びハードディスク装置3へのデータの書き込みを制御する。制御部1は、1つ又は2つ以上のプロセッサ(processor)が含まれてもよい。
プロセッサの一例として、FPGA(Field Programmable Gate Array)、及びPLD
(Programmable Logic Device)等が挙げられる。FPGA、及びPLDは、製造後に回路構成の変更を可能とする。
プロセッサの他の例として、ASIC(Application Specific Integrated Circuit)
が挙げられる。ASICは、特定の処理を実行させるために専用に設計された回路構成を備える。
制御部1は、同じ種類の2以上のプロセッサを適用可能である。例えば、制御部1は2つ以上のFPGAを用いてもよいし、2つのPLDを用いてもよい。制御部1は、異なる種類の2つ以上プロセッサを適用してもよい。例えば、制御部1は1つ以上のFPGAと1つ以上のASICとを適用してもよい。
複数の制御部を備える場合、複数の制御部は1つのプロセッサを用いて構成してもよい。複数の制御部を1つのプロセッサで構成する一例として、1つ以上のCPU(Central Processing Unit)とソフトウェアとの組合せを用いて1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。CPUに代わり、又はCPUと併用して、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)を適用してもよい。なお、ここでいうソフトウェアはプログラムと同義である。複数の制御部が1つのプロセッサを用いて構成される代表例として、クライアント装置、及びサーバ装置等のコンピュータが挙げられる。
複数の制御部を1つのプロセッサで構成する他の例として、複数の制御部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態が挙げられる。複数の制御部を含むシステム全体の機能を1つのICチップで実現するプロセッサの代表例として、SoC(System On Chip)が挙げられる。なお、ICは、Integrated Circuitの省略語である。
このように、制御部1は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。
〈メモリ〉
メモリ2は、図示しないROM、及び図示しないRAMを備える。ROMは、画像処理装置14において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ、及びファイル等を記憶する。RAMは、データの一時記憶領域、及び制御部1のワーク領域等として機能する。
〈ハードディスク装置〉
ハードディスク装置3は、各種データを非一時的に記憶する。具体的には、ハードディスク装置3は、内視鏡10の観察画像、及び図1に示した記憶装置18等の外部の記憶装置から取得した医用画像等を記憶する。ハードディスク装置3は、画像処理装置14の外部に外付けされてもよい。ハードディスク装置3に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
〈通信インターフェース〉
通信インターフェース4は、図1に示した記憶装置18の外部の装置との間のデータ通信を行う。図2に示したIFは、interfaceの省略語である。
〈入力コントローラ〉
入力コントローラ5は、キーボード、及びマウス等の入力装置15から送信される信号を受信し、画像処理装置14に適用される形式の信号に変換するインターフェースである。
〈ディスプレイコントローラ〉
ディスプレイコントローラ6は、画像処理装置14において生成された画像を表す信号を、モニタ装置16を用いて表示させる映像信号に変換するインターフェースである。ディスプレイコントローラ6は、画像を表す映像信号をモニタ装置16へ送信する。
なお、図2に示した画像処理装置14のハードウェア構成は一例であり、適宜、追加、削除、及び変更が可能である。
〔第1実施形態に係る画像処理装置の機能〕
図3は第1実施形態に係る画像処理装置の機能を示す機能ブロック図である。図3に示した画像処理装置14は、全体制御部40、画像取得部41、情報取得部42、画像解析処理部43、表示制御部44、及び記憶部47を備える。
全体制御部40、画像取得部41、情報取得部42、画像解析処理部43、表示制御部44、及び記憶部47は、通信信号線68を介して相互に通信可能に接続される。以下、各部について詳細に説明する。
〈全体制御部〉
全体制御部40は、画像処理装置14の制御プログラムの実行に基づき、画像取得部41、情報取得部42、画像解析処理部43、及び表示制御部44を統括的に制御する。
〈画像取得部〉
画像取得部41は、3次元画像取得部41a、及び内視鏡画像取得部41bを備える。以下、3次元画像取得部41a、及び内視鏡画像取得部41bについて詳細に説明する。
《3次元画像取得部》
3次元画像取得部41aは、CT装置等のモダリティを用いて生成された3次元画像19であり、例えば、図1に示した記憶装置18等に記憶されている3次元画像19を取得する。本実施形態では、3次元画像19として、内視鏡検査の対象者の大腸のCT画像を取得する例について説明する。3次元画像取得部41aは、被検体の3次元画像を入力する3次元画像入力部の一例に相当する。
《内視鏡画像取得部》
内視鏡画像取得部41bは、図1に示したプロセッサ装置12を用いて生成された内視鏡画像38を取得する。内視鏡画像取得部41bは、外部の記憶装置に記憶されている内視鏡装置を用いて撮像された内視鏡画像を取得してもよい。内視鏡画像取得部41bは、メモリーカード等の各種情報記憶媒体を介して、上記した内視鏡画像38を取得してもよい。
内視鏡画像取得部41bは、動画像38aを取得する。内視鏡画像取得部41bは、動画像38aとして、時系列のフレーム画像38bを取得してもよい。内視鏡画像取得部41bは、静止画像38cを取得してもよい。動画像38aの撮像途中に静止画像38cの撮像操作が行われた場合、内視鏡画像取得部41bは、図1に示したプロセッサ装置12から静止画像38cを取得する。内視鏡画像取得部41bは、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部の一例に相当する。内視鏡画像38、動画像38a、及び静止画像38cは実内視鏡画像の一例に相当する。
〈情報取得部〉
情報取得部42は、画像処理装置14の処理、及び演算等に用いられる各種情報を取得する。各種情報の例として、内視鏡10の視野方向の情報が挙げられる。内視鏡10の視野方向の情報の例として、内視鏡10に視野方向を検出するセンサの出力信号が挙げられる。情報取得部は内視鏡の視野情報を取得する視野情報取得部の一例に相当する。
各種情報の他の例として、3次元画像19を取得する際の3次元画像19を特定する情報が挙げられる。3次元画像19を特定する情報は、内視鏡検査の対象者の個人名、個人番号、3次元画像19の取得日、及び3次元画像19の取得場所等が挙げられる。
〈画像解析処理部〉
画像解析処理部43は、深層学習アルゴリズム45に基づく深層学習を用いて、内視鏡画像取得部41bを用いて取得した内視鏡画像38の解析処理を実行する。内視鏡画像38の解析処理の詳細は後述する。
深層学習アルゴリズム45は、公知のコンボリューションニューラルネットワークの手法と、全結合層と、出力層とを含むアルゴリズムである。深層学習はディープラーニングと呼ばれることがある。
コンボリューションニューラルネットワークは、畳み込み層、及びプーリング層の繰り返し処理である。コンボリューションニューラルネットワークは、畳み込みニューラルネットワークと呼ばれる場合がある。なお、深層学習を用いた画像解析処理は公知技術であるので、具体的な説明は省略する。深層学習は機械学習の一例に相当する。
〈表示制御部〉
表示制御部44は、再生制御部44a、及び情報表示制御部44bを備える。以下、再生制御部44a、及び情報表示制御部44bについて詳細に説明する。
《再生制御部》
再生制御部44aは、モニタ装置16を用いて内視鏡画像38、及び仮想内視鏡画像を再生する際に、画像表示を制御するディスプレイドライバーとして機能する。表示制御部44は、モニタ装置16を用いて、動画像38aの再生中に、動画像38aの任意のフレーム画像38bに対応付けされた仮想内視鏡画像を表示させることが可能である。
《情報表示制御部》
情報表示制御部44bは、モニタ装置16を用いて各種情報を表示させる。例えば、情報表示制御部44bは、モニタ装置16を用いて表示させる内視鏡画像38、及び仮想内視鏡画像に文字情報等を重畳表示させることが可能である。文字情報以外の各種情報の例として、記号表示、及び強調表示等が挙げられる。文字情報の適用例として、警告表示が挙げられる。
〈記憶部〉
記憶部47は、画像記憶部48、及びプログラム記憶部49を備える。以下、画像記憶部48、及びプログラム記憶部49について詳細に説明する。
《画像記憶部》
画像記憶部48は、3次元画像取得部41aを用いて取得した3次元画像19を記憶する。画像記憶部48に記憶された3次元画像19は、全体制御部40の制御の下、画像解析処理部43へ読み出される。
画像記憶部48は、3次元画像19から生成された仮想内視鏡画像を記憶する。画像記憶部48に記憶された仮想内視鏡画像は、全体制御部40の制御の下、表示制御部44を介して表示制御信号としてモニタ装置16へ送信される。
画像記憶部48は、内視鏡画像取得部41bを用いて取得した内視鏡画像38を記憶する。画像記憶部48に記憶された画像は、全体制御部40の制御の下、画像解析処理部43へ読み出される。
画像記憶部48に記憶された内視鏡画像38は、全体制御部40の制御の下、表示制御部44を介して表示制御信号としてモニタ装置16へ送信される。
《プログラム記憶部》
プログラム記憶部49は、画像処理装置14を動作させる各種プログラムを記憶する。プログラム記憶部49に記憶された各種プログラムは、全体制御部40の制御の下、各部へ読み出される。
〔画像解析処理部の構成例〕
図4は図3に示した画像解析処理部の機能を示す機能ブロック図である。画像解析処理部43は、第1特徴点抽出部51、第2特徴点抽出部52、視点情報取得部53、及び第1仮想内視鏡画像生成部54を備える。以下、上記した各部について詳細に説明する。
〈第1特徴点抽出部〉
第1特徴点抽出部51は、3次元画像19から特徴点を抽出する。特徴点の例として、ポリープ等の病変が挙げられる。被検体が大腸の場合、特徴点の例として、ひだ、各結腸間の変化点、血管が挙げられる。ここでいう血管は、血管の走行パターンが含まれる。
第1特徴点抽出部51は、3次元画像19から抽出された特徴点の情報を視点情報取得部53へ送信する。3次元画像19から特徴点を抽出する際に、3次元画像19からボリュームデータを生成し、ボリュームデータから特徴点を抽出してもよい。
なお、3次元画像を表すデータであるボリュームデータは、3次元画像の概念に含まれる。3次元画像19から特徴点を抽出する手法は公知技術を適用可能である。ここでは、3次元画像19から特徴点を抽出する手法の詳細な説明は省略する。
〈第2特徴点抽出部〉
第2特徴点抽出部52は、内視鏡画像38から特徴点を抽出する。内視鏡画像38から抽出される特徴点は3次元画像19と同様であり、ここでの説明は省略する。第2特徴点抽出部52は、内視鏡画像38から抽出された特徴点の情報を視点情報取得部53へ送信する。
〈視点情報取得部〉
視点情報取得部53は、3次元画像19の特徴点、及び内視鏡画像38の特徴点に基づいて、内視鏡画像38と対応付けされる仮想内視鏡画像39を生成する際の視点情報を取得する。視点情報取得部53は、取得した視点情報を第1仮想内視鏡画像生成部54へ送信する。ここでいう視点情報の取得は、視点情報の生成が含まれる。
3次元画像19と仮想内視鏡画像との対応付けは、内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39を、内視鏡画像38と紐付けする処理である。なお、ここでいう紐付けとは関連付けと同義である。
視点情報は、内視鏡画像38を撮像した際の内視鏡10の位置に相当するパス上の位置の情報、及び内視鏡画像38を撮像した際の内視鏡10の向きに相当するパス上の向きの情報が含まれる。
〈第1仮想内視鏡画像生成部〉
第1仮想内視鏡画像生成部54は、視点情報取得部53を用いて取得した視点情報に基づいて、仮想内視鏡画像39を生成する。仮想内視鏡画像39は、大腸等の体腔の内壁を表す2次元画像である。換言すると、仮想内視鏡画像39は、規定の視点における規定の視点方向について、仮想的な撮像装置を用いて撮像して得られた2次元画像である。仮想内視鏡画像39は第1仮想内視鏡画像の一例に相当する。
具体的には、規定の視点、及び規定の視線方向に基づく視線ベクトルを中心として放射線状に伸ばした複数の光線方向上のボリュームデータを、規定の投影面に投影した中心投影による画像を仮想内視鏡画像として生成し得る。中心投影の具体的な方法の例として、公知のボリュームレンダリング手法等が挙げられる。
仮想内視鏡画像の視点は、ボリュームデータに基づいて抽出された被検体の中心線上の点を設定し得る。視線方向は、被検体の中心線の進行方向を初期設定とし、内視鏡10の姿勢に応じて設定を変更し得る。ここでいう内視鏡10の姿勢は、内視鏡10の光軸方向と同義である。
第1仮想内視鏡画像生成部54を用いて生成された仮想内視鏡画像39は、図3に示した表示制御部44の制御の下、モニタ装置16へ表示させることが可能である。仮想内視鏡画像39は、各視点における仮想内視鏡画像である視点画像39bの画像群39aである。なお、視点画像は説明の都合上の名称であり、視点画像は各視点における仮想内視鏡画像を表す。視点画像は仮想内視鏡画像と読み替えることが可能である。
画像群39aは動画像38aに相当する。視点画像39bは動画像38aの各フレーム画像38bに相当する。任意の視点における静止画像相当画像39cは静止画像38cに相当する。
第1仮想内視鏡画像生成部54は、動画像38aのフレーム画像38bごとに視点画像39bを生成してもよいし。複数のフレーム画像38bおきに視点画像39bを生成してもよい。また、第1仮想内視鏡画像生成部54は、内視鏡10が規定の移動を行った場合に視点画像39bを生成してもよい。複数のフレーム画像38bの数は規定フレーム数の一例に相当する。
なお、以下の説明において、仮想内視鏡画像39という用語は、視点画像39bの画像群39a、各視点画像39b、及び静止画像相当画像39cの総称を表す場合がある。
〔画像解析処理の具体例〕
次に、第1実施形態に係る画像解析処理の具体例について説明する。以下に、大腸を被検体とする内視鏡検査を行い、CT装置を用いて予め取得されている大腸のCT画像から仮想内視鏡画像を生成し、内視鏡画像と仮想内視鏡画像との対応付けを行う例について説明する。
〈3次元画像の特徴点抽出〉
図5は大腸の3次元モデルを示す3次元画像の説明図である。図5に示した3次元モデル19aは、例えば、複数のCT画像から生成されたボリュームデータに対応している。図5に示したパス19bは、内視鏡検査における内視鏡10の移動経路に対応する3次元モデル19a上の仮想的な撮像装置の移動経路である。
始点19cは、パス19bの開始位置である。図5に示す例では、始点19cは盲腸を適用している。終点19dはパス19bの終了位置である。図5に示す例では、終点19dは、肛門を適応している。
パス19bは1つ以上の視点19eが指定可能である。パス19bに図示した矢印は、内視鏡10に相当する仮想的な撮像装置の移動方向である。図5には、仮想的な撮像装置を移動方向と反対方向に向けて撮像する場合を図示した。
図6は3次元画像の特徴点抽出の一例を示す模式図である。説明の都合上、図6には3次元画像19から擬似的な仮想内視鏡画像19fを生成し、擬似的な仮想内視鏡画像19fから特徴点を抽出する例を示す。但し、擬似的な仮想内視鏡画像19fを生成せずに、ボリュームデータ等から特徴点の抽出が可能である。なお、擬似的な仮想内視鏡画像19fは、第2実施形態において説明する第2仮想内視鏡画像39fに相当する。
擬似的な仮想内視鏡画像19fは、特徴点70としてポリープが抽出されている。図6には、2枚の連続するフレーム画像38bに対応する、2枚の擬似的な仮想内視鏡画像19fを図示した。2枚の擬似的な仮想内視鏡画像19fはいずれも、特徴点70としてポリープが抽出されている。一方、図6に示した2枚の擬似的な仮想内視鏡画像19fは、異なる視点19eにおいて生成されたものである。図6に示した2枚の擬似的な仮想内視鏡画像19fは撮像方向が異なる場合があり得る。
図7は3次元視鏡画像の特徴点抽出の他の例を示す模式図である。図7に示した3枚の擬似的な仮想内視鏡画像19fは、特徴点70aとしてひだが抽出されている。図7に示した3枚の擬似的な仮想内視鏡画像19fはいずれも、特徴点70aとしてひだが抽出されている。
一方、図7に示した3枚の擬似的な仮想内視鏡画像19fは、異なる視点19eにおいて生成されたものである。図7に示した3枚の擬似的な仮想内視鏡画像19fは撮像方向が異なる場合があり得る。
大腸の特徴点の他の例として、盲腸入口、上行結腸と横行結腸との間の湾曲部、横行結腸と下行結腸との間の湾曲部、及び下行結腸とS字結腸との間の湾曲部等が挙げられる。これらの部位はいずれも特徴的な湾曲形状を有している。
ここで、特徴点という用語は、特徴を有する一点、又は1画素に限定されない。特徴点は、2画素以上の画素から構成し得る。特徴点という用語は、特徴領域、特徴部分、及び特徴位置等の用語と置き替えてもよい。以下に説明する内視鏡画像の特徴点についても同様である。
〈内視鏡画像の特徴点抽出〉
図8は内視鏡画像の特徴点抽出の一例を示す模式図である。図8には、特徴点80としてポリープが抽出されたフレーム画像38bを図示する。図示は省略するが、図8に示したフレーム画像38bの前後のフレーム画像38bにも、特徴点80としてポリープが抽出される。一方、図8に示したフレーム画像38bと、フレーム画像38bの前後のフレーム画像38bとの内視鏡10の位置は相違する。また、それぞれの撮像方向が異なる場合もあり得る。
図9は内視鏡画像の特徴点抽出の他の例を示す模式図である。図9に示したフレーム画像38bは、特徴点80aとしてひだが抽出されている。図9に示したフレーム画像38bの前後のフレーム画像38bにも、特徴点80aとしてひだが抽出される。
一方、図9に示したフレーム画像38bと、フレーム画像38bの前後のフレーム画像38bとの内視鏡10の位置は相違する。また、それぞれの撮像方向が異なる場合もあり得る。なお内視鏡画像38における大腸の特徴点は、3次元画像19と同様であり、ここでの説明は省略する。
〈内視鏡画像と仮想内視鏡画像との対応付け〉
内視鏡画像38を撮像した内視鏡10の正確な位置、及び内視鏡10の正確な撮像方向が把握できれば、内視鏡画像38と対応付けされる仮想内視鏡画像39の視点位置、及び視点方向を特定することが可能である。しかし、内視鏡10の正確な位置、及び内視鏡10の正確な姿勢を把握することは困難である。
本実施形態に示す画像処理装置14は、内視鏡画像38の特徴点の情報、及び3次元画像19の特徴点の情報を用いて、内視鏡画像38と対応付けされる仮想内視鏡画像39を取得する視点位置、及び視点方向を特定する。また、画像処理装置14は、内視鏡画像38と仮想内視鏡画像39とを対応付けする。
図10は内視鏡画像と仮想内視鏡画像との対応付けの一例を示す模式図である。図10には、ポリープを特徴点80とする内視鏡画像38のフレーム画像38bに、特徴点80と一致する、ポリープを特徴点70とする仮想内視鏡画像39の視点画像39bが対応付けされた場合を図示した。
図10に示した仮想内視鏡画像39は、3次元画像19、及び内視鏡画像38を用いた画像解析処理から導出された視点位置、及び視点方向に基づいて生成され、内視鏡画像38と対応付けがされている。
図11は内視鏡画像と仮想内視鏡画像との対応付けの他の例を示す模式図である。図11には、内視鏡画像38と仮想内視鏡画像39との一致する特徴点として、ひだを適用した例を示す。
図11に示した仮想内視鏡画像39は、3次元画像19、及び内視鏡画像38を用いた画像解析処理から導出された視点位置、及び視点方向に基づいて生成され、内視鏡画像38と対応付けがされている。
〈視点情報の取得の具体例〉
図12は視点情報取得の一例の説明図である。内視鏡画像38から1つ以上の特徴点を有するフレーム画像38bを特定する。図12に示したフレーム画像38bは4つの特徴点である第1特徴点100a、第2特徴点100b、第3特徴点100c、及び第4特徴点100dを有している。
次に、フレーム画像38bの特徴点に対応する特徴点を有する3次元画像19の領域を特定する。図12に示す例では、3次元画像19の領域として擬似的な仮想内視鏡画像19fを適用する。
図12に示した擬似的な仮想内視鏡画像19fは、フレーム画像38bの4つの特徴点に対応する第1特徴点110a、第2特徴点110b、第3特徴点110c、及び第4特徴点110dを有している。
すなわち、フレーム画像38bの第1特徴点100aと擬似的な仮想内視鏡画像19fの第1特徴点110aとが対応付けされる。同様に、フレーム画像38bの第2特徴点100bと擬似的な仮想内視鏡画像19fの第2特徴点110bとが対応付けされる。
更に、フレーム画像38bの第3特徴点100cと擬似的な仮想内視鏡画像19fの第3特徴点110cとが対応付けされ、且つフレーム画像38bの第4特徴点100dと擬似的な仮想内視鏡画像19fの第4特徴点110dとが対応付けされる。
すなわち、フレーム画像38bの全ての特徴点100に対応付けされる、特徴点110を有する擬似的な仮想内視鏡画像19fが特定される。なお、特徴点100は、第1特徴点100a、第2特徴点100b、第3特徴点100c、及び第4特徴点100dの総称である。特徴点110は、第1特徴点110a、第2特徴点110b、第3特徴点110c、及び第4特徴点110dの総称である。
次に、フレーム画像38bの特徴量を導出する。また、擬似的な仮想内視鏡画像19fの特徴量を導出する。フレーム画像38bの特徴量の導出は、公知の技術を適用可能である。例えば、フレーム画像38bの全ての特徴点100の画素値を用いてフレーム画像38bの特徴量を導出し得る。擬似的な仮想内視鏡画像19fの特徴量の導出についても同様である。
擬似的な仮想内視鏡画像19fの特徴量が、フレーム画像38bの特徴量と相違する場合、フレーム画像38bの特徴量と同一の特徴量を有する仮想内視鏡画像39dを生成可能な視点情報として、視点位置P、及び視点方向Dを特定する。
すなわち、内視鏡画像38を観察する際に、内視鏡画像38の表示画面に仮想内視鏡画像39を表示させることが可能である。しかし、内視鏡10の位置、及び内視鏡10の撮像方向を正確に把握することは難しく、内視鏡画像38と仮想内視鏡画像39とを同期させて表示することが困難である。実際に表示される仮想内視鏡画像39の視点位置は、表示される内視鏡画像38の撮像位置との間にずれが生じる。視点方向についても同様である。
そこで、内視鏡画像38の特徴量、及び3次元画像19の特徴量を用いて、内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39を、生成可能な視点位置、及び視点方向を特定する。特定された視点位置P、及び視点方向Dに基づいて生成された仮想内視鏡画像39は、内視鏡画像38と対応付けされる。
換言すると、内視鏡画像38の特徴点、及び3次元画像19の特徴点をそれぞれスコア化し、それぞれのスコアが一致する場合を、内視鏡画像38の特徴点と3次元画像19の特徴点が一致する場合と規定する。
内視鏡画像38、及び3次元画像19に複数の特徴点が存在する場合は、すべての特徴点が一致する場合を、内視鏡画像38の特徴点と3次元画像19の特徴点が一致する場合と規定する。
3次元画像から視点位置、及び視点方向を特定する手法は公知の手法を適用可能である。3次元画像から視点位置、及び視点方向を特定する手法の一例としてSFM(Structure from Motion)等の手法が挙げられる。
〈仮想内視鏡画像の表示例〉
図13は対応付け後の仮想内視鏡画像の表示例を示す模式図である。図13には、図1に示したモニタ装置16を用いて、内視鏡画像38及び内視鏡画像38と対応付けされた仮想内視鏡画像39を同一の画面に表示させる例を示す。
符号16aは、特徴点80としてポリープが抽出された内視鏡画像38が特定された場合の表示例を示す。この場合、内視鏡画像38の特徴点80と一致する特徴点70を有する仮想内視鏡画像39が、特徴点80を有する内視鏡画像38と対応付けされる。そして、モニタ装置16には、特徴点80を有する内視鏡画像38と特徴点70を有する仮想内視鏡画像39とが同一の画面に表示される。
更に、内視鏡画像38の観察が進み、特徴点80aとしてひだが抽出された内視鏡画像38が特定された場合の表示例を、符号16bを付して図示する。この場合、内視鏡画像38の特徴点80aと一致する特徴点70aを有する仮想内視鏡画像39が、特徴点80aを有する内視鏡画像38と対応付けされる。そして、モニタ装置16には、特徴点80aを有する内視鏡画像38と、特徴点70aを有する仮想内視鏡画像39とが同一の画面に表示される。
更に、内視鏡画像38の観察が進み、特徴点が抽出された内視鏡画像38が特定される度に、一致する特徴点を有する仮想内視鏡画像39が、内視鏡画像38に対応付けされる。また、モニタ装置16の同一画面に、対応付けされた内視鏡画像38と仮想内視鏡画像39が表示される。
モニタ装置16を用いて仮想内視鏡画像39を表示させる際に、内視鏡画像38、及び仮想内視鏡画像39の少なくともいずれか一方を表示画面内において回転させて、表示画面内における内視鏡画像38と仮想内視鏡画像39との向きを合わせることが好ましい。
モニタ装置16は、仮想内視鏡画像39を常に表示する必要はない。例えば、新たに対応付けがされるまでの期間は、最後に対応付けされた仮想内視鏡画像39の表示を継続してもよいし、仮想内視鏡画像39を一定期間表示した後に、内視鏡画像38の全画面表示に切り替えてもよい。
なお、内視鏡画像38のフレーム画像38bごとに仮想内視鏡画像39が対応付けされる場合は、内視鏡画像38と仮想内視鏡画像39との同期表示が可能である。この場合は、対応付け処理の処理期間に相当する遅延期間を内視鏡画像38の表示に適用してもよい。
[第1実施形態に係る画像処理方法の手順]
〔画像処理方法の全体の手順〕
図14は第1実施形態に係る画像処理方法の手順の流れを示すフローチャートである。3次元画像取得工程S10では、図3に示した画像解析処理部43は、3次元画像取得部41aを用いて3次元画像を取得する。
3次元画像として、ボリュームデータを取得してもよいし、図6、及び図7に示した擬似的な仮想内視鏡画像19fを取得してもよい。3次元画像取得工程S10の後に、内視鏡画像取得工程S12へ進む。3次元画像取得工程S10は3次元画像入力工程の一例に相当する。
内視鏡画像取得工程S12では、画像解析処理部43は内視鏡画像取得部41bを用いて内視鏡画像38を取得する。なお、3次元画像取得工程S10と内視鏡画像取得工程S12とを並行して実行してもよい。内視鏡画像取得工程S12は実内視鏡画像入力工程の一例に相当する。
内視鏡画像取得工程S12の後に、特徴点抽出工程S14へ進む。特徴点抽出工程S14では、画像解析処理部43は時系列の動画像38aから規定の特徴点が抽出されたか否かを判定する。特徴点抽出工程S14において規定の特徴点が抽出されない場合はNo判定となる。No判定の場合、画像解析処理部43は特徴点抽出工程S14を継続する。
一方、特徴点抽出工程S14において規定の特徴点が抽出された場合はYes判定となる。Yes判定の場合は視点情報取得工程S16へ進む。視点情報取得工程S16では、画像解析処理部43は規定の特徴点が抽出された内視鏡画像38と一致する特徴点を有する仮想内視鏡画像39を生成する際に用いられる視点情報を取得する。なお、視点情報取得工程S16の詳細は後述する。
視点情報取得工程S16の後に仮想内視鏡画像生成工程S18へ進む。仮想内視鏡画像生成工程S18では、図4に示した第1仮想内視鏡画像生成部54は、視点情報取得工程S16において取得した視点情報を用いて、内視鏡画像38と対応付けされる仮想内視鏡画像39を生成する。また、仮想内視鏡画像生成工程S18では、画像解析処理部43は、第1仮想内視鏡画像生成部54を用いて生成された仮想内視鏡画像39を、内視鏡画像38に対応付けする。
すなわち、仮想内視鏡画像生成工程S18は、それぞれの特徴点が一致する内視鏡画像38と仮想内視鏡画像39とを対応付けする対応付け工程として機能している。仮想内視鏡画像生成工程S18の後に、対応付けがされた内視鏡画像38と仮想内視鏡画像39とを記憶する記憶工程が実行されてもよい。
仮想内視鏡画像生成工程S18の後に表示工程S20へ進む。表示工程S20では、画像解析処理部43は、再生制御部44aを介してモニタ装置16へ表示制御信号を送信する。モニタ装置16は、内視鏡画像38、及び内視鏡画像38と対応付けされた仮想内視鏡画像39が同一の画面に表示される。
表示工程S20の後に検査終了判定工程S22へ進む。検査終了判定工程S22では、画像解析処理部43は、内視鏡検査が終了したか否かを判定する。内視鏡画像38を取得したタイミングから一定期間が経過した場合に、内視鏡検査が終了したと判定してもよい。
検査終了判定工程S22において、内視鏡検査が終了していないと判定された場合はNo判定となる。No判定の場合は内視鏡画像取得工程S12へ進み、画像解析処理部43は、検査終了判定工程S22においてYes判定となるまで、内視鏡画像取得工程S12から検査終了判定工程S22の各工程を繰り返し実行する。
一方、検査終了判定工程S22において、内視鏡検査が終了したと判定された場合はYes判定となる。Yes判定の場合、画像解析処理部43は画像処理方法を終了する。
〔視点情報取得工程の手順〕
図15は図14に示した視点情報取得工程の手順の流れを示すフローチャートである。第1特徴点抽出工程S40では、図4に示した第1特徴点抽出部51は3次元画像19から特徴点を抽出する。第1特徴点抽出工程S40は、予め3次元画像19に含まれる特徴点を抽出しておき、抽出した特徴点を記憶しておく態様も可能である。
第2特徴点抽出工程S42では、第2特徴点抽出部52は、内視鏡画像38から特徴点を抽出する。第2特徴点抽出工程S42は、図14に示した内視鏡画像取得工程S12と並行して実行してもよい。
第2特徴点抽出工程S42において内視鏡画像38の特徴点が抽出された場合、特徴点対応付け工程S44が実行される。特徴点対応付け工程S44では、視点情報取得部53は、内視鏡画像38の特徴点と3次元画像19の特徴点との対応付けを行う。図12に内視鏡画像38の特徴点と3次元画像19の特徴点との対応付けの例を図示した。
特徴点対応付け工程S44の後に特徴量導出工程S46へ進む。特徴量導出工程S46では、視点情報取得部53は内視鏡画像38の特徴量、及び仮想内視鏡画像39の特徴量を導出する。特徴量導出工程S46の後に探索工程S48へ進む。探索工程S48では、視点情報取得部53は、内視鏡画像38の特徴量と同一の特徴量を有する3次元画像19の領域を、3次元画像から探索する。
探索工程S48の後に視点情報導出工程S50へ進む。視点情報導出工程S50では、視点情報取得部53は、内視鏡画像38の特徴量と同一の特徴量を有する3次元画像19の領域の視点情報を導出する。導出された視点情報を記憶する視点情報記憶工程を実行してもよい。視点情報導出工程S50の後に、図14に示した画像処理方法の仮想内視鏡画像生成工程S18へ進む。
[内視鏡画像と仮想内視鏡画像との対応付けのバリエーション]
〔ひだの数を用いる具体例〕
図16は内視鏡画像と仮想内視鏡画像との対応付けのバリエーションを示す模式図である。図16に示す例は、ひだの数を用いて内視鏡画像と仮想内視鏡画像とを対応付ける例である。本例は大腸を被検体とする場合に、特に有効である。
図16に示したフレーム画像38bは、特徴点80aとしてひだが抽出されている。フレーム画像38bのひだの番号をnとする。ひだの番号とは、規定のひだを1番目のひだとする連番である。3次元画像19について、内視鏡画像38と同様にひだの番号を付与し、n番目のひだを有する3次元画像19の領域を特定する。n番目のひだを有する3次元画像19の領域から視点情報を導出し、導出した視点情報を用いて生成される仮想内視鏡画像39を内視鏡画像38と対応付けし得る。
図16には、3次元画像19の領域として擬似的な仮想内視鏡画像19fを適用した例を示す。図16に示した3枚の擬似的な仮想内視鏡画像19fのうち、n番目のひだを有する擬似的な仮想内視鏡画像19fから視点情報を導出し得る。
〔内視鏡の移動ベクトルを用いる具体例〕
仮想内視鏡画像39と対応付けがされた内視鏡画像38の内視鏡10の位置、及び内視鏡10の撮像方向を起点とし、内視鏡10の移動ベクトルに基づいて、次の内視鏡画像38の位置、及び内視鏡10の撮像方向に対応する視点位置、及び視点方向を導出してもよい。内視鏡10の撮像方向は、内視鏡の視野方向の一例に相当する。
内視鏡10の移動ベクトルは、複数のフレーム画像38bを用いて導出し得る。内視鏡10の移動ベクトルを導出する際に使用する複数のフレーム画像38bは、連続するフレーム画像38bであることが好ましい。
〔対応付けの間隔〕
内視鏡画像38と仮想内視鏡画像39との対応付けがされた後に新たな対応付けを行う場合、前回の対応付けが行われた内視鏡10の位置から一定範囲内において、新たな対応付けを行う。一定範囲は、内視鏡10の移動距離、及び移動期間の少なくともいずれか一方に基づき規定し得る。例えば、内視鏡10が規定の移動を行った場合に新たな対応付けを実行し得る。
一定範囲は、内視鏡画像38のフレーム数に基づき規定してもよい。例えば、毎フレームに新たな対応付け行ってもよいし、複数のフレームおきに新たな対応付け行ってもよい。
〔対応付けの更新〕
図17は対応付けの更新の説明図である。図17に符号16a、及び符号16bを付して図示したように、内視鏡画像38の観察の進行に従い、内視鏡画像38と対応付けされた仮想内視鏡画像39が更新される。
例えば、符号16bを付した状態において、内視鏡画像38が新たな仮想内視鏡画像39と対応付けされた場合に、内視鏡画像38と対応付けされる仮想内視鏡画像39が更新される。符号16cは、内視鏡画像38が仮想内視鏡画像39eと新たに対応付けされた状態を示す。
仮想内視鏡画像39eの特徴点70bは、内視鏡画像38の特徴点80aと一致する。モニタ装置16には、特徴点70aを有する仮想内視鏡画像39に代わり、特徴点70bを有する仮想内視鏡画像39eが表示される。
〔仮想内視鏡画像表示のバリエーション〕
動画像38aとして表示される内視鏡画像38に対して、内視鏡画像38と対応付けされた仮想内視鏡画像39を順に表示させることが可能である。内視鏡画像38のフレーム画像38bごとに仮想内視鏡画像39が生成される場合、内視鏡画像38と仮想内視鏡画像39とを同期表示させることが可能である。
内視鏡画像38の複数のフレーム画像38bおきに仮想内視鏡画像39が生成される場合、既に表示されている仮想内視鏡画像39から次に表示すべき仮想内視鏡画像39に急激に切り替えてもよい。急激にとは、中間の表示状態を経ずに両者を直接切り替えることを意味する。また、切り替えの中間状態として、モーフィング、及び早送り等の表示形態を適用してもよい。
〔大腸ナビゲーション〕
図18は大腸ナビゲーションの説明図である。大腸ナビゲーションは、例えば、大腸の3次元モデル19aに、内視鏡10の位置、及び内視鏡10の先端面27aが向く方向を表示させ、内視鏡検査の支援情報として使用される。
ナビゲーションとして表示される、内視鏡10の位置、及び内視鏡10の先端面27aの向く方向は、内視鏡10の外部に備えられるセンサを用いて検出可能である。内視鏡10の先端面27aの向く方向は内視鏡10の撮像方向と一致する。
内視鏡10の先端面27aの向く方向は内視鏡の視野方向の一例に相当する。大腸ナビゲーションは、内視鏡の移動支援情報の一例に相当する。
センサの例として磁気センサが挙げられる。センサは、内視鏡10の内部に備えられてもよい。図18に示した四角錐19hは内視鏡10の先端が向く方向を示す。
図18に示したパス19bのうち、細線を用いて図示したパス19bは、観察済みの領域におけるパス19bを示す。また、太線を用いて図示したパス19bは、未観察の領域におけるパス19bを示す。
大腸ナビゲーションから内視鏡10の位置の情報、及び内視鏡10の先端面27aが向く方向の情報を取得して、内視鏡画像38と対応付けされる3次元画像19の視点位置、及び視点方向を特定してもよい。
図18には大腸の3次元モデル19aを用いたナビゲーションを例示したが、パス19b、視点19e、及び内視鏡10の方向を表す記号等のみを表示させてもよい。ナビゲーションは、内視鏡画像38の表示画面に重畳表示が可能である。また、ナビゲーションに対応付けがされた視点19eを表す記号等を付与してもよい。
以上説明した内視鏡画像38と仮想内視鏡画像39との対応付けのバリエーションは、適宜組み合わせることが可能である。例えば、一致する特徴点に基づく対応付けと上記したバリエーションを併用してもよいし、一致する特徴点に基づいて1つ以上の対応付けがされた場合、その後の対応付けに上記したバリエーションを適用してもよい。
〔内視鏡画像、仮想内視鏡画像の記憶〕
内視鏡画像38は、図3に示した画像記憶部48に記憶することが可能である。画像記憶部48は、内視鏡画像38を記憶する際に付加情報として視点情報等を付加してもよい。
画像記憶部48は、内視鏡画像38を記憶する際に仮想内視鏡画像39と紐付けして記憶することが可能である。例えば、画像記憶部48は、内視鏡画像38を記憶する際に仮想内視鏡画像39が記憶されている記憶装置のID(identification)、及び記憶装置における記憶領域のアドレス等を付加してもよい。仮想内視鏡画像39を記憶する際も同様である。画像記憶部48は、実内視鏡画像を記憶する内視鏡画像記憶部の一例に相当する。
[第1実施形態の作用効果]
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
〔1〕
内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が得られる3次元画像19における視点19eの位置の情報、及び視点19eにおける向きの情報を含む視点情報を取得する。これにより、内視鏡画像38と仮想内視鏡画像39とを正確に対応付けることが可能である。
〔2〕
視点情報に基づいて3次元画像19から仮想内視鏡画像39が生成される。これにより、内視鏡画像38と一致する特徴点を有する仮想内視鏡画像39を生成し得る。
〔3〕
内視鏡10の移動ベクトルから内視鏡10の撮像方向の情報を取得する。また、大腸ナビゲーションから内視鏡10の先端面27aの向く方向を取得する。これにより、内視鏡10の撮像方向、及び内視鏡10の先端面27aの向く方向の少なくともいずれかの取得が可能である。
〔4〕
新たに視点情報を取得した場合に視点情報を更新する。これにより、最新の視点情報を用いた仮想内視鏡画像39を内視鏡画像38に対応付けることが可能となる。
〔5〕
内視鏡画像38と仮想内視鏡画像39とを紐付けして記憶する。これにより、内視鏡画像38、及び仮想内視鏡画像39の少なくともいずれかを利用する際に、両者の連携を維持することが可能である。
[第2実施形態に係る画像処理装置の構成]
〔全体構成〕
図19は第2実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図19に示した画像解析処理部43aは、図4に示した画像解析処理部43に対して、第2仮想内視鏡画像生成部55、及び内視鏡視野情報取得部56が追加されている。
〔第2仮想内視鏡画像生成部〕
第2仮想内視鏡画像生成部55は、3次元画像19から擬似的な仮想内視鏡画像である第2仮想内視鏡画像39fを生成する。第2仮想内視鏡画像生成部55は、内視鏡視野情報取得部56を用いて取得した内視鏡10の視野情報10aを用いて、第2仮想内視鏡画像39fを生成する。
図19に示した第2仮想内視鏡画像39fは、図12に示した擬似的な仮想内視鏡画像19fに相当する。第1特徴点抽出部51は、第2仮想内視鏡画像生成部55を用いて生成された第2仮想内視鏡画像39fから特徴点を抽出する。
〔内視鏡視野情報〕
内視鏡視野情報取得部56は、内視鏡画像38から内視鏡10の視野情報10aを取得する。内視鏡10の視野情報10aは、内視鏡10の撮像方向の情報が含まれる。内視鏡視野情報取得部56は、内視鏡画像38の2つ以上のフレーム画像38bから、内視鏡10の移動ベクトルを導出し得る。
内視鏡視野情報取得部56は、内視鏡10の移動ベクトルから内視鏡10の移動速度を導出し得る。内視鏡視野情報取得部56は、内視鏡10の移動速度から内視鏡10の撮像方向を導出し得る。内視鏡視野情報取得部56は、内視鏡10の移動速度、及びフレーム数から内視鏡10の移動距離を導出し得る。第2仮想内視鏡画像生成部55は、内視鏡視野情報を用いて3次元画像19から第2仮想内視鏡画像39fを生成する。
内視鏡視野情報取得部56は、内視鏡の位置の情報を取得する位置情報取得部の一例に相当する。内視鏡10の移動距離は内視鏡の移動量の一例に相当する。内視鏡視野情報取得部56は内視鏡の視野方向の情報を取得する視野方向情報取得部の一例に相当する。
内視鏡画像38の2つ以上のフレーム画像38bのうち任意のフレーム画像38bは一方の実内視鏡画像の一例に相当する。内視鏡画像38の2つ以上のフレーム画像38bのうち他の任意のフレーム画像38bは他方の実内視鏡画像の一例に相当する。
図20は第2実施形態に係る画像処理方法を模式的に示す模式図である。第2仮想内視鏡画像39fは、記憶装置18から読み出された3次元画像19から生成される。第2仮想内視鏡画像39fは、内視鏡10の視野情報10aを用いて生成される。
図19に示した画像解析処理部43aは、内視鏡10を用いて生成された内視鏡画像38から特徴点80aとしてひだを抽出する。画像解析処理部43aは、第2仮想内視鏡画像39fから特徴点70cとしてひだを抽出する。
画像解析処理部43aは、第2仮想内視鏡画像39fの特徴点70cに基づき、内視鏡画像38の特徴点80aと一致する特徴点70aを有する仮想内視鏡画像39の視点位置P、及び視点方向Dを導出する。画像解析処理部43aは、内視鏡画像38と仮想内視鏡画像39とを対応付ける。
第2実施形態に係る画像処理方法は、図14に示した内視鏡画像取得工程S12の後に、第2仮想内視鏡画像生成工程が追加される。第2仮想内視鏡画像生成工程は、図15に示した第2特徴点抽出工程S42の前に追加されてもよい。なお、第2仮想内視鏡画像39fは、非表示としてもよいし、内視鏡画像38の表示画面に表示してもよい。
[第2実施形態の作用効果]
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
〔1〕
3次元画像19から第2仮想内視鏡画像39fを生成する。これにより、第2仮想内視鏡画像39fの特徴点、及び内視鏡画像38の特徴点に基づく視点情報の取得が可能である。
〔2〕
内視鏡10の視野情報10aを用いて第2仮想内視鏡画像39fを生成する。これにより、実際の内視鏡10の撮像方向、及び実際の内視鏡10の位置の少なくともいずれかが反映された第2仮想内視鏡画像39fを生成し得る。
[第3実施形態に係る画像処理装置の構成]
〔全体構成〕
図21は第3実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図21に示した画像解析処理部43bは、図4に示した画像解析処理部43に対して、内視鏡画像修正部57が追加されている。
〔内視鏡画像修正部〕
内視鏡画像38は、各画素についてRGB各色成分の256階調の画素値を有するカラー画像である。ここで、RGBのRは赤を表す。RGBのGは緑を表す。RGBのBは青を表す。
内視鏡画像修正部57は、内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去する処理を実行する。3次元画像19、及び第2仮想内視鏡画像39fは、色情報、及びテクスチャ情報を有していない。一方、内視鏡画像38は、色情報、及びテクスチャ情報を有している。
3次元画像19の特徴点、又は第2仮想内視鏡画像39fの特徴点と、内視鏡画像38の特徴点を比較する際に、内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去する。内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去した場合、凹凸情報が抽出される。
内視鏡画像38の色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去する処理の例として、内視鏡画像38からR信号成分を抽出する処理、又は内視鏡画像38からB信号成分を除去する処理が挙げられる。
内視鏡画像38の凹凸情報は、主としてR信号に乗る。内視鏡画像38の色情報、及びテクスチャ情報は、主としてB信号に乗る。そこで、内視鏡画像38に対してB信号成分の除去を適用して、内視鏡画像38の色情報、及びテクスチャ情報の少なくともいずれか一方の情報を除去し得る。また、内視鏡画像38に対してR信号成分の抽出を適用して、内視鏡画像38の凹凸情報を抽出し得る。なお、内視鏡画像修正部57は実内視鏡画像修正部の一例に相当する。
[第3実施形態の作用効果]
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
〔1〕
内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方を除去する。これにより、内視鏡画像38の凹凸情報が抽出される。
〔2〕
内視鏡画像38からB信号を除去する。これにより、内視鏡画像38から色情報、及びテクスチャ情報の少なくともいずれか一方を除去し得る。
〔3〕
内視鏡画像38からR信号を抽出する。これにより、内視鏡画像38から凹凸情報を抽出し得る。
[第4実施形態に係る画像処理装置の構成]
〔全体構成〕
図22は第4実施形態に係る画像処理装置における画像解析処理部の機能を示す機能ブロック図である。図22に示した画像解析処理部43cは、図4に示した画像解析処理部43に対して、警告信号生成部59が追加されている。また、図1に示した内視鏡システム9に対して警告装置60が追加されている。
〔警告信号生成部〕
警告信号生成部59は、内視鏡画像38と仮想内視鏡画像39との対応付けがされていない場合に警告情報を表す警告信号を生成する。換言すると、警告信号生成部59は、内視鏡画像38の特徴点80と一致する特徴点70を有する仮想内視鏡画像39が発見されない場合に、その旨を表す警告信号を生成する。
警告信号生成部59は、図示しない通信インターフェースを介して警告信号を警告装置60へ送信する。警告信号生成部59は、視点情報を非取得の場合に警告する警告部の構成要素の一例に相当する。内視鏡画像38の特徴点80と一致する特徴点70を有する仮想内視鏡画像39が発見されない場合は、視点情報を非取得の場合の一例に相当する。
〔警告装置〕
警告装置60は、警告信号に対応する警告情報を出力する。警告情報の報知の例として、警告を表す文字情報の表示、警告音、及び警告ライトの点灯等が挙げられる。警告を表す文字情報は、図3に示したモニタ装置16を用いてもよい。図1に示した内視鏡システム9は、警告の態様に応じたスピーカ、及びライト等の警告装置60を備える。警告装置60は、上記の報知態様を適宜組み合わせてもよい。
[第4実施形態の作用効果]
上記の如く構成された画像処理装置、及び方法によれば、以下の作用効果を奏する。
〔1〕
内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が発見されない場合にその旨を報知する。これにより、内視鏡画像38の特徴点と一致する特徴点を有する仮想内視鏡画像39が発見されないことを、術者が把握し得る。
〔2〕
警告装置60は、警告を表す文字情報の表示、警告音、及び警告ライトの点灯の少なくともいずれか1つを報知に適用し得る。これにより、術者は、視覚、及び聴覚の少なくともいずれかを用いて報知を把握し得る。
[コンピュータを画像処理装置として機能させるプログラムへの適用例]
上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータを、内視鏡画像取得機能、画像解析処理機能、入力制御機能、表示制御機能、及び記憶機能を実現させるプログラムを構成し得る。
内視鏡画像取得機能は医用画像取得機能の一例である。画像解析処理機能は、注目シーン認識機能、類似度算出機能、保存処理機能が構成要素として含まれる。
上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。
また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。
[変形例]
〔特徴点抽出の変形例〕
内視鏡画像38の特徴点抽出は、内視鏡画像38の注目領域の検出に相当する。図4に示した第1特徴点抽出部51は、内視鏡画像38の画素の特徴量に基づいて注目すべき領域である注目領域を検出し、検出結果を取得してもよい。
第1特徴点抽出部51は、内視鏡画像38の画素の特徴量に基づいて注目すべき領域である注目領域の有無を検出し、検出結果を取得してもよい。第1特徴点抽出部51は、図1に示した記憶装置18等の記憶装置から、内視鏡画像38の検出結果を取得してもよい。第1特徴点抽出部51は、検出結果として、内視鏡画像38に含まれる注目領域、及び注目領域の有無を表す情報の少なくともいずれかを取得してもよい。
〔内視鏡画像の変形例〕
〈第1例〉
内視鏡画像38は、白色帯域の光、又は白色帯域の光として波長帯域が異なる複数の光を照射して取得した通常光画像を適用し得る。
〈第2例〉
内視鏡画像38は、特定の波長帯域の光を照射して取得した特殊光画像を適用し得る。特定の波長帯域は、白色光の波長帯域よりも狭い波長帯域を適用し得る。
〔特定の波長帯域の変形例〕
〈第1例〉
特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、且つ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
〈第2例〉
特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、且つ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
〈第3例〉
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、且つ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
〈第4例〉
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ、且つこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
〈第5例〉
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、且つ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
〔特殊光画像の生成例〕
プロセッサ装置12は、白色光、又は白色光として異なる波長帯域を有する複数の光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ装置12は、特殊光画像取得部として機能する。そして、プロセッサ装置12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青、或いはシアン、マゼンタ、及びイエローの色情報に基づく演算を行うことで得る。
なお、赤、緑、及び青は、RGB(Red,Green,Blue)と表されることがある。また、シアン、マゼンタ、及びイエローは、CMY(Cyan,Magenta,Yellow)と表されることがある。
〔特徴量画像の生成例〕
プロセッサ装置12は、通常光画像、及び特殊光画像の少なくともいずれか一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。
[診断支援装置、医療行業務支援装置への適用例]
本実施形態に示した画像処理装置14を備えた診断支援装置、及び医療行業務支援装置を構成し得る。
[プロセッサ装置への適用例]
本実施形態に示した画像処理装置14を備えるプロセッサ装置12を構成し得る。すなわち、内視鏡10の動作を制御する内視鏡制御部、内視鏡10を用いた撮像を制御する撮像制御部、光源装置11を制御する光源制御部、及び画像処理装置14を備えたプロセッサ装置を構成し得る。画像処理装置14は画像処理部の一例に相当する。
[コンピュータを画像処理装置として機能させるプログラムへの適用例]
上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、3次元画像入力機能、実内視鏡画像入力機能、特徴点抽出機能、及び視点情報取得機能を実現させるプログラムを構成し得る。
上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。
また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。
[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
1 制御部
2 メモリ
3 ハードディスク装置
4 通信インターフェース
5 入力コントローラ
6 ディスプレイコントローラ
9 内視鏡システム
10 内視鏡
10a 視野情報
11 光源装置
12 プロセッサ装置
13 表示装置
14 画像処理装置
15 操作装置
16 モニタ装置
16a、16b、16c 状態
17 ネットワーク
18 画像記憶装置
19 3次元画像
19a 3次元モデル
19b パス
19c 始点
19d 終点
19e 視点
19f 擬似的な仮想内視鏡画像
19h 四角錐
20 挿入部
21 操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
27a 先端面
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37a、37b コネクタ
38 内視鏡画像
38a 動画像
38b フレーム画像
38c 静止画像
39、39d、39e 仮想内視鏡画像
39a 画像群
39b 視点画像
39c 静止画像相当画像
39f 第2仮想内視鏡画像
40 全体制御部
41 画像取得部
41a 3次元画像取得部
41b 内視鏡画像取得部
42 情報取得部
43、43a、43b、43c 画像解析処理部
44 表示制御部
44a 再生制御部
44b 情報表示制御部
45 深層学習アルゴリズム
47 記憶部
48 画像記憶部
49 プログラム記憶部
51 第1特徴点抽出部
52 第2特徴点抽出部
53 視点情報取得部
54 第1仮想内視鏡画像生成部
55 第2仮想内視鏡画像生成部
56 内視鏡視野情報取得部
57 内視鏡画像修正部
59 警告信号生成部
60 警告装置
68 通信信号線
70、70a、70b、70c、80、80a、100、110 特徴点
100a、110a 第1特徴点
100b、110b 第2特徴点
100c、110c 第3特徴点
100d、110d 第4特徴点
D 視点方向
P 視点位置
S10からS50 画像処理方法の各工程

Claims (23)

  1. 被検体の3次元画像を入力する3次元画像入力部と、
    内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
    を備えた画像処理装置。
  2. 前記視点情報取得部を用いて取得した前記視点情報に基づいて、前記3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部を備えた請求項1に記載の画像処理装置。
  3. 前記3次元画像から第2仮想内視鏡画像を生成する第2仮想内視鏡画像生成部を備え、
    前記特徴点抽出部は、前記3次元画像の特徴点として前記第2仮想内視鏡画像の特徴点を抽出する請求項1又は2に記載の画像処理装置。
  4. 前記内視鏡の視野方向の情報を取得する視野方向情報取得部を備え、
    前記第2仮想内視鏡画像生成部は、前記視野方向情報取得部を用いて取得した前記内視鏡の視野方向の情報を用いて、前記第2仮想内視鏡画像を生成する請求項3に記載の画像処理装置。
  5. 前記視野方向情報取得部は、前記内視鏡の移動支援情報から前記視野方向の情報を取得する請求項4に記載の画像処理装置。
  6. 前記視野方向情報取得部は、前記実内視鏡画像の変化から導出される移動ベクトルを用いて前記視野方向の情報を取得する請求項4に記載の画像処理装置。
  7. 前記内視鏡の位置の情報を取得する位置情報取得部を備え、
    前記第2仮想内視鏡画像生成部は、前記位置情報取得部を用いて取得した前記内視鏡の位置の情報を用いて、前記第2仮想内視鏡画像を生成する請求項3から6のいずれか一項に記載の画像処理装置。
  8. 前記実内視鏡画像から色情報、及びテクスチャ情報の少なくともいずれかを除去した画像、又は前記実内視鏡画像から凹凸情報を抽出した画像を生成する実内視鏡画像修正部を備え、
    前記特徴点抽出部は、前記実内視鏡画像修正部を用いて生成された画像から特徴点を抽出する請求項1から7のいずれか一項に記載の画像処理装置。
  9. 前記視点情報取得部は、前記内視鏡の位置が異なる2つの実内視鏡画像について、一方の実内視鏡画像と他方の実内視鏡画像との変化から導出される移動ベクトルを用いて、前記一方の実内視鏡画像に対応する前記3次元画像の視点の位置を起点とする移動量を導出して、前記他方の実内視鏡画像に対応する前記3次元画像の視点の位置を特定する請求項1から8のいずれか一項に記載の画像処理装置。
  10. 前記視点情報取得部は、前記実内視鏡画像の毎フレームに、前記実内視鏡画像の2以上の規定フレーム数ごとに、又は前記内視鏡が規定の移動を行った場合に、前記実内視鏡画像に対応する前記3次元画像の前記視点情報を取得する請求項1から9のいずれか一項に記載の画像処理装置。
  11. 前記視点情報取得部は、既に前記視点情報を取得した前記実内視鏡画像について、新たに視点情報を取得した場合、前記実内視鏡画像に対応する前記3次元画像の視点情報を更新する請求項1から10のいずれか一項に記載の画像処理装置。
  12. 前記実内視鏡画像と対応する前記視点情報を非取得の場合に警告する警告部を備えた請求項1から11のいずれか一項に記載の画像処理装置。
  13. 前記3次元画像入力部は、大腸の3次元画像を入力し、
    前記特徴点抽出部は、盲腸入口、上行結腸と横行結腸との間の湾曲部、横行結腸と下行結腸との間の湾曲部、下行結腸とS字結腸との間の湾曲部、ひだ、ポリープ、及び血管の少なくともいずれか1つを前記特徴点として抽出する請求項1から12のいずれか一項に記載の画像処理装置。
  14. 前記視点情報取得部は、大腸のひだの数に基づいて前記実内視鏡画像に対応する前記3次元画像の前記視点情報を取得する請求項13に記載の画像処理装置。
  15. 前記特徴点抽出部は、前記3次元画像から予め抽出された特徴点の情報を取得する請求項1から14のいずれか一項に記載の画像処理装置。
  16. 内視鏡の動作を制御する内視鏡制御部と、
    前記内視鏡を用いた撮像を制御する撮像制御部と、
    前記内視鏡を用いて撮像して得られた内視鏡画像を処理する画像処理部と、
    を備えたプロセッサ装置であって、
    前記画像処理部は、
    被検体の3次元画像を入力する3次元画像入力部と、
    前記内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
    を備えたプロセッサ装置。
  17. 内視鏡を備えた内視鏡装置と、
    画像処理装置と、
    を備えた内視鏡システムであって、
    前記画像処理装置は、
    被検体の3次元画像を入力する3次元画像入力部と、
    前記内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力部と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出部と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得部と、
    を備えた内視鏡システム。
  18. 前記3次元画像から生成される仮想内視鏡画像を表示する表示部と、
    前記視点情報取得部を用いて取得した前記視点情報に基づいて、前記3次元画像から第1仮想内視鏡画像を生成する第1仮想内視鏡画像生成部と、
    を備え、
    前記表示部は、新たな前記第1仮想内視鏡画像を表示する際に、先に表示した第1仮想内視鏡画像から前記新たな第1仮想内視鏡画像へ直接切り替えるか、早送りするか、又はモーフィングを用いるかのいずれかを選択する請求項17に記載の内視鏡システム。
  19. 前記表示部は、前記実内視鏡画像と、前記実内視鏡画像に対応する前記第1仮想内視鏡画像とを同期して表示させる請求項18に記載の内視鏡システム。
  20. 前記実内視鏡画像を記憶する内視鏡画像記憶部を備え、
    前記内視鏡画像記憶部は、前記視点情報を付加した前記実内視鏡画像を記憶する請求項18又は19に記載の内視鏡システム。
  21. 前記内視鏡画像記憶部は、前記実内視鏡画像に対応する前記第1仮想内視鏡画像を記憶する請求項20に記載の内視鏡システム。
  22. 被検体の3次元画像を入力する3次元画像入力工程と、
    内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力工程と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出工程と、
    前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得工程と、
    を含む画像処理方法。
  23. コンピュータに、
    被検体の3次元画像を入力する3次元画像入力機能、
    内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する実内視鏡画像入力機能、
    前記3次元画像、及び前記実内視鏡画像のそれぞれから特徴点を抽出する特徴点抽出機能、及び
    前記3次元画像、及び前記実内視鏡画像のそれぞれの特徴点に基づいて、前記実内視鏡画像の特徴点と一致する特徴点を有する仮想内視鏡画像が得られる視点の位置の情報、及び前記視点の方向の情報を含む視点情報を取得する視点情報取得機能を実現させるプログラム。
JP2019562831A 2017-12-25 2018-11-13 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム Active JP7050817B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017248254 2017-12-25
JP2017248254 2017-12-25
PCT/JP2018/042018 WO2019130868A1 (ja) 2017-12-25 2018-11-13 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019130868A1 true JPWO2019130868A1 (ja) 2020-12-10
JP7050817B2 JP7050817B2 (ja) 2022-04-08

Family

ID=67067016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019562831A Active JP7050817B2 (ja) 2017-12-25 2018-11-13 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7050817B2 (ja)
WO (1) WO2019130868A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220198742A1 (en) * 2019-09-20 2022-06-23 Hoya Corporation Processor for endoscope, program, information processing method, and information processing device
JP7346602B2 (ja) * 2020-01-21 2023-09-19 オリンパス株式会社 内視鏡システム、内視鏡プロセッサ、内視鏡プロセッサの作動方法及び内視鏡プロセッサの作動プログラム
JP2021141969A (ja) * 2020-03-10 2021-09-24 独立行政法人国立病院機構 内視鏡装置
JP7377769B2 (ja) * 2020-06-08 2023-11-10 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
CN117255642A (zh) 2021-07-14 2023-12-19 奥林巴斯医疗株式会社 图像处理装置、内窥镜装置以及图像处理方法
JP2024031468A (ja) * 2022-08-26 2024-03-07 富士フイルム株式会社 画像処理装置及びその作動方法並びに内視鏡システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012110549A (ja) * 2010-11-26 2012-06-14 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム
WO2012086536A1 (ja) * 2010-12-24 2012-06-28 オリンパス株式会社 内視鏡装置及びプログラム
WO2014115371A1 (ja) * 2013-01-28 2014-07-31 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012110549A (ja) * 2010-11-26 2012-06-14 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム
WO2012086536A1 (ja) * 2010-12-24 2012-06-28 オリンパス株式会社 内視鏡装置及びプログラム
WO2014115371A1 (ja) * 2013-01-28 2014-07-31 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置

Also Published As

Publication number Publication date
WO2019130868A1 (ja) 2019-07-04
JP7050817B2 (ja) 2022-04-08

Similar Documents

Publication Publication Date Title
JP7050817B2 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム
JP6371729B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
CN102247114B (zh) 图像处理装置及图像处理方法
JP7166430B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
WO2016143312A1 (ja) 分岐構造判定装置、方法およびプログラム
JP5771757B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
CN108135453B (zh) 内窥镜系统和图像处理方法
JP7143504B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JPWO2014136579A1 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP6949999B2 (ja) 画像処理装置、内視鏡システム、画像処理方法、プログラム及び記録媒体
JP6132901B2 (ja) 内視鏡装置
JP7125479B2 (ja) 医療画像処理装置、医療画像処理装置の作動方法及び内視鏡システム
JP7245360B2 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
JP6840263B2 (ja) 内視鏡システム及びプログラム
JP7148534B2 (ja) 画像処理装置、プログラム、及び内視鏡システム
JP7122328B2 (ja) 画像処理装置、プロセッサ装置、画像処理方法、及びプログラム
JP7289241B2 (ja) ファイリング装置、ファイリング方法及びプログラム
JP2011024913A (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP7146318B1 (ja) コンピュータプログラム、学習モデルの生成方法、及び手術支援装置
WO2021044910A1 (ja) 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
WO2020184257A1 (ja) 医用画像処理装置及び方法
JP6199267B2 (ja) 内視鏡画像表示装置、その作動方法およびプログラム
US20230206445A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7050817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150