JPWO2019087969A1 - 内視鏡システム、報知方法、及びプログラム - Google Patents

内視鏡システム、報知方法、及びプログラム Download PDF

Info

Publication number
JPWO2019087969A1
JPWO2019087969A1 JP2019550323A JP2019550323A JPWO2019087969A1 JP WO2019087969 A1 JPWO2019087969 A1 JP WO2019087969A1 JP 2019550323 A JP2019550323 A JP 2019550323A JP 2019550323 A JP2019550323 A JP 2019550323A JP WO2019087969 A1 JPWO2019087969 A1 JP WO2019087969A1
Authority
JP
Japan
Prior art keywords
image
feature
endoscope
notification
endoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019550323A
Other languages
English (en)
Other versions
JP6840263B2 (ja
Inventor
加來 俊彦
俊彦 加來
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019087969A1 publication Critical patent/JPWO2019087969A1/ja
Application granted granted Critical
Publication of JP6840263B2 publication Critical patent/JP6840263B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡を用いた内視鏡検査において、検出が困難な病変等の見落としを抑制し得る内視鏡システム、報知方法、及びプログラムを提供する。仮想内視鏡画像を入力する第1画像入力部(41a)、実内視鏡画像を入力する第2画像入力部(41b)、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部(58)、仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部(50)、実内視鏡画像から第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部(54)と、及び第1特徴領域が第2特徴領域に対応付けされていないことを報知する報知部(59)と、を備える。

Description

本発明は内視鏡システム、報知方法、及びプログラムに係り、特に仮想内視鏡画像の表示に関する。
近年、内視鏡を用いて患者の大腸等の管状構造物を観察又は処置を行う技術が注目されている。内視鏡画像はCCD(Charge Coupled Device)等の撮像素子を用いて撮影された画像である。そして、内視鏡画像は管状構造物内部の色、及び質感が鮮明に表現された画像である。一方、内視鏡画像は、管状構造物の内部を表す2次元画像である。このため、内視鏡画像が管状構造物内のどの位置を表しているものかを把握することが困難である。
そこで、CT装置又はMRI装置等のモダリティを用いた断層撮影をして取得された3次元検査画像を用いて、実際に内視鏡を用いて撮影した画像と類似した仮想内視鏡画像を生成する手法が提案されている。
仮想内視鏡画像は、内視鏡を管状構造物内の目標とする位置まで導くためのナビゲーション画像として用いられる場合がある。なお、CTはComputed Tomographyの省略語である。また、MRIはMagnetic Resonance Imagingの省略語である。
このため、3次元検査画像から管状構造物の画像を抽出し、管状構造物の画像と内視鏡を用いて撮影を行い取得した実際の内視鏡画像である実内視鏡画像との対応付けを行い、内視鏡の現在位置における仮想内視鏡画像を管状構造物の3次元検査画像から生成して表示する手法が提案されている。
特許文献1は、3次元画像データからポリープなどの病変を検出し、内視鏡の観察位置が病変付近に到達したことを報知する内視鏡観察支援装置が記載されている。
特許文献2は、撮像対象の部位を表すボリュームデータを抽出し、ボリュームデータにおける内視鏡プローブの先端の位置と方向とを特定し、任意の視野における仮想内視鏡画像を生成し、表示する医用画像処理装置が記載されている。
特許文献2に記載の医用画像処理装置は、ボリュームデータに基づいて腫瘍候補の形状と位置とを特定し、腫瘍候補の位置にマーカーを重ねて表示する。これにより、操作者はマーカーを用いて腫瘍候補の有無存在を認識することが可能となる。
特許文献3は、被検体における管腔臓器の展開画像中の死角領域を検出し、死角領域の有無を操作者に報知する医用画像表示装置が記載されている。特許文献3に記載の医用画像処理装置は、死角領域が存在する場合、死角領域が存在することを表す文字情報を表示する。特許文献3には、死角領域が存在する場合に、死角領域の位置を、マーカーを用いて色付けして表示する他の表示態様が記載されている。
特許文献4は、身体3次元領域における内視鏡の相対的な位置及び姿勢の情報、及びボリュームデータに基づいて仮想内視鏡画像を生成し、内視鏡を用いて取得されるカラー内視鏡実画像と、仮想内視鏡画像との構図を一致させる内視鏡システムが記載されている。
特許文献4に記載の内視鏡システムは、仮想内視鏡画像から特徴的な形状を検出する。次いで、カラー内視鏡画像のうち、仮想内視鏡画像の特徴的な形状に相当する領域の画素値を変更する。これにより、他の領域と区別可能な表示形態を実現している。
特許文献5は、CT装置からボリュームデータを取得し、取得したボリュームデータから3次元画像を生成し表示する医用画像処理装置が記載されている。特許文献5に記載の医用画像処理装置は、表示部に表示された3次元画像の特徴部位に対してマークを付すための入力操作を受け付け、表示部にマークが表示される。特許文献5には、画像解析を用いて自動的に特徴部位を設定可能であることが記載されている。
特許文献6は、被験者の内部を観察する内視鏡、内視鏡を用いて取得した内視鏡画像を表示させるモニタを備える内視鏡装置が記載されている。特許文献6に記載の内視鏡装置は、内視鏡を用いて撮像した被写体像に応じた画像を取得し、取得した画像内における病変部位を検出する処理を、画像を取得する毎に実行する。
特開2014−230612号公報 特開2011−139797号公報 国際公開第2010/074058号 特開2006−61274号公報 特開2016−143194号公報 特開2008−301968号公報
しかしながら、内視鏡の観察範囲には、体腔の内壁に存在するひだの裏側などの死角が存在する。内視鏡を用いた内視鏡検査は内視鏡の観察範囲の死角に位置する病変を見落としてしまう可能性がある。したがって、内視鏡の観察範囲の死角に位置する病変の見落としを防ぐため対処が必要となる。
特許文献1に記載の発明は、内視鏡の観察位置に病変付近に到達したことを報知するものの、内視鏡の観察範囲の死角に位置する病変に対する対応がなされていない。そうすると、特許文献1に記載の発明は、内視鏡の観察範囲の死角に位置する病変を見落とすことがあり得る。
特許文献2に記載の発明は、腫瘍候補の位置にマーカーを重ねて表示するものの、腫瘍候補の位置が内視鏡の観察範囲の死角の場合の対応がなされていない。そうすると、特許文献2に記載の発明は、内視鏡の観察範囲の死角に位置する病変を見落とすことがあり得る。
特許文献3に記載の発明は、病変の有無に関わらず展開画像中の死角領域の有無を操作者に報知するものであり、展開画像中の死角領域について病変の有無を報知するものではない。そうすると、特許文献3に記載の発明は、内視鏡の観察範囲の死角に位置する病変を見落とすことがあり得る。
特許文献4に記載の発明は、仮想内視鏡画像において特徴的な領域の画素値を変更して、特徴的な領域と他の領域との区別を可能とするものであり、内視鏡画像を用いた内視鏡の観察範囲の死角に位置する病変等の発見に適用されるものではない。
特許文献5に記載の発明は、内視鏡画像に対して自動的に特徴部位を設定可能であるものの、特許文献5には、特徴領域が内視鏡の観察範囲の死角となる場合に関する記載はない。そうすると、特許文献5に記載の発明は、内視鏡の観察範囲の死角に位置する病変を見落とすことがあり得る。
特許文献6に記載の発明は、内視鏡画像を構成するフレーム画像単位で病変部位の検出が可能であるものの、特許文献6には、病変部位が内視鏡の観察範囲の死角となる場合に関する記載はない。そうすると、特許文献6に記載の発明は、内視鏡の観察範囲の死角に位置する病変を見落とすことがあり得る。
すなわち、特許文献1から特許文献6に記載の発明には、内視鏡の観察範囲の死角に位置する病変を見落とし等の、内視鏡検査において検出が困難な病変等の見落としという課題が存在し、この課題に対する対処が必要である。
本発明はこのような事情に鑑みてなされたもので、内視鏡を用いた内視鏡検査において、検出が困難な病変等の見落としを抑制し得る内視鏡システム、報知方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、次の発明態様を提供する。
第1態様に係る内視鏡システムは、被検体の3次元画像から生成される仮想内視鏡画像を入力する第1画像入力部と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け部と、仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、実内視鏡画像から第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、第1特徴領域が第2特徴領域と対応付けされていない場合に報知を行う報知部と、を備えた内視鏡システムである。
第1態様によれば、仮想内視鏡画像から第1特徴領域を抽出する。仮想内視鏡画像と実内視鏡画像とを対応付ける。第1特徴領域が第2特徴領域と対応付けされていない場合に報知を行う。報知に起因して、第1特徴領域が第2特徴領域と対応付けされていないことを、ユーザが認識し得る。これにより、内視鏡を用いた内視鏡検査において第2特徴領域として抽出されるべき領域として把握される、内視鏡検査において検出が困難な病変等の見落としを抑制し得る。
第1画像入力部は、予め生成された仮想内視鏡画像を入力してもよいし、3次元検査画像を取得し、取得した3次元検査画像から仮想内視鏡画像を生成し、生成された仮想内視鏡画像を入力してもよい。
3次元検査画像の例として、CT装置を用いて被検体を断層撮影して得られた3次元検査画像が挙げられる。仮想内視鏡の一例として、大腸を被検体とする仮想大腸内視鏡が挙げられる。
第1特徴領域の抽出に適用される第1条件を設定する第1条件設定部を備える態様が好ましい。また、第2特徴領域の抽出に適用される第2条件を設定する第2条件設定部を備える態様が好ましい。
第2態様は、第1態様の内視鏡システムにおいて、報知部は、第1特徴領域が第2特徴領域と対応付けされた場合に、第1特徴領域が内視鏡の観察範囲に位置する第2特徴領域に対応付けされたことを報知し、第1特徴領域が第2特徴領域と対応付けされていない場合は、第1特徴領域が第2特徴領域と対応付けされた場合における報知方法、及び報知レベルと比較して、報知方法、及び報知レベルの少なくともいずれかを変更する構成としてもよい。
第2態様によれば、第1特徴領域が第2特徴領域と対応付けされた場合と、第1特徴領域が第2特徴領域と対応付けされていない場合とを区別して報知し得る。
第3態様は、第2態様の内視鏡システムにおいて、実内視鏡画像を表示する表示部を備え、報知部は、第1特徴領域が第2特徴領域と対応付けされていないことを報知する第1報知画像、及び第1特徴領域が内視鏡の観察範囲に位置する第2特徴領域に対応付けされたことを報知する第2報知画像を表示部に表示し、且つ第2報知画像より第1報知画像を拡大して表示する構成としてもよい。
第3態様によれば、第1特徴領域が第2特徴領域に対応付けされている場合に対して、第1特徴領域が第2特徴領域に対応付けされていない場合が強調される。
第4態様は、第2態様の内視鏡システムにおいて、実内視鏡画像を表示する表示部を備え、報知部は、第1特徴領域が第2特徴領域と対応付けされていないことを報知する第1報知画像、及び第1特徴領域が第2特徴領域と対応付けされたことを報知する第2報知画像を表示部に表示し、且つ第1報知画像は第2報知画像と色を変更する構成としてもよい。
第4態様によれば、第1特徴領域が第2特徴領域に対応付けされている場合に対して、第1特徴領域が第2特徴領域に対応付けされていない場合が強調される。
第5態様は、第2態様の内視鏡システムにおいて、実内視鏡画像を表示する表示部を備え、報知部は、第1特徴領域が第2特徴領域と対応付けされていないことを表す第1報知画像、及び第1特徴領域が第2特徴領域に対応付けされたことを表す第2報知画像を表示部に表示し、且つ第1報知画像を点滅表示する一方、第2報知画像を点灯表示する構成としてもよい。
第5態様によれば、第1特徴領域が第2特徴領域に対応付けされている場合に対して、第1特徴領域が第2特徴領域に対応付けされていない場合が強調される。
第6態様は、第2態様の内視鏡システムにおいて、実内視鏡画像を表示する表示部を備え、報知部は、第1特徴領域が第2特徴領域と対応付けされていないことを表す第1報知画像、及び第1特徴領域が第2特徴領域に対応付けされたことを表す第2報知画像を表示部に点滅表示し、且つ第2報知画像に対して第1報知画像の点滅周期を短くする構成としてもよい。
第6態様によれば、第1特徴領域が第2特徴領域に対応付けされている場合に対して、第1特徴領域が第2特徴領域に対応付けされている場合が強調される。
第7態様は、第3態様から第6態様のいずれか一態様の内視鏡システムにおいて、表示部は、実内視鏡画像と別に生成された第1報知画像、及び第2報知画像を実内視鏡画像に重畳表示させる構成としてもよい。
第7態様によれば、実内視鏡画像を加工することなく、実内視鏡画像の強調表示を行うことが可能である。
第8態様は、第3態様から第7態様のいずれか一態様の内視鏡システムにおいて、表示部は、仮想内視鏡画像を表示し、且つ仮想内視鏡画像における内視鏡の位置を表示する構成としてもよい。
第8態様によれば、内視鏡の操作者は、実内視鏡画像における観察位置に対応する仮想内視鏡画像の位置の認識が可能である。
第9態様は、第3態様から第7態様のいずれか一態様の内視鏡システムにおいて、表示部は、仮想内視鏡画像を表示し、且つ第1特徴領域の情報を表示する構成としてもよい。
第9態様によれば、内視鏡の操作者は、仮想内視鏡画像における第1特徴領域の認識が可能である。
第10態様は、第9態様の内視鏡システムにおいて、表示部は、第1特徴領域を拡大して表示する構成としてもよい。
第10態様によれば、仮想内視鏡画像における第1特徴領域が視認し易くなる。
第11態様は、第9態様の内視鏡システムにおいて、表示部は、第1特徴領域を点滅表示する構成としてもよい。
第11態様によれば、仮想内視鏡画像における第1特徴領域が視認し易くなる。
第12態様は、第1態様から第11態様のいずれか一態様の内視鏡システムにおいて、報知音を出力する報知音出力部を備え、報知部は、報知音出力部を用いて、第1特徴領域が第2特徴領域と対応付けされていないことを表す第1報知音を出力する構成としてもよい。
第12態様によれば、第1特徴領域が第2特徴領域と対応付けされていない場合に第1報知音を出力する。これにより、第1特徴領域が第2特徴領域と対応付けされていない場合に、第2特徴領域として抽出されるべき領域の見落としを抑制し得る。
また、実内視鏡画像に対して加工等を施す必要がなく、実内視鏡画像への報知の影響を及ぼし難い。
第13態様は、第12態様の内視鏡システムにおいて、報知部は、報知音出力部を用いて、第1特徴領域が第2特徴領域に対応付けされたことを表し、且つ第1報知音と異なる第2報知音を出力する構成としてもよい。
第13態様によれば、第1特徴領域が第2特徴領域と対応付けされていない場合と、第1特徴領域が第2特徴領域と対応付けされた場合とを区別して報知し得る。
第14態様は、第13態様の内視鏡システムにおいて、報知部は、第2報知音に対して第1報知音の音量を大きくする構成としてもよい。
第14態様によれば、第1特徴領域が第2特徴領域に対応付けされている場合に対して、第1特徴領域が第2特徴領域に対応付けされていない場合が強調される。
第15態様は、第2態様から第14態様のいずれか一態様の内視鏡システムにおいて、報知部は、第1特徴領域と対応付けがされた実内視鏡画像の領域から実内視鏡画像の観察位置までの間の距離が短くなるに従い報知レベルを変更する構成としてもよい。
第15態様によれば、第1特徴領域と対応付けがされた実内視鏡画像の領域が内視鏡の観察領域に近づいていることを認識し得る。
第15態様において、報知レベルを変更する際に報知レベル大きくする態様が好ましい。報知レベル大きくする際に、連続的に報知レベル大きくしてもよいし、段階的に報知レベル大きくしてもよい。
第15態様における第1特徴領域と対応付けがされた実内視鏡画像の領域は、第1特徴領域と対応付けされた第2特徴領域、及び第1特徴領域と対応付けがされた実内視鏡画像の非抽出領域の少なくともいずれか一方が含まれる。実内視鏡画像の非抽出領域とは、実内視鏡画像から第2特徴領域として抽出されていない領域を表す。
第16態様は、第1態様から第15態様のいずれか一態様の内視鏡システムにおいて、第1特徴領域抽出部は、実内視鏡画像の観察の際に、予め仮想内視鏡画像から第1特徴領域を抽出する構成としてもよい。
第16態様によれば、仮想内視鏡画像から第1特徴領域の抽出を省略できる。これにより、画像処理の処理負荷が軽減される。
第17態様は、第1態様から第15態様のいずれか一態様の内視鏡システムにおいて、第1特徴領域抽出部は、実内視鏡画像の観察の際に、実内視鏡画像の観察に対応して逐次仮想内視鏡画像から第1特徴領域を抽出する構成としてもよい。
第17態様によれば、第1特徴領域が非抽出の仮想内視鏡画像の取得が可能である。これにより、第1画像入力部の処理負荷が軽減される。
第18態様は、第1態様から第17態様のいずれか一態様の内視鏡システムにおいて、第1特徴領域抽出部は、同一の第1条件を用いて複数の第1特徴領域を抽出した場合、複数の第1特徴領域を一括して管理する構成としてもよい。
第18態様によれば、同一の第1条件を用いて抽出された複数の第1特徴領域を一括して管理することが可能である。
第19態様は、第1態様から第18態様のいずれか一態様の内視鏡システムにおいて、第1特徴領域抽出部は、第1条件として仮想内視鏡画像における位置の情報を適用する構成としてもよい。
第19態様によれば、第1特徴領域抽出部は、仮想内視鏡画像における位置の情報に基づいて第1特徴領域を抽出し得る。
第20態様は、第19態様の内視鏡システムにおいて、第1特徴領域抽出部は、位置の情報として内視鏡の観察範囲の死角の位置を適用する構成としてもよい。
第20態様によれば、第1特徴領域抽出部は、内視鏡の観察範囲の死角の位置における第1特徴領域の抽出が可能となる。これにより、内視鏡の観察範囲の死角の位置について、第2特徴領域として抽出されるべき領域の見落としを抑制し得る。
第20態様において、第1特徴領域抽出部は、第1条件として内視鏡の観察範囲の死角の位置が設定された場合に、内視鏡の観察範囲の死角の位置を第1特徴領域として抽出し得る。
第21態様は、第19態様又は第20態様の内視鏡システムにおいて、第1特徴領域抽出部は、位置の情報としてひだの裏側を適用する構成としてもよい。
第21態様によれば、第1特徴領域抽出部は、ひだの裏側の位置における第1特徴領域の抽出が可能となる。
第22態様は、第1態様から第21態様のいずれか一態様の内視鏡システムにおいて、第2特徴領域抽出部は、第2特徴領域として病変を抽出する構成としてもよい。
第22態様によれば、内視鏡を用いた内視鏡検査において、第2特徴領域として抽出されるべき領域の病変の見落としを抑制し得る。
第23態様は、第1態様から第22態様のいずれか一態様の内視鏡システムにおいて、第2特徴領域抽出部は、機械学習を用いて生成された抽出規則を適用して、実内視鏡画像から第2特徴領域を抽出する構成としてもよい。
第23態様によれば、実内視鏡画像における第2特徴領域抽出の精度が向上し得る。これにより、内視鏡検査の精度が向上し得る。
第24態様に係る報知方法は、被検体の3次元画像から生成される仮想内視鏡画像を入力する第1画像入力工程と、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力工程と、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け工程と、仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出工程と、実内視鏡画像から第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出工程と、第1特徴領域が第2特徴領域と対応付けされていない場合に報知を行う報知工程と、を含む報知方法である。
第24態様によれば、第1態様と同様の効果を得ることができる。
第24態様において、第2態様から第23態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、内視鏡システムにおいて特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う報知方法の構成要素として把握することができる。
第25態様に係るプログラムは、コンピュータに、被検体の3次元画像から生成される仮想内視鏡画像を入力する第1画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け機能、仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、実内視鏡画像から第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び第1特徴領域が第2特徴領域と対応付けされていない場合に報知を行う報知機能、を実現させるプログラムある。
第25態様によれば、第1態様と同様の効果を得ることができる。
第25態様において、第2態様から第23態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、内視鏡システムにおいて特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
第25態様は、少なくとも1つ以上のプロセッサと、少なくとも1つ以上のメモリとを有するシステムであって、被検体の3次元画像から生成される仮想内視鏡画像を入力する第1画像入力機能、内視鏡を用いて被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、仮想内視鏡画像と実内視鏡画像とを対応付けする対応付け機能、仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、実内視鏡画像から第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び第1特徴領域が第2特徴領域と対応付けされていない場合に報知を行う報知機能を実現させるシステムとして構成し得る。
本発明によれば、仮想内視鏡画像から第1特徴領域を抽出する。仮想内視鏡画像と実内視鏡画像とを対応付ける。第1特徴領域が第2特徴領域と対応付けされていない場合に報知を行う。報知に起因して、第1特徴領域が第2特徴領域と対応付けされていないことを、ユーザが認識し得る。これにより、内視鏡を用いた内視鏡検査において第2特徴領域として抽出されるべき領域として把握される、内視鏡検査において検出が困難な病変等の見落としを抑制し得る。
図1は内視鏡システムの全体構成を示す概略図である。 図2は医療画像処理装置の機能を示す機能ブロック図である。 図3は医療画像解析処理部の機能を示す機能ブロック図である。 図4は画像記憶部の機能を示す機能ブロック図である。 図5はCTC画像の模式図である。 図6は内視鏡画像の模式図である。 図7は内視鏡の観察範囲の死角を示す模式図である。 図8は第1特徴領域抽出の説明図である。 図9は第2特徴領域抽出の説明図である。 図10は病変の対応付けの例を示す模式図である。 図11はひだの対応付けの例を示す模式図である。 図12はひだの番号を用いたひだの対応付けの例を示す模式図である。 図13は非報知の場合の内視鏡画像、及び仮想内視鏡画像の模式図である。 図14は第1報知の場合の内視鏡画像、及び仮想内視鏡画像の模式図である。 図15は第2報知の場合の内視鏡画像、及び仮想内視鏡画像の模式図である。 図16は報知方法の手順を示すフローチャートである。 図17は第1変形例に係る報知の説明図である。 図18は第2変形例に係る報知の説明図である。 図19は第3変形例に係る報知の説明図である。 図20は第1特徴領域の他の表示例の説明図である。 図21は他の実施形態に係る報知を実現する医療画像処理装置の機能を示す機能ブロック図である。
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明を省略する。
[内視鏡システムの全体構成]
図1は内視鏡システムの全体構成を示す概略図である。図1に示した内視鏡システム9は、内視鏡10と、光源装置11と、プロセッサ12と、表示装置13と、医療画像処理装置14と、操作装置15と、モニタ装置16と、を備える。内視鏡システム9は、ネットワーク17を介して画像記憶装置18と通信可能に接続される。
内視鏡10は電子内視鏡である。また、内視鏡10は軟性内視鏡である。内視鏡10は挿入部20と、操作部21と、ユニバーサルコード22と、を備える。挿入部20は先端と基端とを備える。挿入部20は被検体内に挿入される。操作部21は術者が把持して各種操作を行う。操作部21は挿入部20の基端側に連設される。挿入部20は、全体が細径で長尺状に形成されている。
挿入部20は、軟性部25と、湾曲部26と、先端部27と、を備える。挿入部20は、軟性部25と、湾曲部26と、先端部27とが連設されて構成される。軟性部25は、挿入部20の基端側から先端側に向けて順に可撓性を有する。湾曲部26は、操作部21が操作された場合に湾曲可能な構造を有する。先端部27は、図示しない撮影光学系及び撮像素子28等が内蔵される。
撮像素子28は、CMOS型撮像素子又はCCD型撮像素子である。CMOSは、相補型金属酸化膜半導体を表す英語表記である、Complementary Metal Oxide Semiconductorの省略語である。CCDは、電荷結合素子を表す英語表記である、Charge Coupled Deviceの省略語である。
先端部27の先端面27aは、図示しない観察窓が配置される。観察窓は、先端部27の先端面27aに形成された開口である。観察窓の後方には、図示しない撮影光学系が配置される。撮像素子28の撮像面は、観察窓、及び撮影光学系等を介して、被観察部位の像光が入射する。撮像素子28は、撮像素子28の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、像光を電気信号へ変換するという意味が含まれる。
操作部21は、各種操作部材を備える。各種操作部材は術者により操作される。具体的には、操作部21は、2種類の湾曲操作ノブ29を備える。湾曲操作ノブ29は、湾曲部26の湾曲操作の際に用いられる。
操作部21は、送気送水ボタン30と、吸引ボタン31と、を備える。送気送水ボタン30は、送気送水操作の際に用いられる。吸引ボタン31は、吸引操作の際に用いられる。
操作部21は、静止画像撮影指示部32と、処置具導入口33と、を備える。静止画像撮影指示部32は、被観察部位の静止画像39の撮影指示を行う際に用いられる。処置具導入口33は、挿入部20の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路、及び処置具の図示は省略する。
ユニバーサルコード22は、内視鏡10を光源装置11に接続する接続コードである。ユニバーサルコード22は、挿入部20の内部を挿通しているライトガイド35、信号ケーブル36、及び図示しない流体チューブを内包している。
また、ユニバーサルコード22の端部は、光源装置11に接続されるコネクタ37aと、コネクタ37aから分岐され、且つプロセッサ12に接続されるコネクタ37bと、を備える。
コネクタ37aを光源装置11に接続した場合、ライトガイド35及び図示しない流体チューブが光源装置11に挿入される。これにより、ライトガイド35及び図示しない流体チューブを介して、光源装置11から内視鏡10に対して必要な照明光と水と気体とが供給される。
その結果、先端部27の先端面27aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン30の押下操作に応じて、先端部27の先端面27aの図示しない送気送水ノズルから先端面27aの図示しない観察窓に向けて気体又は水が噴射される。
コネクタ37bをプロセッサ12に接続した場合、信号ケーブル36とプロセッサ12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡10の撮像素子28からプロセッサ12へ被観察部位の撮像信号が出力され、且つプロセッサ12から内視鏡10へ制御信号が出力される。
本実施形態では、内視鏡10として軟性内視鏡を例に挙げて説明を行ったが、内視鏡10として、硬性内視鏡等の被観察部位の動画撮影を可能な各種の電子内視鏡を用いてもよい。
光源装置11は、コネクタ37aを介して、内視鏡10のライトガイド35へ照明光を供給する。照明光は、白色光、又は特定の波長帯域の光を適用可能である。照明光は、白色光、及び特定の波長帯域の光を組み合わせてもよい。光源装置11は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。
白色光は、白色の波長帯域の光又は複数の波長帯域の光のいずれでもよい。特定の波長帯域は、白色の波長帯域よりも狭い帯域である。特定の波長帯域の光は、1種類の波長帯域の光を適用してもよいし、複数の波長帯域の光を適用してもよい。特定の波長帯域は、特殊光と呼ばれる場合がある。
プロセッサ12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の動作を制御する。また、プロセッサ12は、コネクタ37b及び信号ケーブル36を介して、内視鏡10の撮像素子28から撮像信号を取得する。プロセッサ12は規定のフレームレートを適用して内視鏡10から出力された撮像信号を取得する。
プロセッサ12は、内視鏡10から取得した撮像信号に基づき、被観察部位の動画像38を生成する。更に、プロセッサ12は、内視鏡10の操作部21にて静止画像撮影指示部32が操作された場合、動画像38の生成と並行して、撮像素子28から取得した撮像信号に基づき被観察部位の静止画像39を生成する。この静止画像39は、動画像38の解像度に対して高解像度に生成されていてもよい。
動画像38及び静止画像39の生成の際に、プロセッサ12はホワイトバランス調整、及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。プロセッサ12はDICOM(Digital Imaging and Communications in Medicine)規格で規定された付帯情報を動画像38及び静止画像39へ付加してもよい。
動画像38及び静止画像39は、被検体内、すなわち生体内を撮影した生体内画像である。更に、動画像38及び静止画像39が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ12は、生成した動画像38及び静止画像39を、表示装置13と医療画像処理装置14とのそれぞれに出力する。プロセッサ12は、DICOM規格に準拠した通信プロトコルに従って、ネットワーク17を介して動画像38及び静止画像39を画像記憶装置18へ出力してもよい。
表示装置13は、プロセッサ12に接続されている。表示装置13は、プロセッサ12から入力された動画像38及び静止画像39を表示する。医師等のユーザは、表示装置13に表示される動画像38を確認しながら、挿入部20の進退操作等を行い、被観察部位に病変等を検出した場合には静止画像撮影指示部32を操作して被観察部位の静止画撮影を実行し得る。
医療画像処理装置14は、コンピュータが用いられる。操作装置15はコンピュータに接続可能なキーボード及びマウス等が用いられる。操作装置15とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置16は、コンピュータに接続可能な各種モニタが用いられる。
医療画像処理装置14として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、操作装置15及びモニタ装置16は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、医療画像処理装置14として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。
医療画像処理装置14は、動画像38の取得、及び動画像38の記憶を行う。医療画像処理装置14は、静止画像39の取得、及び静止画像39の記憶を行う。医療画像処理装置14は、動画像38の再生制御、及び静止画像39の再生制御を行う。
操作装置15は、医療画像処理装置14に対する操作指示の入力に用いられる。モニタ装置16は、医療画像処理装置14の制御の下、動画像38及び静止画像39の表示を行う。モニタ装置16は、医療画像処理装置14における各種情報の表示部として機能する。
ネットワーク17を介して、医療画像処理装置14と接続される画像記憶装置18は、CTC画像19が記憶される。CTC画像19は図示しないCTC画像生成装置を用いて生成される。なお、CTCは大腸3次元CT検査を表すCTコロノグラフィ(colonography)を表す省略表記である。
図示しないCTC画像生成装置は、3次元検査画像からCTC画像19を生成する。3次元検査画像は、3次元画像撮像装置を用いて検査対象部位を撮像して得られた撮像信号から生成される。3次元画像撮像装置の例として、CT装置、MRI装置、PET(Positron Emission Tomography)、及び超音波診断装置等が挙げられる。本実施形態では、大腸を撮影して得られた3次元検査画像からCTC画像19が生成される例を示す。
内視鏡システム9は、ネットワーク17を介してサーバ装置と通信可能に接続されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。図1に示した画像記憶装置18に記憶される情報は、サーバ装置を用いて管理されてもよい。なお、画像データの格納形式、及びネットワーク17を経由した各装置間の通信は、DICOM規格、及びDICOM規格に準拠したプロトコル等を適用可能である。
[医療画像処理装置の機能]
図2は医療画像処理装置の機能を示す機能ブロック図である。図2に示した医療画像処理装置14は、図示しないコンピュータを備える。コンピュータは、プログラムの実行に基づき、画像取得部41、情報取得部42、医療画像解析処理部43、及び表示制御部44として機能する。医療画像処理装置14は、医療画像処理装置14の各種制御に用いる情報を記憶する記憶部47を備える。
〔画像取得部〕
画像取得部41は、CTC画像取得部41a、及び内視鏡画像取得部41bを備える。CTC画像取得部41aは、図示しない画像入出力インターフェースを介して、CTC画像19を取得する。内視鏡画像取得部41bは、図示しない画像入出力インターフェースを介して、内視鏡画像37を取得する。画像入出力インターフェースの接続形態は有線でもよいし、無線でもよい。以下に、CTC画像取得部41a、及び内視鏡画像取得部41bについて詳細に説明する。
《CTC画像取得部》
CTC画像取得部41aは、図1に示した画像記憶装置18に記憶されているCTC画像19を取得する。図2に示したCTC画像取得部41aを用いて取得したCTC画像19は、画像記憶部48に記憶される。CTC画像取得部41aは、後述する内視鏡画像取得部41bと同様の構成を適用可能である。符号19bは視点画像を表す。視点画像19bはCTC画像19に設定される視点における視野の画像である。視点は符号Pを付して図5に図示する。視点画像、及び視点の詳細は後述する。
ここで、本実施形態における画像という用語は、画像を表すデータの概念、又は信号の概念が含まれる。CTC画像19は仮想内視鏡画像の一例である。CTC画像19は仮想大腸内視鏡画像に相当する。CTC画像取得部41aは仮想内視鏡画像を入力する第1画像入力部の一例である。
《内視鏡画像取得部》
内視鏡画像取得部41bは、図1に示したプロセッサ12を用いて生成された内視鏡画像37を取得する。内視鏡画像37は図2に示した動画像38及び静止画像39が含まれる。本実施形態では、図1に示したプロセッサ12を用いて生成された内視鏡画像37を取得したが、外部の記憶装置に記憶されている内視鏡画像37を取得してもよい。図2に示した内視鏡画像取得部41bは、メモリーカード等の各種情報記憶媒体を介して内視鏡画像37を取得してもよい。
動画像38の撮影途中に静止画像39の撮影が行われた場合、内視鏡画像取得部41bは、図1に示したプロセッサ12から動画像38及び静止画像39を取得する。医療画像処理装置14は、内視鏡画像取得部41bを用いて取得した動画像38及び静止画像39を画像記憶部48に記憶する。符号38aは、動画像38を構成する複数のフレーム画像を表す。
医療画像処理装置14は、プロセッサ12等から入力される内視鏡画像37の動画像38の全てを画像記憶部48に記憶させる必要はなく、図1に示した静止画像撮影指示部32の操作に応じて被観察部位の静止画撮影が行われた場合、その前後の1分間の動画像38を、図2に示した画像記憶部48に記憶させてもよい。前後の1分間は、撮影前1分間から撮影後1分間までの期間を表す。
内視鏡画像取得部41bは、実内視鏡画像を入力する第2画像入力部の一例である。内視鏡画像37は実内視鏡画像に相当する。
〔情報取得部〕
情報取得部42は、操作装置15等を介して外部から入力された情報を取得する。例えば、操作装置15を用いてユーザが判定した判定結果、及び抽出結果等が入力された場合に、情報取得部42はユーザの判定情報、及び抽出情報等を取得する。
〔医療画像解析処理部〕
医療画像解析処理部43はCTC画像19を解析する。また、医療画像解析処理部43は内視鏡画像37を解析する。医療画像解析処理部43を用いたCTC画像19、及び内視鏡画像37の解析の詳細は後述する。
〔深層学習アルゴリズム〕
医療画像解析処理部43は、深層学習アルゴリズム65に基づき、深層学習を用いた画像解析処理を実施する。深層学習アルゴリズム65は、公知のコンボリューションニューラルネットワークの手法と、全結合層と、出力層とを含むアルゴリズムである。
なお、深層学習はディープラーニングと呼ばれることがある。コンボリューションニューラルネットワークは、畳み込み層及びプーリング層の繰り返し処理である。コンボリューションニューラルネットワークは、畳み込みニューラルネットワークと呼ばれる場合がある。なお、深層学習を用いた画像解析処理は公知技術であるので、具体的な説明は省略する。深層学習は機械学習の一例である。
〔表示制御部〕
表示制御部44は、モニタ装置16の画像表示を制御する。表示制御部44は、再生制御部44a及び情報表示制御部44bとして機能する。
《再生制御部》
再生制御部44aは、CTC画像取得部41aを用いて取得したCTC画像19、及び内視鏡画像取得部41bを用いて取得した内視鏡画像37の再生制御を行う。再生制御部44aは、操作装置15を用いて画像を再生する操作がされた場合、表示制御プログラムを実行してモニタ装置16を制御する。表示制御プログラムはプログラム記憶部49に記憶されるプログラムに含まれる。
CTC画像19、及び内視鏡画像37の表示制御例として、CTC画像19、又は内視鏡画像37のいずれか一方を全画面表示する例が挙げられる。CTC画像19、及び内視鏡画像37の他の表示制御例として、CTC画像19、及び内視鏡画像37を一画面内に並列表示する例が挙げられる。再生制御部44aは、上述した2つの表示を切り替えてもよい。
内視鏡画像37の表示制御例として、動画像38、又は静止画像39のいずれか一方を全画面表示する形態が挙げられる。内視鏡画像37の他の表示例として、動画像38、及び静止画像39を1画面内に並列表示する形態が挙げられる。再生制御部44aは、上述した2つの表示を切り替えてもよい。
CTC画像19、及び内視鏡画像37の表示例として、CTC画像19、及び内視鏡画像37を一画面内に並列表示させる例を図14から図16等に示す。
《情報表示制御部》
情報表示制御部44bは、CTC画像19の付帯情報の表示制御、及び内視鏡画像37の付帯情報の表示制御を行う。CTC画像19の付帯情報の一例として、第1特徴領域を表す情報が挙げられる。内視鏡画像37の付帯情報の例として、第2特徴領域を表す情報が挙げられる。
情報表示制御部44bは、医療画像解析処理部43における各種処理の際に必要な情報の表示制御を行う。医療画像解析処理部43における各種処理の例として、CTC画像19と内視鏡画像37との対応付け処理、CTC画像19の特徴領域抽出処理、及び内視鏡画像37の特徴領域抽出処理が挙げられる。
医療画像解析処理部43における各種処理の他の例として、CTC画像19と内視鏡画像37との対応付け処理が挙げられる。ここに列挙した医療画像解析処理部43における各種処理の詳細は後述する。
〔記憶部〕
記憶部47は、画像記憶部48を備える。画像記憶部48は、医療画像処理装置14が取得したCTC画像19、及び内視鏡画像37を記憶する。図2には、医療画像処理装置14が記憶部47を備える態様を例示したが、医療画像処理装置14とネットワークを介して通信可能に接続される記憶装置等が記憶部47を備えてもよい。上述した記憶装置の例として、図1に示したネットワーク17を介して通信可能に接続される画像記憶装置18が挙げられる。
記憶部47は、プログラム記憶部49を備える。プログラム記憶部49を用いて記憶されるプログラムは、動画像38の再生制御を医療画像処理装置14に実行させるためのアプリケーションプログラムが含まれる。また、プログラム記憶部49を用いて記憶されるプログラムは、医療画像解析処理部43の処理を医療画像処理装置14に実行させるためのプログラムが含まれる。
〔医療画像処理装置のハードウェア構成〕
医療画像処理装置14は、複数のコンピュータ等を用いて構成してもよい。複数のコンピュータ等は、ネットワークを介して通信可能に接続されてもよい。ここでいう複数のコンピュータは、ハードウェア的に分離していてもよいし、ハードウェア的に一体に構成され、且つ機能的に分離されていてもよい。
〔各種制御部のハードウェア構成〕
図2に示した医療画像処理装置14の各種制御を実行する制御部のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。図3に示す医療画像解析処理部43についても同様である。
各種のプロセッサには、ソフトウェアを実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるPLD(Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。なお、ここでいうソフトウェアはプログラムと同義である。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサを用いて構成されてもよい。2つ以上のプロセッサの例として、複数のFPGA、或いはCPUとFPGAとの組み合わせが挙げられる。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアント装置、及びサーバ装置等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組合せを用いて1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、SoC(System On Chip)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。なお、ICは集積回路の英語表記であるIntegrated Circuitの省略語である。
〔医療画像解析処理部の詳細な説明〕
図3は医療画像解析処理部の機能を示す機能ブロック図である。以下の説明における内視鏡10は図1に図示されている。また、CTC画像19、視点画像19b、内視鏡画像37、及びフレーム画像38aは図2に図示されている。
図3に示した医療画像解析処理部43は、第1特徴領域抽出部50と、第1条件設定部52と、第2特徴領域抽出部54と、第2条件設定部56と、対応付け部58と、報知部59と、報知画像生成部60と、を備える。
《第1特徴領域抽出部》
第1特徴領域抽出部50は、CTC画像19から、規定の第1条件に合致する特徴領域である第1特徴領域を抽出する。CTC画像19の第1特徴領域の例として、病変、ひだ、各結腸間の変化点、及び血管が挙げられる。なお、血管は血管の走行パターンが含まれる。第1特徴領域抽出部50が担う機能は第1特徴領域抽出機能に相当する。
《第1条件設定部》
第1条件設定部52は第1条件を設定する。第1条件は、第1特徴領域抽出部50を用いた抽出処理に適用される抽出条件である。第1条件設定部52は、図2に示した操作装置15を用いて入力された情報を第1条件として設定し得る。上述した第1特徴領域の例示は、第1条件の例示として把握される。
《第2特徴領域抽出部》
第2特徴領域抽出部54は、図2に示した内視鏡画像37から、規定の第2条件に合致する特徴領域である第2特徴領域を抽出する。内視鏡画像37の第2特徴領域の例として、CTC画像19の第1特徴領域と同様に、病変、ひだ、各結腸間の変化点、及び血管が挙げられる。
第2特徴領域抽出部54は、第2条件に合致する第2特徴領域を内視鏡画像37から自動的に抽出してもよい。第2特徴領域抽出部54は、第2条件に合致する第2特徴領域を、ユーザが内視鏡画像37から手動抽出した抽出結果を取得してもよい。ユーザは、図2に示した情報取得部42を用いて手動抽出した抽出結果を入力してもよい。第2特徴領域抽出部54が担う機能は第2特徴領域抽出機能に相当する。
《第2条件設定部》
第2条件設定部56は、内視鏡画像37の第2特徴領域の抽出条件として、第1条件に対応する第2条件を設定する。第1条件に対応する第2条件には、第1条件と同一の第2条件が含まれる。例えば、第1条件として病変が設定された場合、第2条件として病変が設定され得る。
第1条件、及び第2条件は、病変という包括概念に代わり、ポリープ、及び炎症等の具体的な病変が設定されてもよい。また、第1条件、及び第2条件は、複数の条件を組み合わせてもよい。
第2条件として病変が設定され、且つ第2特徴領域として内視鏡画像37から病変を抽出する場合は、内視鏡検査における病変の検出に相当する。上述した第2特徴領域の例示は、第2条件の例示として把握される。
《対応付け部》
対応付け部58は、図2に示したCTC画像19と内視鏡画像37との対応付けを行う。CTC画像19と内視鏡画像37との対応付けの例として、CTC画像19の第1特徴領域と内視鏡画像37の第2特徴領域との対応付けが挙げられる。例えば、内視鏡画像37の第2特徴領域として病変が検出された場合、検出された病変に対応するCTC画像19の第1特徴領域を内視鏡画像37の第2特徴領域に対応付けする。
CTC画像19と内視鏡画像37との対応付けは位置情報を用いることが可能である。例えば、CTC画像19の基準位置と内視鏡画像37の基準位置とを一致させて、CTC画像19、及び内視鏡画像37のそれぞれの基準位置からの距離を用いて、CTC画像19と内視鏡画像37との対応付けが可能である。
また、CTC画像19の座標値と内視鏡画像37のフレーム画像38aの番号とを対応付けしてもよい。CTC画像19と内視鏡画像37との対応付けには、CTC画像19の第1特徴領域と内視鏡画像37の非抽出領域との対応付けが含まれる。CTC画像19の第1特徴領域と内視鏡画像37の非抽出領域との対応付けとの具体例は後述する。対応付け部58が担う機能を対応付け機能に相当する。
《報知部》
報知部59は、CTC画像19抽出された第1特徴領域80と対応付けされた内視鏡画像37の領域のうち、内視鏡画像37から抽出されない非抽出領域となる領域が存在する場合に、その旨を報知する。非抽出領域の一例として、内視鏡10の観察範囲の死角の位置が挙げられる。報知部59は、表示制御部44を介してモニタ装置16に報知情報を表示する。報知情報の一例として、後述する報知画像が挙げられる。報知部59が担う機能は報知機能に相当する。
《報知画像生成部》
報知画像生成部60は、内視鏡画像37の第2特徴領域の存在を報知する報知画像を生成する。報知画像の例として、第2特徴領域の任意の位置に付される記号、第2特徴領域の縁を表す閉曲線等が挙げられる。
報知画像の表示例として、内視鏡画像37と報知画像とを別のレイヤーとして生成し、報知画像を内視鏡画像37にオーバーレイ表示させる態様が挙げられる。すなわち、報知画像生成部60は、内視鏡画像37に処理を加えることなく、内視鏡画像37に重畳表示させることが可能な報知画像を生成する。
報知画像の一例として図14に第1報知画像140を図示する。報知画像の他の例として図15に第2報知画像142を図示する。報知画像の詳細は後述する。
〔画像記憶部の詳細な説明〕
図4は画像記憶部の機能を示す機能ブロック図である。画像記憶装置18は、第1特徴領域記憶部64と、第2特徴領域記憶部66と、対応付け結果記憶部68とを備える。
《第1特徴領域記憶部》
第1特徴領域記憶部64は、図3に示した第1特徴領域抽出部50を用いてCTC画像19から抽出された第1特徴領域の情報を記憶する。第1特徴領域の情報の例として、CTC画像19における第1特徴領域の位置を表す情報が挙げられる。CTC画像19における第1特徴領域の位置は、CTC画像19に設定された座標における座標値、及びCTC画像19に設定された視点等を用いて特定し得る。
《第2特徴領域記憶部》
第2特徴領域記憶部66は、図3に示した第2特徴領域抽出部54を用いて内視鏡画像37から抽出された第2特徴領域の情報を記憶する。第2特徴領域の情報の例として、内視鏡画像37における第2特徴領域の位置を表す情報が挙げられる。
内視鏡画像37における第2特徴領域の位置は、内視鏡10が備えるセンサの検出情報を用いて、被観察対象の基準位置からの距離を用いて特定し得る。
《対応付け結果記憶部》
対応付け結果記憶部68は、図3に示した対応付け部58を用いて実行されたCTC画像19と内視鏡画像37との対応付けの結果を記憶する。例えば、CTC画像19の第1特徴領域の位置の情報と、内視鏡画像37の第2特徴領域の位置の情報とを対応付けた結果を記憶し得る。
[報知方法の説明]
次に、内視鏡検査における報知方法について説明する。本実施形態では、仮想大腸内視鏡検査を併用して実施される大腸の内視鏡検査を例示する。なお、大腸の内視鏡検査は例示であり、本実施形態に係る報知方法は、気管支等の他の部位の内視鏡検査に適用可能である。
〔CTC画像〕
図5はCTC画像の模式図である。図5に示した全体画像19aは、被観察部位である大腸の全体を表すCTC画像19の一形態である。被観察部位は、被検体、及び被検体の観察対象と同義である。
全体画像19aは、設定されたパス19cの上に1つ以上の視点Pを置き、スタート位置Pから、ゴール位置Pまで順次に視点Pを変更しつつ、各視点Pから管腔の内部を見たことを想定した画像である。パス19cは、全体画像19aに対して細線化を施して生成し得る。細線化処理は公知の細線化手法を適用可能である。図5には、複数の視点Pを図示したが、視点Pの配置、及び数量は検査条件等に応じて、適宜決定し得る。
全体画像19aの各視点Pを指定した場合、指定された視点Pにおける視野の画像を表す視点画像を表示可能である。なお、各視点Pにおける視点画像は符号19b、及び符号19bを付して図8に図示する。
各視点Pにおいて、内視鏡10の撮像方向を反映させた視点画像を生成し得る。内視鏡10の撮像方向を反映させた視点画像は、複数の撮像方向のそれぞれについて生成し得る。図5に示した全体画像19a、及び図5に図示しない視点画像は、図2に示したCTC画像19の概念に含まれる。
図5に全体画像19aを示したCTC画像19は、図示しない3次元座標が設定される。CTC画像19に設定される3次元座標は、CTC画像19の任意の基準位置を原点とする3次元座標を適用可能である。3次元座標は、直交座標、極座標、及び円筒座標など、任意の3次元座標を適用可能である。なお、3次元座標の図示は省略する。
〔仮想大腸内視鏡検査〕
仮想大腸内視鏡検査は、CT装置を用いて大腸を撮像して大腸のCT画像を取得し、大腸のCT画像に画像処理を施して生成されたCTC画像19を用いて病変等を検出する。仮想大腸内視鏡検査は、内視鏡10の移動と連動して、内視鏡10に見立てたポインタ19dをスタート位置Pからゴール位置Pまで、パス19c上を移動させる。図5に示した矢印は、ポインタ19dの移動方向を表す。
図5には、スタート位置Pとして盲腸を適用し、且つゴール位置Pとして肛門を適用した例を示す。すなわち、図5には、内視鏡10をスタート位置Pまで挿入し、内視鏡10を抜きながらゴール位置P位置へ移動させる場合の仮想大腸内視鏡検査を模式的に図示した。
ポインタ19dの位置は、内視鏡10の移動条件から導出される。内視鏡10の移動条件の例として、内視鏡10の移動速度、及び内視鏡10の移動方向を表す移動ベクトルが挙げられる。
内視鏡10は図示しないセンサを用いて被観察部位の内部における位置を把握し得る。また、内視鏡10は図示しないセンサを用いて内視鏡10の移動速度、及び移動方向を表す移動ベクトルの導出が可能である。更に、内視鏡10は図示しないセンサを用いて内視鏡10の向きの導出が可能である。
仮想大腸内視鏡検査では、内視鏡画像37から取得することが困難な3次元情報を、CTC画像19から取得し得る。
〔内視鏡画像〕
内視鏡検査は、内視鏡画像37からポリープ等の病変を検出する。すなわち、内視鏡検査は、内視鏡10を用いて、リアルタイムに生成される動画像38を見て、病変の位置、及び形状等を特定する。内視鏡検査は、内視鏡画像37の再生画像を用いてもよい。
図6は内視鏡画像の模式図である。内視鏡画像37の一例として、動画像38を構成する任意のフレーム画像38aを図6に示す。図6に示したフレーム画像38aは2次元画像である。フレーム画像38aは色情報、及びテクスチャ情報を有している。
内視鏡画像37は色情報、及びテクスチャ情報を有しているために、内視鏡検査は平坦な病変、及び表面状態の違い等の検出に強い。一方、内視鏡検査は、ひだ等の突起構造の裏側の病変の発見を苦手とする。
図7は内視鏡の観察範囲の死角を示す模式図である。図7は、CTC画像19のパス19cに沿う模式的な断面100、及びCTC画像19の断面100に対応する内視鏡画像37の模式的な断面120を図示する。
2点鎖線を用いて図示した内視鏡10A、及び内視鏡10Bは、既に観察を終えた観察位置における内視鏡10を表す。実線を用いて図示した内視鏡10は、観察中の観察位置における内視鏡10を表す。矢印線は内視鏡10の移動方向を表す。
なお、図7では、図示の都合上、図7における上下方向の内視鏡10A、内視鏡10B、及び内視鏡10の位置をずらして、内視鏡10A、内視鏡10B、及び内視鏡10を図示した。
CTC画像19は3次元情報を有しているために、仮想大腸内視鏡検査はポリープ等の凸形状の検出に強い。また、ひだの裏に隠れているポリープ等の検出にも強い。例えば、CTC画像19は、ひだ102の裏側に位置するポリープ104、及びひだ102の表側に位置するポリープ106のいずれの検出も可能である。但し、視点画像ではひだ102の裏側に位置するポリープ106は表示されない場合があり得る。
一方、内視鏡画像37は3次元情報を有していないので、内視鏡検査では、ひだ122の表側に位置するポリープ126の検出は可能であるものの、ひだ122の裏側に位置するポリープ124の検出を苦手とする。
例えば、ひだ122の表側のポリープ126は、内視鏡10B、又は内視鏡10の観察範囲に位置する。内視鏡10Aはポリープ126を検出し得る。ひだ122の裏側のポリープ124は、内視鏡10A、内視鏡10B、及び内視鏡10の観察範囲の死角に位置する。内視鏡10A、内視鏡10B、及び内視鏡10はひだ122の裏側のポリープ124の検出が困難である。
このようにして、内視鏡10、内視鏡10A、及び内視鏡10Bは、いずれもひだ122の裏側のポリープ124の検出が困難である。
〔特徴領域抽出処理〕
図8は第1特徴領域抽出の説明図である。図8には、CTC画像19のうち、任意の視点Pにおける視点画像19b、及び視点画像19bを図示する。図8に示した視点画像19b、及び視点画像19bを包括する概念が視点画像19bである。
第1特徴領域抽出処理は、図3に示した第1特徴領域抽出部50を用いて、図8に示したCTC画像19から第1特徴領域80を抽出する。また、第1特徴領域抽出処理は、図7に示したひだ102の裏側に位置するポリープ106を第1特徴領域80として検出し得る。CTC画像19から第1特徴領域80を抽出する処理は、公知の特徴領域抽出技術を適用可能である。後述する第2特徴領域抽出も同様である。
公知の特徴領域抽出技術の例として、複数の領域ごとの特徴量を算出して、領域ごとの特徴量に応じて、第1条件に合致する領域を抽出対象の領域として特定する例が挙げられる。領域ごとの特徴量は、各領域に含まれる各画素の画素値を用いて算出し得る。
図8に示した視点画像19bは、第1特徴領域80として凸形状のポリープが抽出されている。CTC画像19の第1特徴領域80は、CTC画像19に設定されている3次元座標における座標値の特定が可能である。
図8には、CTC画像19から第1特徴領域80として凸形状のポリープを抽出する例を示したが、ひだ、各結腸の変化点、及び血管を抽出してもよい。血管として血管の走行パターンを抽出してもよい。後述する第2特徴領域抽出も同様である。
複数の第1特徴領域80が抽出された場合は、複数の第1特徴領域80は、第1条件と関連付けされ、一括して管理される。
第1特徴領域80は、複数の属性に分類してもよい。例えば、病変の位置に関する情報を分類の条件として、第1特徴領域80として抽出した病変を位置に応じて分類してもよい。病変の位置に関する情報の例として、ひだの表であるか裏であるかの情報が挙げられる。すなわち、第1特徴領域80として抽出した病変をひだの表の病変と、ひだの裏の病変とに分類してもよい。第1条件として、ひだの表の病変、及びひだの裏の病変を適用して、2種類の第1特徴領域を抽出してもよい。
図9は第2特徴領域抽出の説明図である。図9には、内視鏡画像37のうち、任意のフレーム画像38aを図示する。第2特徴領域の抽出結果は内視鏡検査の結果として取り扱うことが可能である。なお、図9に示したフレーム画像38aは、静止画像39を用いてもよい。
第2特徴領域抽出処理は、図3に示した第2特徴領域抽出部54を用いて内視鏡画像37から第2特徴領域70を抽出する。図9に示したフレーム画像38aは、第2特徴領域70として凸形状のポリープが抽出されている。一方、第2特徴領域抽出処理は、図7に示したひだ122の裏側のポリープ126を第2特徴領域70として抽出することが困難である。
図8に示した第1特徴領域80の情報は、第1特徴領域の抽出結果として、図4に示した第1特徴領域記憶部64に記憶される。また、図9に示した第2特徴領域70の情報は、第2特徴領域の抽出結果として、図4に示した第2特徴領域記憶部66に保存される。
〔対応付け処理〕
図10から図12を用いて対応付け処理について説明する。図12は病変の対応付けの例を示す模式図である。図10には内視鏡画像37のフレーム画像38aにおいて凸形状のポリープである第2特徴領域70が検出された場合の例を示す。
なお、図10に示した視点画像19bは図8に示した視点画像19bである。図10に示した視点画像19bは図8に示した視点画像19bである。図10に示した第1特徴領域80は、図8に示した第1特徴領域80である。
また、図10に示したフレーム画像38aは、図9に示したフレーム画像38aである。図10に示した第2特徴領域70は、図9に示した第2特徴領域70である。
以下に、内視鏡10の移動に対応して、全体画像19aのパス19cに沿って、内視鏡10の位置を表すポインタ19dを移動させながら、内視鏡検査を行う場合について説明する。内視鏡10の位置は、内視鏡10が備えるセンサを用いて既知である。また、各視点Pにおける内視鏡10の向きは、図4に示したパス19cの各視点Pにおける接線方向とする。
図3に示した対応付け部58は、図10に示した内視鏡画像37から第2特徴領域70が抽出された場合に、第2特徴領域70に対応する第1特徴領域80をCTC画像19から検索する。内視鏡画像37の第2特徴領域70に対応するCTC画像19の第1特徴領域80が検出された場合、CTC画像19の第1特徴領域80と、内視鏡画像37の第2特徴領域70とを対応付ける。
図3に示した対応付け部58は、CTC画像19の位置の情報と内視鏡画像37の位置の情報とを用いてCTC画像19の第1特徴領域80と、内視鏡画像37の第2特徴領域70との対応付けをし得る、CTC画像19の位置の情報に代えてCTC画像19の画像の情報を適用し、且つ内視鏡画像37の位置の情報に代えて内視鏡画像37の画像の情報を適用してもよい。
図3に示した対応付け部58は、図10に示したCTC画像19の第1特徴領域80と、内視鏡画像37の第2特徴領域70との対応付け結果を、図4に示した対応付け結果記憶部68へ記憶する。
換言すると、CTC画像19と内視鏡画像37との対応付けという概念は、CTC画像19の構成要素と、内視鏡画像37の構成要素との組を構成するという概念が含まれる。CTC画像19と内視鏡画像37との対応付けという概念には、内視鏡画像37の構成要素に対応するCTC画像19の構成要素を検索して、特定するという概念が含まれてもよい。
図11はひだの対応付けの例を示す模式図である。図11に示したフレーム画像38a11は、第2特徴領域72としてひだが抽出されている。視点画像19b11は、第1特徴領域82としてひだが抽出されている。図12には、視点画像19b11の視点Pに対して連続する視点Pにおける視点画像19b12、及び視点画像19b13が図示されている。図3に示した対応付け部58は、図11に示した第1特徴領域82と第2特徴領域72とを対応付ける。
図3に示した対応付け部58は、図11に示した第1特徴領域82と第2特徴領域72との対応付け結果を、図4に示した対応付け結果記憶部68へ記憶する。
図12はひだの番号を用いたひだの対応付けの例を示す模式図である。CTC画像19、及び内視鏡画像37のいずれにおいても、ひだの数は変わらない。そこで、基準とするひだを定めて、ひだの番号を用いてCTC画像19と内視鏡画像37との対応付けが可能である。
図12に示したフレーム画像38a21は、第2特徴領域74としてひだが抽出されている。視点画像19b21は、第1特徴領域84としてひだが抽出されている。図12に示した視点画像19b22、及び視点画像19b23もまた、第2特徴領域としてひだが抽出されている。なお、視点画像19b22、及び視点画像19b23の第2特徴領域の図示は省略する。
視点画像19b21に付されたnはひだの番号を表す整数である。視点画像19b22に付されたn、視点画像19b23に付されたn、及びフレーム画像38a21に付されたnも同様である。
フレーム画像38a21におけるひだの番号nと、視点画像19b21におけるひだの番号nとが一致する場合、図3に示した対応付け部58は、図12に示した第2特徴領域74と第1特徴領域84とを対応付けする。
図3に示した対応付け部58は、図12に示した第2特徴領域74と第1特徴領域84と対応付け結果を、図4に示した対応付け結果記憶部68へ記憶する。
図示は省略するが、各結腸間の変換点、及び血管についても、図10から図12を用いて説明した例と同様に、対応付けが可能である。
〔報知処理〕
次に、図13から図15を用いて、報知処理について説明する。図13は非報知の場合の内視鏡画像、及び仮想内視鏡画像の模式図である。図13に示したモニタ装置16は、内視鏡画像37を表示し、且つ内視鏡画像37に対応するCTC画像19を表示する。CTC画像19の視点画像19b31は、内視鏡画像37のフレーム画像38a31に対応している。
モニタ装置16に表示される内視鏡画像37は、内視鏡検査の進行に合わせて、順次更新される。また、CTC画像19は内視鏡画像37の更新に合わせて、順次更新される。なお、CTC画像19と内視鏡画像37との間には許容範囲内の遅延があってもよい。
図13に示したCTC画像19は、ポリープ等の病変が第1特徴領域80として抽出されていない。また、内視鏡画像37は、CTC画像19の第1特徴領域80と対応付けされた領域が存在していない。したがって、モニタ装置16は、後述する第1報知画像140、及び第2報知画像142を表示しない。
図14は第1報知の場合の内視鏡画像、及び仮想内視鏡画像の模式図である。図14に示した内視鏡画像37のフレーム画像38a32は、第1報知画像140が表示されている。第1報知画像140は、ひだ150の裏側に図示しないポリープが存在しているものの、フレーム画像38a32にはポリープが映し出されていない場合に表示される。
ひだ150の裏側にポリープが存在しているものの、フレーム画像38a32にはポリープが映し出されていない場合でも、ひだ150の裏側にポリープが存在している場合は、CTC画像19から、ひだ160の裏側のポリープが第1特徴領域80dとして抽出されている。
但し、視点画像19b32は、フレーム画像38a32と同様の視野を表示しているので、第1特徴領域80dとして抽出されたポリープは表示されていない。第1特徴領域80dを表す破線は、第1特徴領域80dが視点画像19b32に表示されていないことを表す。
図14に破線を用いて図示した第1特徴領域80dは、内視鏡画像37から第2特徴領域70として抽出されていない非抽出領域76と対応付けがされている。非抽出領域76の例として、内視鏡画像37における内視鏡10の観察範囲の死角に位置する領域が挙げられる。
すなわち、非抽出領域76は、本来、第2特徴領域70が抽出されるべき領域である。また、非抽出領域76は、内視鏡10の観察範囲の死角に位置する領域のために、実際に第2特徴領域70が抽出されない領域である。
図3に示した報知部59は、内視鏡画像37に非抽出領域76が存在する場合に、第1報知として、モニタ装置16に表示した内視鏡画像37の非抽出領域76の位置に、第1報知画像140をオーバーレイ表示させる。また、第1報知画像140は、内視鏡画像37の非抽出領域76の位置に表示される。図14に示した第1報知画像140は一例であり、形状等は任意に規定し得る。
第1報知画像140は、フレーム画像38a32の前後のフレーム画像38aに表示してもよい。すなわち、内視鏡検査の進行に応じて、非抽出領域76が内視鏡10の視野に進入したタイミングから、非抽出領域76が内視鏡10の視野から外れるタイミングまでの任意のタイミングにおいて、第1報知画像140を表示し得る。図15に示す第2報知画像142についても同様である。
図14に示した内視鏡画像37のひだ150は、図7に示した断面120ひだ122に対応する。また、CTC画像19のひだ160は、図7に示した断面100ひだ122に対応する。図15に示したひだ150、及びひだ160も同様である。
図15は第2報知の場合の内視鏡画像、及び仮想内視鏡画像の模式図である。第2報知は、内視鏡画像37から第2特徴領域70が抽出された場合に行われる。図15に示した内視鏡画像37は、第2特徴領域70としてポリープが抽出されており、第2報知として第2報知画像142が表示される。
換言すると、第1特徴領域80eとして、ひだ160の表側のポリープが抽出されている場合、図3に示した報知部59は、モニタ装置16に表示した内視鏡画像37の第2特徴領域70の位置に、第2報知画像142をオーバーレイ表示させる。
図15に示した内視鏡画像37のフレーム画像38a33の第2特徴領域70は、CTC画像19の視点画像19b33の第1特徴領域80eと対応付けがされる。第1特徴領域80eはひだ160の表側のポリープである。
図14に示した第1報知画像140は、図15に示した第2報知画像142に対して報知のレベルが変更されている。具体的には、図14に示した第1報知画像140は、図15に示した第2報知画像142に対して報知のレベルが上げられ、図14に示した第1報知画像140は、図15に示した第2報知画像142に対してサイズが大きくされている。第1報知と第2報知との報知レベルの違いの詳細は後述する。
本実施形態に示した、ひだ160の裏側のポリープとして抽出された第1特徴領域80d、及びひだ160の表側のポリープとして抽出された第1特徴領域80eは、ポリープという条件と、ひだの表側か裏側かという条件を組み合わせた第1条件を適用して、CTC画像19から予め抽出されてもよい。
[報知方法の手順]
図16は報知方法の手順を示すフローチャートである。まず、CTC画像入力工程S10が実行される。CTC画像入力工程S10では、図2に示したCTC画像取得部41aを用いてCTC画像19が入力される。CTC画像19は、画像記憶部48へ記憶される。図16に示したCTC画像入力工程S10は第1画像入力工程の一例である。
CTC画像入力工程S10の後に、第1特徴領域抽出工程S12へ進む。第1特徴領域抽出工程S12では、図3に示した第1特徴領域抽出部50を用いて、CTC画像19から第1特徴領域を抽出する。第1特徴領域の情報は、図4に示した第1特徴領域記憶部64へ記憶される。
図16に示した第1特徴領域抽出工程S12の後に、内視鏡画像入力工程S14へ進む。内視鏡画像入力工程S14では、図3に示した内視鏡画像取得部41bを用いて、内視鏡画像37が入力される。図16に示した内視鏡画像入力工程S14は第2画像入力工程の一例である。
内視鏡画像入力工程S14後に、第2特徴領域抽出工程S16へ進む。第2特徴領域抽出工程S16では、図3に示した第2特徴領域記憶部66を用いて、内視鏡画像37から第2特徴領域が抽出される。
図16に示した内視鏡画像入力工程S14、及び第2特徴領域抽出工程S16は、内視鏡検査として把握し得る。すなわち、図2に示した内視鏡画像取得部41bは、内視鏡10を用いて撮像された動画像38を逐次入力し、図1に示したモニタ装置16へ内視鏡画像37として表示する。
図3に示した第2特徴領域抽出部54は、内視鏡画像37から自動的に第2特徴領域70として病変を抽出する。第2特徴領域抽出部54は、ユーザが操作装置15を用いて入力した抽出情報に基づいて、内視鏡画像37から第2特徴領域70として病変を抽出してもよい。
また、図3に示した第1特徴領域抽出部50は、内視鏡画像37の取得、及び第2特徴領域70の抽出と並行して、CTC画像19から第1特徴領域80の抽出を実行する。第1特徴領域80は予め抽出され、記憶されていてもよい。
図16に示した対応付け工程S18では、図3に示した対応付け部58を用いて、CTC画像19と内視鏡画像37との対応付けを行う。すなわち、対応付け部58は、第1特徴領域80と第2特徴領域70とを対応付けするか、又は第1特徴領域80と非抽出領域
76とを対応付けする。図16に示した対応付け工程S18における対応付けの結果は、図4に示した対応付け結果記憶部68へ記憶される。
図16に示した対応付け工程S18の後に判定工程S20が実行される。判定工程S20では、図5に示した報知部59を用いて、図14を用いた説明した第1報知を実行するか、又は図15に示した第2報知を実行するかを判定する。
図16に示した判定工程S20において、第1特徴領域80が内視鏡画像37の非抽出領域76に対応付けされた場合はYes判定となる。Yes判定の場合は第1報知工程S22へ進む。判定工程S20において、第1特徴領域80が内視鏡画像37の第2特徴領域70に対応付けされた場合はNo判定となる。No判定の場合は第2報知工程S24へ進む。
例えば、図5に示した報知部59は、CTC画像19から第1特徴領域80として抽出されたポリープ等の病変が、内視鏡10の観察範囲の死角の位置であるか、又は内視鏡10の観察範囲の位置であるかを判定してもよい。
報知部59は、CTC画像19から第1特徴領域80として抽出されたポリープ等の病変が、内視鏡10の観察範囲の死角に位置する場合は第1報知を実行し得る。一方、CTC画像19から第1特徴領域80として抽出されたポリープ等の病変が、内視鏡10の観察範囲に位置する場合は第2報知を実行し得る。
第1報知工程S22は、図3に示した報知部59を用いて、図14を用いて説明した第1報知を実行する。図16に示した第1報知工程S22の後に検査終了判定工程S26へ進む。
第2報知工程S24は、図3に示した報知部59を用いて、図15を用いて説明した第2報知を実行する。図16に示した第2報知工程S24の後に検査終了判定工程S26へ進む。
検査終了判定工程S26は、図3に示した医療画像処理装置14を用いて、内視鏡検査が終了したか否かを判定する。検査終了判定工程S26において、医療画像処理装置14が、内視鏡検査が終了したと判定した場合はYesとなる。Yes判定の場合、医療画像処理装置14は報知方法を終了する。
一方、検査終了判定工程S26において、医療画像処理装置14が、内視鏡検査が継続されていると判定した場合はNoとなる。No判定の場合、医療画像処理装置14は報知方法を継続する。すなわち、検査終了判定工程S26においてNo判定の場合は、内視鏡画像入力工程S14へ進む。以降、検査終了判定工程S26においてYes判定となるまで、内視鏡画像入力工程S14から検査終了判定工程S26までの各工程が実行される。
[作用効果]
〔1〕
上記の如く構成された内視鏡システム、及び報知方法によれば、CTC画像19から第1特徴領域80としてポリープ等の病変を抽出する。CTC画像19と内視鏡画像37とを対応付ける。CTC画像19の第1特徴領域80が内視鏡画像37の非抽出領域76に対応付けされている場合は第1報知を行う。第1報知に起因して、ユーザは内視鏡画像37から抽出されない、例えば、内視鏡10の観察範囲の死角に位置するポリープ等の病変の存在を認識し得る。これにより、内視鏡10を用いた内視鏡検査において、内視鏡10の観察範囲の死角となる位置のポリープ等の病変の見落としを抑制し得る。
また、内視鏡10の観察範囲の死角に位置するポリープ等の病変の存在を認識した場合は、内視鏡10の観察範囲を妨げているひだ等を押すことで、内視鏡10の観察範囲の死角の観察が可能となる。
〔2〕
第1特徴領域80が第2特徴領域70に対応付けされている場合は第2報知を行う。第1報知は第2報知に対して報知のレベルが変更され、報知のレベルが上げられている。これにより、第1特徴領域80が第2特徴領域70に対応付けされている場合と比較して、第1特徴領域が非抽出領域76と対応付けされている場合の認識がし易くなる。
〔3〕
第1報知画像、及び第2報知画像は、内視鏡画像37にオーバーレイ表示される。これにより、内視鏡画像37自体に処理を施すことなく、内視鏡画像37に第1報知画像140、又は第2報知画像142を重畳表示させることが可能となる。
[報知の変形例]
〔第1変形例〕
図17は第1変形例に係る報知の説明図である。図17に示した第1報知画像144は、第2報知画像146に対して濃度が変更される。例えば、第1報知画像144は、第2報知画像146に対して濃い濃度が適用される。
第1報知画像144と第2報知画像146との色を変更してもよい。例えば、第1報知画像144は黒が用いられ、第2報知画像146はイエローが用いられる。すなわち、第1報知画像144は、第2報知画像146と比較して、内視鏡画像37における視認性が高い色が適用される。
第1変形例に係る報知によれば、第1報知画像144と第2報知画像146との濃度、及び色の少なくともいずれか一方を変更する。これにより第2報知画像146に対して第1報知画像144の視認性を高くし得る。
〔第2変形例〕
図18は第2変形例に係る報知の説明図である。図18に示した第1報知画像147は、点滅表示される。一方、第2報知画像148は、点灯表示される。点灯表示は通常表示として把握し得る。
第2変形例に係る報知によれば、第1報知画像147を点滅表示させ、且つ第2報知画像148を点灯表示させる。これにより第2報知画像148に対して第1報知画像147の視認性を高くし得る。
〔第3変形例〕
図19は第3変形例に係る報知の説明図である。図19に示した第1報知画像147Aは、点滅表示される。第2報知画像147Bもまた点滅表示される。第1報知画像147Aは、第2報知画像147Bに対して点滅周期が短くされる。
第3変形例に係る報知によれば、第1報知画像147Aを点滅表示させ、且つ第2報知画像147Bを点滅表示させる。第1報知画像147Aは第2報知画像147Bに対して点滅周期が短くされる。これにより第2報知画像147Bに対して第1報知画像147Aの視認性を高くし得る。
上述した第1変形例は、第2変形例、又は第3変形例と、適宜組み合わせることが可能である。
〔第4変形例〕
第1報知画像140は、内視鏡画像37の非抽出領域76が内視鏡10の観察領域に近づくに従い、連続的に、又は段階的にサイズを大きくする等の強調を実行してもよい。第2報知画像142も同様である。また、後述する報知音を用いた場合も同様である。
〔第5変形例〕
第1報知画像140、及び第2報知画像142をCTC画像19に表示してもよい。CTC画像19に表示する第1報知画像140、及び第2報知画像142は、内視鏡画像37に表示する第1報知画像140、及び第2報知画像142と同様の表示態様の変更が可能である。
[第1特徴領域の他の表示例]
図20は第1特徴領域の他の表示例の説明図である。図20は、CTC画像19に第1特徴領域80を表示する例を示す。図20に示したCTC画像19は、図5に示した全体画像19aに相当する。
細線を用いて図示されたパス19cは、内視鏡10が既に観察を終えた領域のパス19cを表す。また、太線を用いて図示されたパス19cは、内視鏡10がこれから観察を行う領域のパス19cを表す。
第1特徴領域80aは、内視鏡10が既に観察を終えた第1特徴領域80を表す。第1特徴領域80bは、内視鏡10が次に観察する第1特徴領域80を表す。内視鏡10が次に観察する第1特徴領域80bは強調表示がされる。強調表示は第1報知画像140の例と同様に、拡大、色の変更、及び点滅等を適用可能である。
第1特徴領域80cは、内視鏡10が第1特徴領域80bの次に観察する第1特徴領域80を表す。内視鏡10が第1特徴領域80bを観察した後に、第1特徴領域80cは強調表示がされる。
モニタ装置16は、図14等に示したCTC画像19に代わり、図20に示したCTC画像19を表示してもよい。これにより、内視鏡10の位置の近傍に存在する第1特徴領域80の位置を把握することができる。図14に示した第1報知画像140等との併用により、内視鏡画像37から第2特徴領域70として検出されないポリープ等の病変の検出に寄与する。
本実施形態では、CTC画像19、及び内視鏡画像37をモニタ装置16に2画面表示させる態様を例示したが、内視鏡画像37をモニタ装置16に全画面表示させてもよい。
[報知の他の実施形態]
〔機能の説明〕
図21は他の実施形態に係る報知を実現する医療画像処理装置の機能を示す機能ブロック図である。他の実施形態に係る報知では、報知音を用いた報知を実行する。図21に示した医療画像処理装置14Aは、図2に示した医療画像処理装置14に対して、報知音制御部200、及び音源202が追加されている。また、図21に示した内視鏡システム9Aは、図2に示した内視鏡システム9に対して、スピーカ204が追加されている。
報知音制御部200は、スピーカ204を介して音源202を用いて生成された報知音を出力する。報知音は音声を適用してもよい。報知音は警告音を適用してもよい。報知音制御部200は、CTC画像19の第1特徴領域80が、例えば、内視鏡10の観察範囲に位置する領域等の、内視鏡画像37の第2特徴領域70に対応付けされた場合に対して、CTC画像19の第1特徴領域80が、例えば、内視鏡10の観察範囲の死角に位置する領域等の、内視鏡画像37の非抽出領域76に対応付けされ場合に報知音を強調してもよい。報知音の強調の例として、音量を上げる等が挙げられる。
CTC画像19の第1特徴領域80が、例えば、内視鏡10の観察範囲の死角に位置する領域等の、内視鏡画像37の非抽出領域76に対応付けされた場合の報知は第1報知音の一例である。また、CTC画像19の第1特徴領域80が、例えば、内視鏡10の観察範囲に位置する領域等の、内視鏡画像37の第2特徴領域70に対応付けされた場合の報知音は第2報知音の一例である。
報知音制御部200、音源202、及びスピーカ204は、それぞれ、報知音出力部の構成要素の一例である。
〔報知の他の実施形態の作用効果〕
他の実施形態に係る報知によれば、CTC画像19の第1特徴領域80が内視鏡画像37の非抽出領域76に対応付けされ場合に音を用いた報知を実行する。これにより、内視鏡画像37自体に処理を施すことなく、報知が可能となる。
[他の構成要件の変形例]
〔CTC画像の変形例〕
《第1例》
図2に示した医療画像処理装置14は、CT画像等の3次元検査画像からCTC画像19を生成するCTC画像生成部を備えてもよい。医療画像処理装置14は、CTC画像取得部41aを介して3次元検査画像を取得し、CTC画像生成部を用いてCTC画像19を生成してもよい。
《第2例》
図5に示した視点Pは、パス19cの上に限定されない。視点Pは任意の位置に設定可能である。視点画像19bの視野方向は、内視鏡10の撮像方向に対応して任意に設定し得る。
《第3例》
視点画像19bは、全体画像19aの任意の断面における3次元検査画像を2次元画像に変換した2次元検査画像としてもよい。
〔第1特徴領域抽出の変形例〕
《第1例》
第1特徴領域80の抽出は、CTC画像19の生成に用いられる3次元検査画像を用いてもよい。
《第2例》
第1特徴領域80は、予め抽出し、記憶してもよい。予め抽出された第1特徴領域80は、第1特徴領域80の位置の情報をインデックスとして検索可能に記憶されてもよい。
〔第2特徴領域抽出の変形例〕
第2特徴領域の抽出は、動画像38を再生して実行してもよい。
〔照明光の変形例〕
特定の波長領域は、以下の変形例の適用が可能である。
《第1例》
特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、且つ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
《第2例》
特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、且つ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
《第3例》
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、且つ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
《第4例》
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ且つこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
《第5例》
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、且つ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
〔特殊光画像の生成例〕
プロセッサ12は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ12は、特殊光画像取得部として機能する。そして、プロセッサ12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青、或いはシアン、マゼンタ、及びイエローの色情報に基づく演算を行うことで得る。
なお、赤、緑、及び青は、RGB(Red,Green,Blue)と表されることがある。また、シアン、マゼンタ、及びイエローは、CMY(Cyan,Magenta,Yellow)と表されることがある。
〔特徴量画像の生成例〕
プロセッサ12は、通常光画像、及び特殊光画像の少なくともいずれか一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。
[機械学習を用いた抽出規則の更新]
図3に示した第2特徴領域抽出部54は、CTC画像19の第1特徴領域80と内視鏡画像37の非抽出領域76との対応関係を学習データとして機械学習を実行して、第2特徴領域の抽出規則を更新することが可能である。機械学習は、図2に示した深層学習アルゴリズム65が適用される。
[コンピュータを画像処理装置として機能させるプログラムへの適用例]
上述した画像処理方法は、コンピュータを用いて、画像処理方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータに、CTC画像入力機能、第1特徴領域抽出機能、内視鏡画像入力機能、第2特徴領域抽出機能、対応付け機能、及び保存機能を実現させるプログラムを構成し得る。
CTC画像入力機能は第1画像入力機能に相当する。内視鏡画像入力機能は第2画像入力機能に相当する。
上述した画像処理機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。
また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。
[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
9、9A 内視鏡システム
10、10A、10B 内視鏡
11 光源装置
12 プロセッサ
13 表示装置
14、14A 医療画像処理装置
15 操作装置
16 モニタ装置
17 ネットワーク
18 画像記憶装置
19 CTC画像
19a 全体画像
19b、19b、19b、19b、19b11、19b12、19b13、19b21、19b22、19b23、19b31、19b32、19b33 視点画像
19c パス
19d ポインタ
20 挿入部
21 操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
27a 先端面
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37 内視鏡画像
37a、37b コネクタ
38 動画像
38a、38a、38a11、38a21、38a31、38a32、38a33 フレーム画像
39 静止画像
41 画像取得部
41a CTC画像取得部
41b 内視鏡画像取得部
42 情報取得部
43 医療画像解析処理部
44 表示制御部
44a 再生制御部
44b 情報表示制御部
47 記憶部
48 画像記憶部
49 プログラム記憶部
50 第1特徴領域抽出部
52 第1条件設定部
54 第2特徴領域抽出部
56 第2条件設定部
58 対応付け部
59 報知部
60 報知画像生成部
64 第1特徴領域記憶部
65 深層学習アルゴリズム
66 第2特徴領域記憶部
68 対応付け結果記憶部
70、72、74 第2特徴領域
76 非抽出領域
80、80a、80b、80c、80d、80e、82、84 第1特徴領域
100、120 断面
102、122、150、160 ひだ
104、106、124、126 ポリープ
140、144、147、147A 第1報知画像
142、146、147B、148 第2報知画像
200 報知音制御部
202 音源
204 スピーカ
P 視点
スタート位置
ゴール位置
、n、n ひだの番号
S10からS26 報知方法の各工程

Claims (25)

  1. 被検体の3次元画像から生成される仮想内視鏡画像を入力する第1画像入力部と、
    内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力部と、
    前記仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け部と、
    前記仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出部と、
    前記実内視鏡画像から前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出部と、
    前記第1特徴領域が前記第2特徴領域と対応付けされていない場合に報知を行う報知部と、
    を備えた内視鏡システム。
  2. 前記報知部は、前記第1特徴領域が前記第2特徴領域と対応付けされた場合に、前記第1特徴領域が前記内視鏡の観察範囲に位置する前記第2特徴領域に対応付けされたことを報知し、
    前記第1特徴領域が前記第2特徴領域と対応付けされていない場合は、前記第1特徴領域が前記第2特徴領域と対応付けされた場合における報知方法、及び報知レベルと比較して、前記報知方法、及び前記報知レベルの少なくともいずれかを変更する請求項1に記載の内視鏡システム。
  3. 前記実内視鏡画像を表示する表示部を備え、
    前記報知部は、前記第1特徴領域が前記第2特徴領域と対応付けされていないことを報知する第1報知画像、及び前記第1特徴領域が前記第2特徴領域に対応付けされたことを報知する第2報知画像を前記表示部に表示し、且つ前記第2報知画像より前記第1報知画像を拡大して表示する請求項2に記載の内視鏡システム。
  4. 前記実内視鏡画像を表示する表示部を備え、
    前記報知部は、前記第1特徴領域が前記第2特徴領域と対応付けされていないことを報知する第1報知画像、及び前記第1特徴領域が前記第2特徴領域と対応付けされたことを報知する第2報知画像を前記表示部に表示し、且つ前記第1報知画像は前記第2報知画像と色を変更する請求項2に記載の内視鏡システム。
  5. 前記実内視鏡画像を表示する表示部を備え、
    前記報知部は、前記第1特徴領域が前記第2特徴領域と対応付けされていないことを報知する第1報知画像、及び前記第1特徴領域が前記第2特徴領域に対応付けされたことを報知する第2報知画像を前記表示部に表示し、且つ前記第1報知画像を点滅表示する一方、前記第2報知画像を点灯表示する請求項2に記載の内視鏡システム。
  6. 前記実内視鏡画像を表示する表示部を備え、
    前記報知部は、前記第1特徴領域が前記第2特徴領域と対応付けされていないことを報知する第1報知画像、及び前記第1特徴領域が前記第2特徴領域に対応付けされたことを報知する第2報知画像を前記表示部に点滅表示し、且つ前記第2報知画像に対して前記第1報知画像の点滅周期を短くする請求項2に記載の内視鏡システム。
  7. 前記表示部は、前記実内視鏡画像と別に生成された前記第1報知画像、及び前記第2報知画像を前記実内視鏡画像に重畳表示させる請求項3から6のいずれか一項に記載の内視鏡システム。
  8. 前記表示部は、前記仮想内視鏡画像を表示し、且つ前記仮想内視鏡画像における前記内視鏡の位置を表示する請求項3から7のいずれか一項に記載の内視鏡システム。
  9. 前記表示部は、前記仮想内視鏡画像を表示し、且つ前記第1特徴領域の情報を表示する請求項3から7のいずれか一項に記載の内視鏡システム。
  10. 前記表示部は、前記第1特徴領域を拡大して表示する請求項9に記載の内視鏡システム。
  11. 前記表示部は、前記第1特徴領域を点滅表示する請求項9に記載の内視鏡システム。
  12. 報知音を出力する報知音出力部を備え、
    前記報知部は、前記報知音出力部を用いて、前記第1特徴領域が前記第2特徴領域と対応付けされていないことを表す第1報知音を出力する請求項1から11のいずれか一項に記載の内視鏡システム。
  13. 前記報知部は、前記報知音出力部を用いて、前記第1特徴領域が前記第2特徴領域に対応付けされたことを表し、且つ前記第1報知音と異なる第2報知音を出力する請求項12に記載の内視鏡システム。
  14. 前記報知部は、前記第2報知音に対して前記第1報知音の音量を大きくする請求項13に記載の内視鏡システム。
  15. 前記報知部は、前記第1特徴領域と対応付けがされた前記実内視鏡画像の領域から前記実内視鏡画像の観察位置までの間の距離が短くなるに従い報知レベルを変更する請求項2から14のいずれか一項に記載の内視鏡システム。
  16. 前記第1特徴領域抽出部は、前記実内視鏡画像の観察の際に、予め前記仮想内視鏡画像から前記第1特徴領域を抽出する請求項1から15のいずれか一項に記載の内視鏡システム。
  17. 前記第1特徴領域抽出部は、前記実内視鏡画像の観察の際に、前記実内視鏡画像の観察に対応して、逐次、前記仮想内視鏡画像から前記第1特徴領域を抽出する請求項1から15のいずれか一項に記載の内視鏡システム。
  18. 前記第1特徴領域抽出部は、同一の前記第1条件を用いて複数の第1特徴領域を抽出した場合、前記複数の第1特徴領域を一括して管理する請求項1から17のいずれか一項に記載の内視鏡システム。
  19. 前記第1特徴領域抽出部は、前記第1条件として前記仮想内視鏡画像における位置の情報を適用する請求項1から18のいずれか一項に記載の内視鏡システム。
  20. 前記第1特徴領域抽出部は、前記位置の情報として前記内視鏡の観察範囲の死角の位置を適用する請求項19に記載の内視鏡システム。
  21. 前記第1特徴領域抽出部は、前記位置の情報としてひだの裏側を適用する請求項19又は20に記載の内視鏡システム。
  22. 前記第2特徴領域抽出部は、前記第2特徴領域として病変を抽出する請求項1から21のいずれか一項に記載の内視鏡システム。
  23. 前記第2特徴領域抽出部は、機械学習を用いて生成された抽出規則を適用して、前記実内視鏡画像から前記第2特徴領域を抽出する請求項1から22のいずれか一項に記載の内視鏡システム。
  24. 被検体の3次元画像から生成される仮想内視鏡画像を入力する第1画像入力工程と、
    内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力工程と、
    前記仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け工程と、
    前記仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出工程と、
    前記実内視鏡画像から前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出工程と、
    前記第1特徴領域が前記第2特徴領域と対応付けされていない場合に報知を行う報知工程と、
    を含む報知方法。
  25. コンピュータに、
    被検体の3次元画像から生成される仮想内視鏡画像を入力する第1画像入力機能、
    内視鏡を用いて前記被検体の観察対象を撮像して得られた実内視鏡画像を入力する第2画像入力機能、
    前記仮想内視鏡画像と前記実内視鏡画像とを対応付けする対応付け機能、
    前記仮想内視鏡画像から規定の第1条件に合致する第1特徴領域を抽出する第1特徴領域抽出機能、
    前記実内視鏡画像から前記第1条件に対応する第2条件に合致する第2特徴領域を抽出する第2特徴領域抽出機能、及び
    前記第1特徴領域が前記第2特徴領域と対応付けされていない場合に報知を行う報知機能、を実現させるプログラム。
JP2019550323A 2017-10-31 2018-10-26 内視鏡システム及びプログラム Active JP6840263B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017210248 2017-10-31
JP2017210248 2017-10-31
PCT/JP2018/039901 WO2019087969A1 (ja) 2017-10-31 2018-10-26 内視鏡システム、報知方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019087969A1 true JPWO2019087969A1 (ja) 2020-11-12
JP6840263B2 JP6840263B2 (ja) 2021-03-10

Family

ID=66331877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019550323A Active JP6840263B2 (ja) 2017-10-31 2018-10-26 内視鏡システム及びプログラム

Country Status (2)

Country Link
JP (1) JP6840263B2 (ja)
WO (1) WO2019087969A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441934B2 (ja) * 2020-02-27 2024-03-01 オリンパス株式会社 処理装置、内視鏡システム及び処理装置の作動方法
JP7374224B2 (ja) * 2021-01-14 2023-11-06 コ,ジファン 内視鏡を用いた大腸検査ガイド装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013009956A (ja) * 2011-06-01 2013-01-17 Toshiba Corp 医用画像表示装置及び医用画像診断装置
JP2013150650A (ja) * 2012-01-24 2013-08-08 Fujifilm Corp 内視鏡画像診断支援装置および方法並びにプログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置
JP2016143194A (ja) * 2015-01-30 2016-08-08 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013009956A (ja) * 2011-06-01 2013-01-17 Toshiba Corp 医用画像表示装置及び医用画像診断装置
US20140081079A1 (en) * 2011-06-01 2014-03-20 Toshiba Medical Systems Corporation Medical image displaying apparatus and a medical image diagnostic apparatus
JP2013150650A (ja) * 2012-01-24 2013-08-08 Fujifilm Corp 内視鏡画像診断支援装置および方法並びにプログラム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置
JP2016143194A (ja) * 2015-01-30 2016-08-08 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Also Published As

Publication number Publication date
WO2019087969A1 (ja) 2019-05-09
JP6840263B2 (ja) 2021-03-10

Similar Documents

Publication Publication Date Title
US11734820B2 (en) Medical image processing device, medical image processing method, and medical image processing program
JP5675227B2 (ja) 内視鏡画像処理装置および作動方法、並びに、プログラム
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
JP7346693B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法、及びプログラム
JP7413585B2 (ja) 医用画像処理装置、作動方法、プログラム、及び記録媒体、診断支援装置並びに内視鏡システム
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
US11607109B2 (en) Endoscopic image processing device, endoscopic image processing method, endoscopic image processing program, and endoscope system
WO2023103467A1 (zh) 图像处理方法、装置及设备
CN110913746B (zh) 诊断辅助装置、诊断辅助方法及存储介质
JP6405138B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7050817B2 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム
JP7143504B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP7125479B2 (ja) 医療画像処理装置、医療画像処理装置の作動方法及び内視鏡システム
JP7308258B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法
JPWO2012153568A1 (ja) 医用画像処理装置
EP3936027A1 (en) Apparatus and method for processing medical image
JP6840263B2 (ja) 内視鏡システム及びプログラム
JPWO2020054542A1 (ja) 医療画像処理装置、医療画像処理方法及びプログラム、内視鏡システム
JP7148534B2 (ja) 画像処理装置、プログラム、及び内視鏡システム
JP7335157B2 (ja) 学習データ作成装置、学習データ作成装置の作動方法及び学習データ作成プログラム並びに医療画像認識装置
CN116724334A (zh) 计算机程序、学习模型的生成方法、以及手术辅助装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210216

R150 Certificate of patent or registration of utility model

Ref document number: 6840263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250