JP7023195B2 - 検査支援装置、方法およびプログラム - Google Patents

検査支援装置、方法およびプログラム Download PDF

Info

Publication number
JP7023195B2
JP7023195B2 JP2018132895A JP2018132895A JP7023195B2 JP 7023195 B2 JP7023195 B2 JP 7023195B2 JP 2018132895 A JP2018132895 A JP 2018132895A JP 2018132895 A JP2018132895 A JP 2018132895A JP 7023195 B2 JP7023195 B2 JP 7023195B2
Authority
JP
Japan
Prior art keywords
image
endoscope
virtual
endoscope image
tubular structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018132895A
Other languages
English (en)
Other versions
JP2020010734A5 (ja
JP2020010734A (ja
Inventor
真之介 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018132895A priority Critical patent/JP7023195B2/ja
Priority to US16/453,668 priority patent/US11003946B2/en
Publication of JP2020010734A publication Critical patent/JP2020010734A/ja
Publication of JP2020010734A5 publication Critical patent/JP2020010734A5/ja
Application granted granted Critical
Publication of JP7023195B2 publication Critical patent/JP7023195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本開示は、気管支等の管状構造物に対する内視鏡等を用いた検査を支援する検査支援装置、方法およびプログラムに関するものである。
近年、患者の大腸および気管支等の管状構造物を内視鏡を用いて観察したり、処置したりする技術が注目されている。しかしながら、内視鏡画像は、CCD(Charge Coupled Device)等の撮像素子により管状構造物内部の色および質感が鮮明に表現された画像が得られる一方で、管状構造物の内部を2次元の画像に表すものである。このため、内視鏡画像が管状構造物内のどの位置を表しているものかを把握することが困難である。とくに、気管支の内視鏡は、径が細く視野が狭いため、内視鏡の先端を目的とする位置まで到達させることは困難である。
そこで、CT(Computed Tomography)装置またはMRI(Magnetic Resonance Imaging)装置等のモダリティによる断層撮影により取得された3次元画像を用いて、管状構造物内の目標とする地点までの経路を予め取得し、3次元画像から実際に内視鏡によって撮影した画像と類似した仮想内視鏡画像を生成し、仮想内視鏡画像を用いて目標とする地点までの内視鏡の経路をナビゲーションする手法が提案されている。例えば、特許文献1には、3次元画像から管状構造物の経路を表す経路情報を取得し、経路に沿って仮想内視鏡画像を多数生成し、仮想内視鏡画像と内視鏡により撮影を行うことにより取得した実際の内視鏡画像である実内視鏡画像とのマッチングを行い、内視鏡の現在位置における仮想内視鏡画像を特定することにより、内視鏡の先端位置を特定する手法が提案されている。
しかしながら、ナビゲーション画像を用いても、気管支のような多段階に分岐する経路を有する構造物の場合、内視鏡の先端を目標とする位置まで短時間で到達させるのは熟練した技術を要する。
このため、仮想内視鏡画像の画像強度をグレースケールに変換し、実内視鏡画像とグレースケールに変換した仮想内視鏡画像とのマッチングを行うことにより、内視鏡の先端位置を特定する手法が提案されている(特許文献2参照)。
特許第5718537号公報 特開2003-265408号公報
しかしながら、特許文献2に記載された手法は、仮想内視鏡画像をグレースケールに変換するものである。一方、実内視鏡画像はカラーである場合が多い。このため、特許文献2に記載された手法においては、実内視鏡画像と仮想内視鏡画像とのマッチングを精度よく行うことができない。
本開示は上記事情に鑑みなされたものであり、実内視鏡画像等の第1の医用画像と仮想内視鏡画像等の第2の医用画像とのマッチングを精度よく行うことができるようにすることを目的とする。
本開示による検査支援装置は、第1のカラー表現形式の第1の医用画像、および第1のカラー表現形式とは異なる第2の表現形式の第2の医用画像を取得する画像取得部と、
第2の医用画像の第2の表現形式を、第1のカラー表現形式に変換することにより、変換済み第2の医用画像を取得する変換部と、
第1の医用画像と変換済み第2の医用画像との類似度を算出する類似度算出部とを備える。
「表現形式」とは、画像を表示した際に、見た者に対する画像の印象に影響を与える、いわば画像の画風を意味する。例えば、医用画像が実際に撮影をすることにより取得されたものであれば、その医用画像の表現形式は実写風となる。また、医用画像がCG(computer graphics)により生成されたものであれば、その医用画像の表現形式はCG風となる。また、医用画像が、ボリュームレンダリング等の投影法を用いて3次元画像を投影することにより生成されたものであれば、その医用画像の表現形式はCG風であってボリュームレンダリング画像風となる。さらに、医用画像が実内視鏡画像であれば、その医用画像は実写風であって実内視鏡画像風となり、医用画像が仮想内視鏡画像であれば、その医用画像はCG風であって仮想内視鏡画像風となる。なお、各表現形式は、画像の階調および色彩表現に関するパラメータの範囲、テクスチャ表現(画像の粗さ、細かさ、ノイズ量およびノイズ特徴)、表面反射率、並びに透明度等の特徴によって決定されるものであるが、これらに限定されない。
なお、本開示による検査支援装置においては、第1の医用画像は被検体を撮影することにより取得された実画像であり、第2の医用画像は実画像とは異なる方式により被検体を撮影することにより取得された画像から生成された画像であってもよい。
また、本開示による検査支援装置においては、第1の医用画像は、被検体における管状構造物内に挿入された内視鏡により生成された、管状構造物の内壁を表す実内視鏡画像であり、
第2の医用画像は、被検体の管状構造物を含む3次元画像から生成された、管状構造物の内壁を擬似的に表す仮想内視鏡画像であってもよい。
また、本開示による検査支援装置においては、算出された類似度が予め定められたしきい値以上となる仮想内視鏡画像を用いて、管状構造物内における内視鏡の位置を推定する位置推定部をさらに備えるものであってもよい。
また、本開示による検査支援装置においては、推定された内視鏡の位置に対応する変換済み仮想内視鏡画像と、実内視鏡画像とを表示部に表示する表示制御部をさらに備えるものであってもよい。
また、本開示による検査支援装置においては、3次元画像から仮想内視鏡画像を生成する仮想内視鏡画像生成部をさらに備えるものであってもよい。
本開示による検査支援方法は、第1のカラー表現形式の第1の医用画像、および第1のカラー表現形式とは異なる第2の表現形式の第2の医用画像を取得し、
第2の医用画像の第2の表現形式を、第1のカラー表現形式に変換することにより、変換済み第2の医用画像を取得し、
第1の医用画像と変換済み第2の医用画像との類似度を算出する。
なお、本開示による検査支援方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示による他の検査支援装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
第1のカラー表現形式の第1の医用画像、および第1のカラー表現形式とは異なる第2の表現形式の第2の医用画像を取得し、
第2の医用画像の第2の表現形式を、第1のカラー表現形式に変換することにより、変換済み第2の医用画像を取得し、
第1の医用画像と変換済み第2の医用画像との類似度を算出する処理を実行する。
本開示によれば、第1のカラー表現形式の第1の医用画像、および第1のカラー表現形式とは異なる第2の表現形式の第2の医用画像が取得される。そして、第2の医用画像の第2の表現形式が、第1のカラー表現形式に変換されることにより、変換済み第2の医用画像が取得され、第1の医用画像と変換済み第2の医用画像との類似度が算出される。これにより、第1の医用画像と変換済み第2の医用画像との表現形式が第1のカラー表現形式に一致するため、類似度を精度よく算出することができる。
本開示の実施形態による検査支援装置を適用した、診断支援システムの概要を示すハードウェア構成図 コンピュータに検査支援プログラムをインストールすることにより実現される検査支援装置の概略構成を示す図 気管支画像を示す図 内視鏡の経路が設定された気管支画像を示す図 仮想内視鏡画像の変換を説明するための図 類似度を算出する仮想内視鏡画像の範囲を説明するための図 表示画像を示す図 本実施形態において行われる処理を示すフローチャート 本開示の他の実施形態による検査支援装置を適用した、診断支援システムの概要を示すハードウェア構成図
以下、図面を参照して本開示の実施形態について説明する。図1は、本実施形態による検査支援装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、本実施形態のシステムでは、内視鏡装置3、3次元画像撮影装置4、画像保管サーバ5および検査支援装置6が、ネットワーク8を経由して通信可能な状態で接続されている。
内視鏡装置3は、被検体の管状構造物の内部を撮影する内視鏡スコープ31、並びに撮影により得られた信号に基づいて管状構造物の内部の画像を生成するプロセッサ装置32等を備える。
内視鏡スコープ31は、被検体の管状構造物内に挿入される挿入部が操作部3Aに連続して取り付けられたものである。内視鏡スコープ31は、プロセッサ装置32に着脱可能に接続されたユニバーサルコードを介してプロセッサ装置32に接続されている。操作部3Aは、挿入部の先端3Bが予め定められた角度範囲内で上下方向および左右方向に湾曲するように動作を指令したり、内視鏡スコープ31の先端に取り付けられた穿刺針を操作して組織のサンプルの採取を行ったりするための各種ボタンを含む。本実施形態では、内視鏡スコープ31は気管支用の軟性鏡であり、被検体の気管支内に挿入される。そして、プロセッサ装置32に設けられた不図示の光源装置から光ファイバーで導かれた光が内視鏡スコープ31の挿入部の先端3Bから照射され、内視鏡スコープ31の撮像光学系により被検体の気管支内の画像が取得される。なお、内視鏡スコープ31の挿入部の先端3Bについて、説明を容易なものとするために、以降の説明においては内視鏡先端3Bと称するものとする。
プロセッサ装置32は、内視鏡スコープ31で撮影された撮影信号をデジタル画像信号に変換し、ホワイトバランス調整およびシェーディング補正等のデジタル信号処理によって画質の補正を行い、内視鏡画像T0を生成する。生成される画像は、例えば30fps等の所定のサンプリングレートにより表されるカラーの動画像であり、動画像の1フレームが内視鏡画像T0となる。内視鏡画像T0は、画像保管サーバ5または検査支援装置6に順次送信される。ここで、以降の説明において、内視鏡装置3により撮影した内視鏡画像T0を、後述する仮想内視鏡画像と区別するために実内視鏡画像T0と称するものとする。
3次元画像撮影装置4は、被検体の検査対象部位を撮影することにより、その部位を表す3次元画像V0を生成する装置であり、具体的には、CT装置、MRI装置、PET(Positron Emission Tomography)、および超音波診断装置等である。この3次元画像撮影装置4により生成された3次元画像V0は画像保管サーバ5に送信され、保存される。本実施形態では、3次元画像撮影装置4は、気管支を含む胸部を撮影した3次元画像V0を生成する。なお、本実施形態においては、3次元画像撮影装置4はCT装置であるものとするが、これに限定されるものではない。
画像保管サーバ5は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ5は、ネットワーク8を介して他の装置と通信を行い、画像データ等を送受信する。具体的には内視鏡装置3で取得された実内視鏡画像T0および3次元画像撮影装置4で生成された3次元画像V0等の画像データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、実内視鏡画像T0は動画像である。このため、実内視鏡画像T0は、画像保管サーバ5を経由することなく、検査支援装置6に送信されることが好ましい。なお、画像データの格納形式やネットワーク8経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
検査支援装置6は、1台のコンピュータに、本開示の検査支援プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよく、それらとネットワークを介して接続されたサーバコンピュータでもよい。検査支援プログラムは、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disk Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて検査支援装置6の操作者である医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに検査支援プログラムをインストールすることにより実現される検査支援装置の概略構成を示す図である。図2に示すように、検査支援装置6は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、検査支援装置6には、表示部14と、マウス等の入力部15とが接続されている。表示部14は、液晶ディスプレイ等からなる。
ストレージ13は、ハードディスクドライブ等からなり、ネットワーク8を経由して内視鏡装置3、3次元画像撮影装置4および画像保管サーバ5等から取得した実内視鏡画像T0、3次元画像V0および検査支援装置6での処理によって生成された画像(例えば後述する仮想内視鏡画像)および処理に必要な各種情報等が記憶されている。
また、メモリ12には、検査支援プログラムが記憶されている。検査支援プログラムは、CPU11に実行させる処理として、プロセッサ装置32が生成した実内視鏡画像T0、3次元画像撮影装置4で生成された3次元画像V0、および後述するように生成された仮想内視鏡画像等の画像データを取得する画像取得処理、3次元画像V0から気管支のグラフ構造を表す3次元の気管支画像B0を生成する気管支画像生成処理、3次元画像V0から仮想内視鏡画像を生成する仮想内視鏡画像生成処理、仮想内視鏡画像の表現形式を実内視鏡画像のカラーの表現形式に変換することにより変換済み仮想内視鏡画像を取得する変換処理、実内視鏡画像T0と変換済み仮想内視鏡画像との類似度を算出する類似度算出処理、算出された類似度が予め定められたしきい値以上となる仮想内視鏡画像を用いて、気管支内における内視鏡先端3Bの位置を推定する位置推定処理、並びに実内視鏡画像T0、仮想内視鏡画像、気管支画像B0および特定された内視鏡先端3Bの位置等を表示部14に表示する表示制御処理を規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、検査支援装置6であるコンピュータは、画像取得部21、気管支画像生成部22、仮想内視鏡画像生成部23、変換部24、類似度算出部25、位置推定部26、および表示制御部27として機能する。
画像取得部21は、3次元画像V0および内視鏡装置3により気管支内を所定の視点位置において撮影した実内視鏡画像T0を取得する。画像取得部21は、3次元画像V0および実内視鏡画像T0が既にストレージ13に記憶されている場合には、3次元画像V0および実内視鏡画像T0をストレージ13から取得するようにしてもよい。実内視鏡画像T0は、気管支の内側の表面、すなわち気管支内壁を表す画像である。実内視鏡画像T0は表示制御部27に出力されて表示部14に表示される。また、画像取得部21は、後述するように仮想内視鏡画像生成部23が生成し、ストレージ13に保存された仮想内視鏡画像K0をストレージ13から取得する。
気管支画像生成部22は、3次元画像V0から気管支の構造を抽出することにより、3次元の気管支画像B0を生成する。具体的には、気管支画像生成部22は、例えば特開2010-220742号公報等に記載された手法を用いて、入力された3次元画像V0に含まれる気管支領域のグラフ構造を、3次元の気管支画像B0として抽出する。以下、このグラフ構造の抽出方法の一例を説明する。
3次元画像V0においては、気管支の内部の画素は空気領域に相当するため低い画素値を示す領域として表されるが、気管支壁は比較的高い画素値を示す円柱または線状の構造物として表される。そこで、画素毎に画素値の分布に基づく形状の構造解析を行って気管支を抽出する。
気管支は多段階に分岐し、末端に近づくほど気管支の径は小さくなっていく。気管支画像生成部22は、異なるサイズの気管支を検出することができるように、3次元画像V0を多重解像度変換して解像度が異なる複数の3次元画像を生成し、各解像度の3次元画像毎に検出アルゴリズムを適用する。
まず、各解像度において、3次元画像の各画素のヘッセ行列を算出し、ヘッセ行列の固有値の大小関係から管状構造物内の画素であるか否かを判定する。ヘッセ行列は、各軸(3次元画像のx軸、y軸、z軸)方向における濃度値の2階の偏微分係数を要素とする行列であり、下式のように3×3行列となる。
Figure 0007023195000001
任意の画素におけるヘッセ行列の固有値をλ1、λ2、λ3としたとき、固有値のうち2つの固有値が大きく、1つの固有値が0に近い場合、例えば、λ3,λ2≫λ1、λ1≒0を満たすとき、その画素は管状構造物であることが知られている。また、ヘッセ行列の最小の固有値(λ1≒0)に対応する固有ベクトルが管状構造物の主軸方向に一致する。
気管支はグラフ構造で表すことができるが、このようにして抽出された管状構造物は、腫瘍等の影響により、全ての管状構造物が繋がった1つのグラフ構造として検出されるとは限らない。そこで、3次元画像V0全体からの管状構造物の検出が終了した後、抽出された各管状構造物が一定の距離内にあり、かつ抽出された2つの管状構造物上の任意の点を結ぶ基本線の向きと各管状構造物の主軸方向とがなす角が一定角度以内であるかについて評価することにより、複数の管状構造物が接続されるものであるか否かを判定して、抽出された管状構造物の接続関係を再構築する。この再構築により、気管支のグラフ構造の抽出が完了する。
そして、気管支画像生成部22は、抽出したグラフ構造を、開始点、端点、分岐点および辺に分類し、開始点、端点および分岐点を辺で連結することによって、気管支を表す3次元のグラフ構造を気管支画像B0として得ることができる。図3は気管支画像B0を示す図である。なお、グラフ構造の生成方法としては、上述した方法に限定されるものではなく、他の方法を採用するようにしてもよい。
仮想内視鏡画像生成部23は、気管支内の目標とする経路において、実内視鏡画像T0の視点に対応する3次元画像V0中の視点から見た、気管支内壁を描写した仮想内視鏡画像K0を生成する。以下、仮想内視鏡画像K0の生成について説明する。
まず、仮想内視鏡画像生成部23は、気管支において予め設定された、内視鏡先端3Bを挿入する経路の情報を取得する。経路の情報は、例えば気管支画像B0を表示部14に表示し、表示された気管支画像B0において、操作者が入力部15を用いて指定されたものを用いるが、これに限定されるものではない。図4に気管支画像B0に設定された内視鏡の経路40を示す。
仮想内視鏡画像生成部23は、取得した経路の情報により表される気管支内の経路40に沿った予め定められた間隔により、気管支の内壁を表す仮想内視鏡画像K0を生成する。なお、予め定められた間隔は、経路40上の例えば10画素間隔とすればよいが、これに限定されるものではない。
仮想内視鏡画像生成部23は、経路40上の各位置を視点に設定する。そして、設定した各視点から内視鏡先端3Bの挿入方向(すなわち気管支の末端に向かう方向)に放射線状に伸ばした複数の視線上の3次元画像V0を、予め定められた投影面に投影する中心投影を行うことにより、投影画像を生成する。この投影画像が、内視鏡の先端位置において撮影を行ったものとして仮想的に生成された仮想内視鏡画像K0となる。なお、中心投影の具体的な方法としては、例えば公知のボリュームレンダリング手法等を用いることができる。また、仮想内視鏡画像K0の画角(視線の範囲)および視野の中心(投影方向の中心)は、操作者による入力等によってあらかじめ設定されているものとする。生成された複数の仮想内視鏡画像K0はストレージ13に保存される。なお、本実施形態においては3次元画像V0はCT画像であるため、仮想内視鏡画像K0はCT値により表されるモノクロの画像である。
変換部24は、仮想内視鏡画像生成部23が生成した仮想内視鏡画像K0の表現形式を実内視鏡画像T0のカラーの表現形式に変換する。このために、変換部24は、例えば「Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks、Jun-Yan Zhuら、Berkeley AI Research (BAIR) laboratory, UC Berkeley、30 Mar 2017、last revised 19 Feb 2018)(以下、非特許文献1とする)に記載されている手法を用いる。非特許文献1に記載された手法は、入力された画像をその表現形式とは異なる表現形式の画像に変換するように学習がなされた変換器により、画像の表現形式を変換する手法である。例えば、非特許文献1には、例として写真画像をモネ風の画像、ゴッホ風の画像またはセザンヌ風の画像に変換する手法等が記載されている。
本実施形態における変換部24は、仮想内視鏡画像K0の表現形式を実内視鏡画像T0のカラーの表現形式に変換するように機械学習がなされたニューラルネットワーク等からなる変換器を備える。機械学習の手法としては、公知の手法を用いることができる。例えば、サポートベクタマシン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、およびリカレントニューラルネットワーク等を用いることができる。なお、論理演算により仮想内視鏡画像K0の表現形式を実内視鏡画像T0のカラーの表現形式に変換する変換器を用いてもよい。このような変換器により、図5に示すように、仮想内視鏡画像K0の表現形式は実内視鏡画像T0のカラーの表現形式に変換され、その結果、実内視鏡画像風の画像に変換された変換済み仮想内視鏡画像K1が取得される。なお、仮想内視鏡画像K0はモノクロの画像であり、実内視鏡画像T0はカラーの画像である。このため、変換部24は、仮想内視鏡画像K0をカラーの表現形式に変換することとなる。
なお、変換部24は、実内視鏡画像0に表された気管支内壁とほぼ同じ外観の仮想内視鏡画像が得られるように、色および透明度が予め定義されたカラーテンプレートを用いて、仮想内視鏡画像K0を変換するものであってもよい。カラーテンプレートはストレージ13に予め保存される。なお、構造物に対する陰の有無、および環境光あるいは拡散光といった光源の種類を、カラーテンプレートと併せて表示属性として定義しておいてもよい。この場合、変換部24は、内視鏡装置3において使用する光源の種類に応じたカラーテンプレートを用いて、仮想内視鏡画像K0を実内視鏡画像T0の表現形式に変換する。このように、カラーテンプレートを用いることによっても、変換済み仮想内視鏡画像K1は、実内視鏡画像T0と同様のカラーの表現形式を有するものとなる。
類似度算出部25は、後述する内視鏡先端3Bの位置を推定するために、順次取得される実内視鏡画像T0と変換済み仮想内視鏡画像K1との類似度を算出する。なお、類似度としては、実内視鏡画像T0と変換済み仮想内視鏡画像K1との対応する画素間の画素値の差分の絶対値の和の逆数、または差分の二乗和の逆数等を用いることができる。
位置推定部26は、類似度算出部25が算出した類似度が予め定められたしきい値Th1以上となる仮想内視鏡画像を用いて、気管支内における内視鏡先端3Bの位置を推定する。
なお、実内視鏡画像T0は動画像の1フレームを構成する。このため、類似度算出部25は、動画像において順次取得される実内視鏡画像T0のうちの最新の実内視鏡画像T0と変換済み仮想内視鏡画像K1との類似度を算出する。ここで、内視鏡先端3Bの位置を推定するために、類似度算出部25は、実内視鏡画像T0とストレージ13に保存されたすべての仮想内視鏡画像K0を変換することにより取得されたすべての変換済み仮想内視鏡画像K1との類似度を算出してもよいが、演算量が多くなる。このため、本実施形態においては、以下のように類似度を算出する。
まず、類似度算出部25は、気管支内の基準位置において生成された基準となる変換済み仮想内視鏡画像K1を基準仮想内視鏡画像KBに特定する。そして、順次取得される実内視鏡画像T0のうちの最新の実内視鏡画像T0と基準仮想内視鏡画像KBとの類似度を算出する。基準仮想内視鏡画像KBとしては、気管支の経路40における気管支の入り口に最も近い位置を視点位置とする仮想内視鏡画像を用いればよい。位置推定部26は、基準仮想内視鏡画像KBとの類似度がしきい値Th2以上となる実内視鏡画像T0が取得されると、内視鏡先端3Bの位置が基準位置にあると推定する。なお、しきい値Th2はしきい値Th1と同一値であっても異なる値であってもよい。
このようにして、内視鏡先端3Bの位置が基準位置にあると位置推定部26が推定すると、類似度算出部25は、図6に示すように、基準位置Pbから予め定められた範囲A0内にある1以上の変換済み仮想内視鏡画像K1と最新の実内視鏡画像T0との類似度を算出する。なお、内視鏡先端3Bが気管支の内部に移動し、ある実内視鏡画像T0が取得された時点において、図6に示すように内視鏡先端3Bが位置P1にあると推定された場合、類似度算出部25は、次に取得された実内視鏡画像T0に関して、位置P1を含む予め定められた範囲A0内にある1以上の変換済み仮想内視鏡画像K1と実内視鏡画像T0との類似度を算出する。すなわち、実内視鏡画像T0は動画像の1つのフレームを構成するため、実内視鏡画像T0が取得される毎に、類似度算出部25は最新の実内視鏡画像T0と変換済み仮想内視鏡画像K1との類似度を算出する。
位置推定部26は、範囲A0内におけるすべての変換済み仮想内視鏡画像K1と最新の実内視鏡画像T0との類似度のうち、しきい値Th1以上となり、かつ最も類似度が大きい変換済み仮想内視鏡画像K1を生成した視点の位置を内視鏡先端3Bの位置に推定する。
表示制御部27は、実内視鏡画像T0および内視鏡先端3Bの位置における仮想内視鏡画像を表示部14に表示する。なお、表示制御部27は、気管支画像B0を表示部14に表示し、表示した気管支画像B0における内視鏡先端3Bを特定する表示を行うようにしてもよい。また、表示する仮想内視鏡画像は、元の仮想内視鏡画像K0であってもよく、変換済み仮想内視鏡画像K1であってもよい。本実施形態においては変換済み仮想内視鏡画像K1を表示するものとする。
図7は表示部14の表示画像を示す図である。図7に示すように、表示画像50には、実内視鏡画像T0、内視鏡先端3Bの位置における変換済み仮想内視鏡画像K1および気管支画像B0が表示されている。なお、気管支画像B0には、内視鏡の移動軌跡51および内視鏡先端3Bの位置Ptが表示されている。なお、変換済み仮想内視鏡画像K1に代えて、またはこれに加えて仮想内視鏡画像K0を表示するようにしてもよい。
次いで、本実施形態において行われる処理について説明する。図8は本実施形態において行われる処理を示すフローチャートである。なお、気管支画像B0は気管支画像生成部22により生成され、かつ仮想内視鏡画像K0は仮想内視鏡画像生成部23により生成され、それぞれストレージ13に保存されているものとする。内視鏡先端3Bが被検体に挿入され、操作開始の指示が入力部15から入力されると、画像取得部21が仮想内視鏡画像K0を取得し(ステップST1)、変換部24が、仮想内視鏡画像K0の表現形式を実内視鏡画像T0のカラーの表現形式に変換して、変換済み仮想内視鏡画像K1を取得する(ステップST2)。そして、画像取得部21が実内視鏡画像T0を取得し(ステップST3)、類似度算出部25が実内視鏡画像T0と基準仮想内視鏡画像KBとの類似度を算出する(ステップST4)。さらに、位置推定部26が、類似度算出部25が算出した類似度がしきい値Th2以上であるか否かを判定し(ステップST5)、ステップST5が否定されると、ステップST3に戻り、ステップST3~ステップST5の処理が繰り返される。
ステップST5が肯定されると、位置推定部26は、内視鏡先端3Bが基準位置Pbにあると推定し(ステップST6)、引き続き画像取得部21が実内視鏡画像T0を取得する(ステップST7)。続いて類似度算出部25が、ステップST7において取得した実内視鏡画像T0と、内視鏡先端3Bの現在位置から予め定められた範囲内にある変換済み仮想内視鏡画像K1との類似度を算出する(ステップST8)。そして、位置推定部26が、類似度がしきい値Th1以上となり、かつ類似度が最も大きい変換済み仮想内視鏡画像K1を取得した位置を、内視鏡先端3Bの位置に推定する(ステップST9)。続いて、表示制御部27が、実内視鏡画像T0および変換済み仮想内視鏡画像K1を表示する(ステップST10)。そして、終了の指示がなされるまでステップST7~ステップST10の処理が繰り返される。
なお、上記実施形態の処理においては、類似度がしきい値Th1以上となる変換済み仮想内視鏡画像K1が存在しない場合があり得る。このような場合には、類似度を算出する変換済み仮想内視鏡画像K1を取得した範囲を広げる等して、内視鏡先端3Bの位置を推定すればよい。
このように、本実施形態においては、仮想内視鏡画像K0の表現形式を実内視鏡画像T0のカラーの表現形式に変換し、実内視鏡画像T0と変換済み仮想内視鏡画像K1との類似度を算出するようにした。これにより、実内視鏡画像T0と変換済み仮想内視鏡画像K1との表現形式が一致するため、実内視鏡画像T0と変換済み仮想内視鏡画像K1との類似度を精度よく算出することができる。また、このように算出された類似度を用いることにより、内視鏡先端3Bの位置を精度よく推定することができる。
また、上記実施形態においては、位置推定部26が内視鏡先端3Bの基準位置を推定しているが、これに限定されるものではない。例えば、図9に示すように、内視鏡装置3を位置検出装置34を有するものとし、位置検出装置34により内視鏡先端3Bの位置を検出しつつ、実内視鏡画像T0と変換済み仮想内視鏡画像K1との類似度を算出して、内視鏡先端3Bの位置を推定するようにしてもよい。
この場合、位置検出装置34は、被検体の体内における内視鏡先端3Bの位置および向きを検出する。具体的には、位置検出装置34は、被検体の特定部位の位置を基準とした3次元座標系の検出領域を有するエコー装置を有し、エコー装置により、内視鏡先端3Bの特徴的な形状を検出することによって、被検体の体内における内視鏡先端3Bの相対的な位置および向きを検出する。そして、検出した内視鏡先端3Bの位置および向きの情報を位置情報Q0として検査支援装置6に出力する(例えば、特開2006-61274号公報参照)。検出した内視鏡先端3Bの位置および向きは、撮影して得られた実内視鏡画像T0の視点および視線方向にそれぞれ該当する。ここで、内視鏡先端3Bの位置は、上述した被検体の特定部位の位置を基準とした3次元座標により表される。また、位置情報Q0は、実内視鏡画像T0と同様のサンプリングレートにより検査支援装置6に出力される。
このように、位置検出装置34を用いた場合、類似度算出部25は、位置情報Q0により表される気管支内の位置から予め定められた範囲A0内にある1以上の変換済み仮想内視鏡画像K1と実内視鏡画像T0との類似度を算出する。位置推定部26は、上記実施形態と同様に、範囲A0内におけるすべての変換済み仮想内視鏡画像K1と実内視鏡画像T0との類似度のうち、しきい値Th1以上となり、かつ最も類似度が大きい変換済み仮想内視鏡画像K1を生成した位置を内視鏡先端3Bの位置に推定する。
また、上記実施形態においては、類似度算出部25は、実内視鏡画像T0が取得される毎に、変換済み仮想内視鏡画像K1との類似度を算出しているが、これに限定されるものではない。例えば、特開2016-163609号公報に記載された手法を用いて、実内視鏡画像T0に気管支の分岐構造が含まれるか否かを判定し、実内視鏡画像T0に気管支の分岐構造が含まれる場合にのみ、実内視鏡画像T0と変換済み仮想内視鏡画像K1との類似度を算出するようにしてもよい。
また、上記実施形態においては、本開示の検査支援装置を気管支の観察に適用した場合について説明したが、これに限定されるものではなく、胃、大腸および血管等の管状構造物を内視鏡により観察する場合にも、本開示を適用できる。
また、上記実施形態においては、検査支援装置6が気管支画像生成部22および仮想内視鏡画像生成部23を備えているが、これに限定されるものではない。気管支画像生成部22および仮想内視鏡画像生成部23を検査支援装置6とは別個の装置として設けるようにしてもよい。この場合、気管支画像B0および仮想内視鏡画像K0は別個の装置から検査支援装置6に入力され、画像取得部21により取得される。
また、上記実施形態においては、本開示による検査支援装置を、内視鏡検査を支援する装置に適用しているが、これに限定されるものではない。第1のカラー表現形式の第1の医用画像、および第1のカラー表現形式とは異なる第2の表現形式の第2の医用画像を取得する検査を支援する任意の装置に本開示を適用することができる。
また、上記実施形態において、例えば、画像取得部21、気管支画像生成部22、仮想内視鏡画像生成部23、変換部24、類似度算出部25、位置推定部26、および表示制御部27といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
3 内視鏡装置
3A 操作部
3B 内視鏡先端
4 3次元画像撮影装置
5 画像保管サーバ
6 検査支援装置
8 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 表示部
15 入力部
21 画像取得部
22 気管支画像生成部
23 仮想内視鏡画像生成部
24 変換部
25 類似度算出部
26 位置推定部
27 表示制御部
31 内視鏡スコープ
40 経路
50 表示画像
51 移動軌跡
A0 範囲
B0 気管支画像
K0 仮想内視鏡画像
K1 変換済み仮想内視鏡画像
P1 位置
Pb 基準位置
Pt 位置
T0 実内視鏡画像

Claims (7)

  1. 被検体の管状構造物内に挿入された内視鏡によって前記管状構造物の内壁を撮影することにより取得された、カラーの実写風の表現形式を有する実内視鏡画像、および前記被検体の前記管状構造物を含む3次元画像から生成された、CG風の表現形式を有し、かつ前記管状構造物の内壁を擬似的に表す仮想内視鏡画像を取得する画像取得部と、
    前記仮想内視鏡画像の前記CG風の表現形式を、前記実写風の表現形式に変換することにより、変換済み仮想内視鏡画像を取得する変換部と、
    前記実内視鏡画像と前記変換済み仮想内視鏡画像との類似度を算出する類似度算出部とを備えた検査支援装置。
  2. 前記算出された類似度が予め定められたしきい値以上となる仮想内視鏡画像を用いて、前記管状構造物内における前記内視鏡の位置を推定する位置推定部をさらに備えた請求項に記載の検査支援装置。
  3. 前記推定された内視鏡の位置に対応する変換済み仮想内視鏡画像と、前記実内視鏡画像とを表示部に表示する表示制御部をさらに備えた請求項に記載の検査支援装置。
  4. 前記3次元画像から前記仮想内視鏡画像を生成する仮想内視鏡画像生成部をさらに備えた請求項からのいずれか1項に記載の検査支援装置。
  5. 前記変換部は、機械学習がなされたニューラルネットワークにより前記変換済み仮想内視鏡画像を取得する請求項1から4のいずれか1項に記載の検査支援装置。
  6. コンピュータが、被検体の管状構造物内に挿入された内視鏡によって前記管状構造物の内壁を撮影することにより取得された、カラーの実写風の表現形式を有する実内視鏡画像、および前記被検体の前記管状構造物を含む3次元画像から生成された、CG風の表現形式を有し、かつ前記管状構造物の内壁を擬似的に表す仮想内視鏡画像を取得し、
    前記仮想内視鏡画像の前記CG風の表現形式を、前記実写風の表現形式に変換することにより、変換済み仮想内視鏡画像を取得し、
    前記実内視鏡画像と前記変換済み仮想内視鏡画像との類似度を算出する検査支援方法。
  7. 被検体の管状構造物内に挿入された内視鏡によって前記管状構造物の内壁を撮影することにより取得された、カラーの実写風の表現形式を有する実内視鏡画像、および前記被検体の前記管状構造物を含む3次元画像から生成された、CG風の表現形式を有し、かつ前記管状構造物の内壁を擬似的に表す仮想内視鏡画像を取得する手順と、
    前記仮想内視鏡画像の前記CG風の表現形式を、前記実写風の表現形式に変換することにより、変換済み仮想内視鏡画像を取得する手順と、
    前記実内視鏡画像と前記変換済み仮想内視鏡画像との類似度を算出する手順とをコンピュータに実行させる検査支援プログラム。
JP2018132895A 2018-07-13 2018-07-13 検査支援装置、方法およびプログラム Active JP7023195B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018132895A JP7023195B2 (ja) 2018-07-13 2018-07-13 検査支援装置、方法およびプログラム
US16/453,668 US11003946B2 (en) 2018-07-13 2019-06-26 Examination support device, examination support method, and examination support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018132895A JP7023195B2 (ja) 2018-07-13 2018-07-13 検査支援装置、方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2020010734A JP2020010734A (ja) 2020-01-23
JP2020010734A5 JP2020010734A5 (ja) 2020-09-24
JP7023195B2 true JP7023195B2 (ja) 2022-02-21

Family

ID=69138386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018132895A Active JP7023195B2 (ja) 2018-07-13 2018-07-13 検査支援装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US11003946B2 (ja)
JP (1) JP7023195B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7071240B2 (ja) * 2018-07-26 2022-05-18 富士フイルム株式会社 検査支援装置、方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000173A (ja) 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
JP2011193885A (ja) 2010-03-17 2011-10-06 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2011206168A (ja) 2010-03-29 2011-10-20 Fujifilm Corp 観察支援システムおよび方法並びにプログラム
US20120027260A1 (en) 2009-04-03 2012-02-02 Koninklijke Philips Electronics N.V. Associating a sensor position with an image position
WO2012108085A1 (ja) 2011-02-08 2012-08-16 オリンパスメディカルシステムズ株式会社 医療機器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5718537B2 (ja) 1973-12-25 1982-04-17
JP4171833B2 (ja) 2002-03-19 2008-10-29 国立大学法人東京工業大学 内視鏡誘導装置および方法
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
CN104780826B (zh) 2013-03-12 2016-12-28 奥林巴斯株式会社 内窥镜系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120027260A1 (en) 2009-04-03 2012-02-02 Koninklijke Philips Electronics N.V. Associating a sensor position with an image position
JP2011000173A (ja) 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
JP2011193885A (ja) 2010-03-17 2011-10-06 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2011206168A (ja) 2010-03-29 2011-10-20 Fujifilm Corp 観察支援システムおよび方法並びにプログラム
WO2012108085A1 (ja) 2011-02-08 2012-08-16 オリンパスメディカルシステムズ株式会社 医療機器

Also Published As

Publication number Publication date
US11003946B2 (en) 2021-05-11
JP2020010734A (ja) 2020-01-23
US20200019813A1 (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP6348078B2 (ja) 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6371729B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
JP6594133B2 (ja) 内視鏡位置特定装置、内視鏡位置特定装置の作動方法および内視鏡位置特定プログラム
JP7023196B2 (ja) 検査支援装置、方法およびプログラム
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
JP7071240B2 (ja) 検査支援装置、方法およびプログラム
CN105796052A (zh) 3d重构相片和内部医学扫描的联合可视化
JP6824078B2 (ja) 内視鏡位置特定装置、方法およびプログラム
JP5785120B2 (ja) 医用画像診断支援装置および方法並びにプログラム
JP7148534B2 (ja) 画像処理装置、プログラム、及び内視鏡システム
JP7023195B2 (ja) 検査支援装置、方法およびプログラム
JP7441934B2 (ja) 処理装置、内視鏡システム及び処理装置の作動方法
JP2011024913A (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP6820805B2 (ja) 画像位置合わせ装置、その作動方法およびプログラム
JP6199267B2 (ja) 内視鏡画像表示装置、その作動方法およびプログラム
JP6745748B2 (ja) 内視鏡位置特定装置、その作動方法およびプログラム
Ahmad et al. 3D reconstruction of gastrointestinal regions using shape-from-focus
US20240324849A1 (en) Information processing apparatus, information processing method, and information processing program
WO2024195100A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
WO2021117349A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
US20230081476A1 (en) Method of multiple image reconstruction and registration
He et al. Enabling intelligent procedures: Endoscopy dataset collection trends and pipeline
JP6847011B2 (ja) 3次元画像処理装置および方法並びにプログラム
JP2024140988A (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220208

R150 Certificate of patent or registration of utility model

Ref document number: 7023195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150