JP5675227B2 - 内視鏡画像処理装置および作動方法、並びに、プログラム - Google Patents

内視鏡画像処理装置および作動方法、並びに、プログラム Download PDF

Info

Publication number
JP5675227B2
JP5675227B2 JP2010194939A JP2010194939A JP5675227B2 JP 5675227 B2 JP5675227 B2 JP 5675227B2 JP 2010194939 A JP2010194939 A JP 2010194939A JP 2010194939 A JP2010194939 A JP 2010194939A JP 5675227 B2 JP5675227 B2 JP 5675227B2
Authority
JP
Japan
Prior art keywords
pixel
image
endoscope
endoscopic image
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010194939A
Other languages
English (en)
Other versions
JP2012050606A (ja
Inventor
宮本 仁樹
仁樹 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010194939A priority Critical patent/JP5675227B2/ja
Priority to EP12197495.0A priority patent/EP2573735B1/en
Priority to EP20110179145 priority patent/EP2423877A1/en
Priority to US13/221,405 priority patent/US8939892B2/en
Publication of JP2012050606A publication Critical patent/JP2012050606A/ja
Application granted granted Critical
Publication of JP5675227B2 publication Critical patent/JP5675227B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Description

本発明は、被検体の解剖学的構造物に挿入された内視鏡下での手術や検査等における、内視鏡画像を処理する技術に関するものであり、特に、被検体の解剖学的構造物を表す仮想内視鏡画像を用いて内視鏡画像を処理する技術に関するものである。
近年、患者の腸および気管支等に代表される解剖学的構造物を内視鏡を用いて観察または処置を行う技術が注目されている。
しかし、内視鏡画像は、CCD等の撮像素子により解剖学的構造物内部の色や質感が鮮明に表現された画像が得られる一方で、解剖学的構造物の内部を2次元の画像に表すものであるため、解剖学的構造物内のどの位置を表している画像かを把握しにくく、所望の部位までの奥行き方向の情報が得られない。そこで、CT装置等のモダリティによる断層撮影で得られたボリュームデータから内視鏡と類似した画像を生成する仮想内視鏡技術を利用し、仮想内視鏡画像を用いて被検体の解剖学的構造物内の内視鏡の位置の把握を支援する技術が提案されている。
例えば、特許文献1には、内視鏡や手術の処置具の位置を位置検出センサによって検出し、内視鏡の挿入部の先端から術部の対象物までの距離を測定し、基準の3次元座標に対する内視鏡等の位置のデータおよび、予め用意された生体画像データから生成した3次元画像または2次元画像を画像合成回路に伝送し、内視鏡等の位置のデータと内視鏡等の形状データに基づいて、3次元画像上に、内視鏡等の形状データが合成表示される手術用ナビゲーションシステムが記載されている。
特許文献2には、内視鏡の先端に位置センサを設け、仮想内視鏡画像上で基準座標系における標的位置を指定し、標的位置に設定した点に対応する解剖学的構造物の位置に内視鏡の先端を移動させて配置し、位置センサにより3次元基準系に対する内視鏡のカテーテル先端の位置及び向きを計測することで、内視鏡の位置を基準座標系に位置合わせして、仮想内視鏡画像上にカテーテル先端および標的を表示する等の手術支援を行う技術が開示されている。
また、特許文献3には、予め取得した被験体の3次元画像から仮想内視鏡画像を生成し、仮想内視鏡画像と内視鏡により撮影されたリアル画像との誤差を算出し、算出した誤差が許容誤差以下になるまで、仮想内視鏡の視点の位置を移動して、移動した仮想内視鏡画像と内視鏡画像の誤差の算出を繰り返し、算出された誤差が許容誤差以下になったときに、仮想内視鏡画像の視線パラメータから内視鏡先端部の位置と方向を算出する装置が記載されている。
さらに、特許文献4には、被写体の視差のある2つの被写体像を伝達する立体視硬性内視鏡と被写体と立体視内視鏡との距離を求めるフォーカスコントローラと、立体内視鏡が伝達した2つの被写体像を撮像する右目映像用CCDと左目映像用CCDと被写体像の焦点可変部を有する立体TVカメラと、被写体像の水平方向の表示領域を制御する撮像領域コントローラを備えることで、左右画像の不一致領域やピント輻輳との乖離を抑制する立体視内視鏡システムが開示されている。
特開2001−204738号公報 特開2009−254837号公報 特開2009−279251号公報 特開2005−334462号公報
しかしながら、特許文献1から3に記載された方法では、解剖学的構造物内での内視鏡の位置を把握することができても、CT装置等による断層撮影により得られるボリュームデータのようにボリュームレンダリング法や管状構造物を伸長展開して表す表示方法等の各種の周知の解析や画像表示方法を適用することができなかった。
また、特許文献4に記載された方法では、立体的に解剖学的構造物内部の様子を把握することができても、内視鏡画像自体をボリュームデータとするわけではないため、内視鏡画像に対してボリュームデータのように多様な画像解析及び画像表示方法を利用することはできなかった。
本発明は上記事情に鑑みてなされたものであり、被検体の解剖学的構造物に挿入された内視鏡により撮影された内視鏡画像に多様な画像表示方法または画像解析方法を適用可能にする内視鏡画像処理装置および方法、およびプログラムを提供することを目的とするものである。
本発明の内視鏡画像処理装置は、被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像を取得する内視鏡画像取得手段と、断層撮影により取得された前記解剖学的構造物のボリュームデータを取得するボリュームデータ取得手段と、前記取得されたボリュームデータから前記解剖学的構造物の複数の仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、前記取得された複数の内視鏡画像のうち前記解剖学的構造物の所定の位置から撮影された内視鏡画像と、前記取得された複数の仮想内視鏡画像のうち前記所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付ける対応付け手段と、前記比較仮想内視鏡画像を構成する複数の画素のそれぞれの3次元的な位置に基づいて、前記所定の位置から撮影された内視鏡画像を構成する複数の画素のそれぞれ対応する3次元的な位置を算出する位置算出手段と、前記所定の位置から撮影された内視鏡画像を構成する複数の画素の個々の画素値とそれぞれの該画素について算出された前記3次元的な位置に基づいて、前記所定の位置から撮影された内視鏡画像からボリュームデータを生成する内視鏡ボリュームデータ生成手段を備えたことを特徴とするものである。
本発明の内視鏡画像処理方法は、被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像を取得し、断層撮影により取得された前記解剖学的構造物のボリュームデータを取得し、前記取得されたボリュームデータから前記解剖学的構造物の複数の仮想内視鏡画像を生成し、前記取得された複数の内視鏡画像のうち前記解剖学的構造物の所定の位置から撮影された内視鏡画像と、前記取得された複数の仮想内視鏡画像のうち前記所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付けし、前記比較仮想内視鏡画像を構成する複数の画素のそれぞれの3次元的な位置に基づいて、前記所定の位置から撮影された内視鏡画像を構成する複数の画素のそれぞれ対応する3次元的な位置を算出し、前記所定の位置から撮影された内視鏡画像を構成する複数の画素の個々の画素値とそれぞれの該画素について算出された前記3次元的な位置に基づいて、前記所定の位置から撮影された内視鏡画像からボリュームデータを生成することを特徴とするものである。
本発明の内視鏡画像処理プログラムは、コンピュータを、被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像を取得する内視鏡画像取得手段と、断層撮影により取得された前記解剖学的構造物のボリュームデータを取得するボリュームデータ取得手段と、前記取得されたボリュームデータから前記解剖学的構造物の複数の仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、前記取得された複数の内視鏡画像のうち前記解剖学的構造物の所定の位置から撮影された内視鏡画像と、前記取得された複数の仮想内視鏡画像のうち前記所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付ける対応付け手段と、前記比較仮想内視鏡画像を構成する複数の画素のそれぞれの3次元的な位置に基づいて、前記所定の位置から撮影された内視鏡画像を構成する複数の画素のそれぞれ対応する3次元的な位置を算出する位置算出手段と、前記所定の位置から撮影された内視鏡画像を構成する複数の画素の個々の画素値とそれぞれの該画素について算出された前記3次元的な位置に基づいて、前記所定の位置から撮影された内視鏡画像からボリュームデータを生成する内視鏡ボリュームデータ生成手段として機能させることを特徴とするものである。
本発明において、上記解剖学的構造物は、被検体が人体であれば、食道、胃、十二指腸、大腸および気管支などの管状の内臓に代表されるものであるが、内視鏡を挿入可能なものであれば何でもよい。また、上記所定の位置は、解剖学的構造物の内部の任意の位置であれば何でもよい。例えば、腸の折曲部や目だったポリープが見つかった領域など、ユーザ等が解剖学的構造物内の他の領域と識別可能な形態を有する領域であってもよい。また、3次元的な位置は、座標で表されてもよく、ベクトルにより表されてもよく、3次元空間における位置を表す周知の方法で表すことができる。
また、本発明による対応付け手段は、解剖学的構造物の所定の位置から撮影された内視鏡画像と、所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出できる方法であれば、周知の種々の方法を適用することができる。例えば、所定の位置に内視鏡の先端部を配置して撮影した内視鏡画像を取得し、特許文献1または2に開示された方法により、所定の位置に配置された内視鏡の先端部の解剖学的構造物中の位置を検出して、該先端部の位置と対応する仮想内視鏡の視点の位置を取得し、先端部の位置と対応する仮想内視鏡の視点の位置に基づいて比較仮想内視鏡画像を抽出してもよい。例えば、特許文献3に開示されたような内視鏡画像と仮想内視鏡画像とを比較し両画像の類似度により、内視鏡画像と比較仮想内視鏡画像を抽出してもよい。また、解剖学的構造物の分岐部などのように識別可能な特徴を有する特定の領域を表す内視鏡画像と同領域を表す仮想内視鏡画像とをユーザによるマウス等の入力装置による操作により表示させ、両画像が対応する所定の位置を表示したことを示す入力をユーザ操作によるマウス等の入力装置等から受け付けて、入力信号を受け付けた際に表示されている内視鏡画像と仮想内視鏡画像を対応付けてもよい。なお、このように類似度により対応付けられた内視鏡画像を撮影した所定の位置と仮想内視鏡画像の視点の位置は解剖学的構造物の同じ位置に対応していると考えられる。
なお、本発明の内視鏡画像処理装置において、1つの所定位置のみに対して、対応付け手段による上記の対応付けおよび3次元的な位置の算出を行ってもよく、複数の所定位置に対して、対応付け手段による上記の対応付けおよび3次元的な位置の算出を行ってもよい。
本発明による内視鏡画像処理方法において、前記内視鏡画像から生成された内視鏡ボリュームデータから再構成した内視鏡再構成画像を生成する内視鏡再構成画像生成手段と、前記生成された内視鏡再構成画像を表示装置に表示させる表示制御手段をさらに備えることが好ましい。
また、本発明による内視鏡画像処理装置における前記位置算出手段は、前記所定の位置から撮影された内視鏡画像を構成する複数の画素のうち所定の画素に対応付けて、複数の3次元的な位置を算出してもよい。さらに、前記位置算出手段は、前記所定の画素に対応する複数の3次元的な位置を球形状に配置するものであってもよく、所定の大きさを有する平面や曲面をなす形状に配置するものであってもよく、立方体、直方体等の多面体や、円錐、多角錐等の立体形状に配置するものであってもよい。なお、所定の画素に複数の3次元的な位置を対応付けることにより、所定の画素の画素値が複数の位置に反映された内視鏡ボリュームデータが生成されるため、複数の3次元的な位置は、互いに近傍の位置であることが好ましい。
また、本発明による内視鏡画像処理装置が内視鏡再構成画像生成手段を備えた場合、内視鏡再構成画像生成手段によって生成された内視鏡再構成画像は、前記解剖学的構造物の伸張展開画像または伸張断面画像であってもよい。また、内視鏡再構成画像は、これに限定されず、内視鏡ボリュームデータから表示または再構成可能なものであれば、何でもよい。
また、本発明において、前記内視鏡画像取得手段によって取得される内視鏡画像は、分光画像であってもよい。
なお、分光画像とは、固体撮像素子を用いた電子内視鏡装置により、主に可視光の波長領域を撮像して可視光領域画像を表す通常画像と、狭い波長帯域のみに光を透過させる複数種類の狭帯域バンドパスフィルタを通して消化器官(例えば胃等)の生体粘膜を撮像し上記生体粘膜の複数種類の狭帯域分光画像を得、これらの狭帯域分光画像を合成してなる診断用画像を生成する方式(Narrow Band Imaging-NBl)により得られる画像(特開2006−341078号公報参照)、または、内視鏡により固体撮像素子上に複数種類の広帯域バンドパスフィルタからなるRGBモザイクフィルタを配置して面同時方式で通常のカラー画像(通常画像ともいう)の撮像を行って、生体粘膜の撮像で得られた通常画像に基づく演算処理により上記狭帯域バンドパスフィルタを用いて得られた狭帯域分光画像と同等の画像を取得して上記のような診断用画像を作成する方式により得られる画像を指す(特開2003−93336号公報、特開2010−75368号公報参照)。
また、伸張展開画像は、管腔臓器を直線状に伸長させ、さらに管を切り開いて内壁側を展開したような画像であり(例えば、特開2006−65397号公報参照)、伸長断面画像は、管腔臓器を直線状に伸長させ、管を縦切りにしたような画像である(例えば、特開平11−318884号公報参照)。
また、本発明による内視鏡画像処理装置は、前記内視鏡ボリュームデータから、前記所定の位置から撮影された内視鏡画像を構成する画素に対応しない3次元的な位置からなる未対応領域を抽出する未対応領域抽出手段をさらに備えてもよい。
ここで、本発明では、内視鏡ボリュームデータのうち内視鏡画像の画素と3次元的な位置を対応付けられていない領域を「未対応領域」と称する。例えば、本発明によれば、内視鏡画像を構成する画素に対応する3次元的な位置を算出することにより、所定の画素の画素値が3次元的な位置に反映された内視鏡ボリュームデータが生成されるため、解剖学的構造物内のポリープ等の凹凸形状や湾曲形状のために内視鏡画像に映っていない領域等の解剖学的構造物内の未撮影領域は、内視鏡画像の画素と3次元的な位置を対応付けることができない場合がある。また、内視鏡画像の一部のみに本発明の内視鏡画像処理を行った場合など、内視鏡画像の画素と3次元的な位置の対応付けを行っていない場合もある。このような場合に、内視鏡画像を構成する画素に対応しない3次元的な位置からなる未対応領域が生ずるものである。
また、本発明による内視鏡画像処理装置が未対応領域抽出手段を備えた場合、前記ボリュームデータから医用画像を生成する医用画像生成手段をさらに備え、前記表示制御手段は、前記ボリュームデータから生成された医用画像上に、前記未対応領域を表す指標をさらに表示させるものであってもよい。
医用画像は、ボリュームデータから生成可能なものであれば何でもよいが、代表的なものとしてボリュームレンダリング法、サーフィスレンダリング法があげられる。
または、本発明による内視鏡画像処理装置が未対応領域抽出手段を備えた場合、前記表示制御手段は、前記内視鏡ボリュームデータから生成された内視鏡再構成画像上に、前記未対応領域を表す指標をさらに表示させるものであってもよい。
未対応領域を表す指標として、円、矩形、閉曲面など、様々な形状の周知の指標を用いることができ、さらに指標に色を付けたり、点滅させるなど様々な周知の表示方法を適用してもよい。
本発明の内視鏡画像処理装置、方法およびプログラムによれば、比較仮想内視鏡画像を構成する複数の画素のそれぞれの3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像を構成する複数の画素のそれぞれ対応する3次元的な位置を算出し、所定の位置から撮影された内視鏡画像を構成する複数の画素の個々の画素値とそれぞれの画素について算出された3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像からボリュームデータを生成するため、CT装置等のモダリティでは得られない、質感や色合いの情報を有するボリュームデータを生成することができる。また、通常の奥行き方向の情報を持たない内視鏡画像からは得らなかった、内視鏡ボリュームデータから再構成される画像表示または内視鏡ボリュームデータを用いた画像解析が可能となる。つまり、本発明の内視鏡画像処理装置、方法およびプログラムによれば、解剖学的構造物の内部をよりリアルな質感や色合いで表すことができるという内視鏡画像の利点と、多様な画像解析及び画像表示を利用可能とするボリュームデータの利点を併せ持つ内視鏡ボリュームデータを生成することにより、内視鏡画像を多様な画像診断又は画像解析に活用でき、より高精度な画像診断を支援することができる。
また、本発明による内視鏡画像処理装置において、内視鏡画像から生成された内視鏡ボリュームデータから再構成した内視鏡再構成画像を生成する内視鏡再構成画像生成手段と、生成された内視鏡再構成画像を表示装置に表示させる表示制御手段をさらに備えた場合には、従来の断層撮影から得たボリュームデータでは得られなかった、リアルな質感と色合いを持つ再構成画像を観察することが可能となり、より高精度な画像診断を支援することができる。
また、本発明による内視鏡画像処理装置における位置算出手段は、所定の位置から撮影された内視鏡画像を構成する複数の画素のうち所定の画素に対応付けて、複数の3次元的な位置を算出する場合には、例えば、解剖学的構造物のうち撮影部から遠い部分を表す内視鏡画像の画素に対して、複数の3次元的な位置を算出して、空間的に広がりを持った位置と対応付けることができ、内視鏡画像を構成する画素値を複数の3次元的な位置に反映させることができる。
なお、内視鏡画像は、内視鏡のCCDカメラ等の撮影部から近い部分は大きく写り、撮影部から遠い部分は小さく写るという性質を有するため、撮影部から遠い部分を表す画素は、撮影部から近い部分を表す画素よりも少なくなる。このため、生成されるボリュームデータは、内視鏡画像の撮影部から遠い部分に対応する位置は、内視鏡画像の撮影部から近い部分より対応付けられる内視鏡画像の位置が少なく、内視鏡画像と対応するボリュームデータの位置がまばらになってしまう可能性がある。このため、内視鏡ボリュームデータのうち内視鏡画像の撮影部から遠く、対応する内視鏡画像の位置が少ない領域に、撮影部より遠い部分を表す内視鏡の画素に空間的に広がりを持った複数の3次元的な位置を算出して対応付けることにより、対応する内視鏡画像の画素が疎である領域の画素値を的確に補間し、内視鏡画像と対応するボリュームデータの位置がまばらになってしまうことを抑制し、各画素に適切な画素値が反映されたボリュームデータを生成することができる。
また、本発明による内視鏡画像処理装置が内視鏡再構成画像生成手段を備え、内視鏡再構成画像生成手段によって生成された内視鏡再構成画像が、解剖学的構造物の伸張展開画像または伸張断面画像のいずれかである場合には、従来の内視鏡画像では得られなかった画像観察が可能となり、より高精度な画像診断を支援することができる。
また、本発明による内視鏡画像処理装置は、内視鏡ボリュームデータから、所定の位置から撮影された内視鏡画像を構成する画素に対応しない3次元的な位置からなる未対応領域を抽出する未対応領域抽出手段をさらに備えた場合には、内視鏡ボリュームデータのうち、内視鏡画像から画素値を取得できなかった領域を認識することが容易である。
また、本発明による内視鏡画像処理装置が未対応領域抽出手段を備えた場合、ボリュームデータから医用画像を生成する医用画像生成手段をさらに備え、表示制御手段は、ボリュームデータから生成された医用画像上に、未対応領域を表す指標をさらに表示させるものである場合には、内視鏡ボリュームデータのうち、内視鏡画像から画素値を取得できなかった領域を認識することが容易である。
または、本発明による内視鏡画像処理装置が未対応領域抽出手段を備えた場合、表示制御手段は、内視鏡ボリュームデータから生成された内視鏡再構成画像上に、未対応領域を表す指標をさらに表示させるものである場合には、内視鏡ボリュームデータのうち、内視鏡画像から画素値を取得できなかった領域を認識することが容易である。
第1の実施形態における内視鏡画像処理装置の機能ブロック図 第1の実施形態における内視鏡画像処理の流れを表したフローチャート 第1の実施形態における内視鏡画像と比較仮想内視鏡画像を対応付けた例を説明する図 第1の実施形態において内視鏡画像上の画素の対応する3次元的な位置を算出する方法を説明する図 第2の実施形態における内視鏡画像処理装置の機能ブロック図 第2の実施形態における内視鏡画像処理の流れを表したフローチャート 第2の実施形態で表示される不対応領域を表す指標を付した医用画像の例を表した図 第1の実施形態で生成される伸長展開画像の例を示す図
以下、本発明の内視鏡画像処理装置、内視鏡画像処理プログラムおよび内視鏡画像処理方法の実施形態について、図面を参照しながら詳細に説明する。
図1に、医師が使用するワークステーションに、診断支援プログラムをインストールすることにより実現された診断支援装置の概略構成を示す。診断支援装置1は、標準的なワークステーションの構成として、プロセッサおよびメモリ(いずれも図示せず)を備え、さらに、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージ2を備えている。また、内視鏡画像処理装置1には、ディスプレイ3と、マウス、キーボード等の入力装置4が接続されている。
診断支援プログラムと診断支援プログラムが参照するデータ(後述する変換テーブル等)は、インストール時にストレージ2に記憶され、起動時にメモリにロードされる。診断支援プログラムは、CPUに実行させる処理として、内視鏡画像取得処理と、仮想内視鏡画像取得処理と、解剖学的構造物の所定の位置から撮影された内視鏡画像と所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付ける対応付け処理と、所定の位置から撮影された内視鏡画像を構成する複数の画素のそれぞれ対応する3次元的な位置を算出する位置算出処理と、所定の位置から撮影された内視鏡画像からボリュームデータを生成する内視鏡ボリュームデータ生成手段処理と、内視鏡ボリュームデータVから内視鏡再構成画像を生成する内視鏡再構成画像生成処理と、および表示制御処理を規定している。
そして、プログラムの規定にしたがって、CPUが上記各処理を実行することにより、汎用のワークステーションは、被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像を取得する内視鏡画像取得手段101と、断層撮影により取得された解剖学的構造物のボリュームデータを取得するボリュームデータ取得手段102と、取得されたボリュームデータから解剖学的構造物の複数の仮想内視鏡画像を生成する仮想内視鏡画像生成手段103と、取得された複数の内視鏡画像のうち解剖学的構造物の所定の位置から撮影された内視鏡画像と、取得された複数の仮想内視鏡画像のうち所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付ける対応付け手段104と、比較仮想内視鏡画像を構成する複数の画素のそれぞれの3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像を構成する複数の画素のそれぞれ対応する3次元的な位置を算出する位置算出手段105と、所定の位置から撮影された内視鏡画像を構成する複数の画素の個々の画素値とそれぞれの画素について算出された3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像からボリュームデータを生成する内視鏡ボリュームデータ生成手段106と、内視鏡画像から生成された内視鏡ボリュームデータVから再構成した内視鏡再構成画像ImgRを生成する内視鏡再構成画像生成手段107と、生成された内視鏡再構成画像ImgRを表示装置3に表示させる表示制御手段108として機能する。
ストレージ2には、撮影を担当する検査部門から転送された、ボリュームデータおよび動画像を構成する複数の内視鏡画像、もしくはデータベース検索により取得された内視鏡画像およびボリュームデータが、記憶される。ボリュームデータは、マルチスライスCT装置等から直接出力されたボリュームデータでもよいし、従来型のCT装置等から出力された2次元のスライスデータ群を再構成することにより生成されたボリュームデータでもよい。なお、本明細書においては、1回の内視鏡撮影により撮影された動画ImgEを構成する各フレームを内視鏡画像ImgEi(1≦i≦m)(mは全フレーム数)と呼ぶ。
内視鏡画像処理装置1は、選択メニューにおいて所定の診断支援機能が選択されたことを検出すると、ユーザに、ボリュームデータの特定に必要な情報の選択または入力を促す。そして、ユーザの操作により、ボリュームデータが特定されると、ストレージ2からメモリに、該当するボリュームデータをロードする。
以下、図1で示す内視鏡画像処理装置1に備えられた各機能ブロックについて詳細に説明する。
内視鏡画像取得手段101は、ストレージ2から被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像ImgEi(1≦i≦m)からなる動画像ImgEを受信し、内視鏡画像処理装置1の所定のメモリ領域に格納する通信インターフェース機能を有する。
ボリュームデータ取得手段102は、ストレージ2からCT装置による断層撮影により取得された解剖学的構造物のボリュームデータVを受信し、内視鏡画像処理装置1の所定のメモリ領域に格納する通信インターフェース機能を有する。
仮想内視鏡画像生成手段103は、取得されたボリュームデータから周知の方法により解剖学的構造物の複数の仮想内視鏡画像ImgVg(1≦g≦h)を生成し、内視鏡画像処理装置1の所定のメモリ領域に記憶する。なお、g、hは正の整数である。
対応付け手段104は、取得された複数の内視鏡画像のうち解剖学的構造物の所定の位置から撮影された内視鏡画像ImgEiと、取得された複数の仮想内視鏡画像のうち所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像ImgViを抽出して対応付ける(iはm以下の正の整数)。
なお、本実施形態では、対応付け手段104は、内視鏡撮影により得られた動画像を構成する複数のフレームから、所定の時間間隔ごとに1フレームを抽出し、抽出された複数のフレーム、すなわち内視鏡画像ImgEi(1≦i≦m1)のそれぞれに対して、特許文献3に示す方法により、それぞれ類似する比較仮想内視鏡画像ImgVi(1≦i≦m1)を抽出して対応付ける。
位置算出手段105は、比較仮想内視鏡画像ImgViを構成する複数の画素Qpj(1≦j≦n、nは比較仮想内視鏡画像ImgViの画素数)のそれぞれの3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像ImgEiを構成する複数の画素Ppjのそれぞれ対応する画素Pの3次元的な位置を算出する。
内視鏡ボリュームデータ生成手段106は、所定の位置から撮影された内視鏡画像を構成する複数の画素Ppjの個々の画素値とそれぞれの画素について算出された3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像から内視鏡ボリュームデータVを生成する。
内視鏡再構成画像生成手段107は、内視鏡画像から生成された内視鏡ボリュームデータVから再構成した内視鏡再構成画像を生成する。内視鏡再構成画像は、ボリュームデータから再構成可能なものであれば、何でもよく、ボリュームレンダリング法で生成されたボリュームレンダリング画像でもよく、サーフィスレンダリング画像でもよく、伸長展開画像でもよく、断面展開画像でもよく、任意の面の断層像でもよく、種々の周知の表示方法または解析方法で生成された画像であってよい。
表示制御手段108は、生成された内視鏡再構成画像をディスプレイ3に表示させる。
ここでは、ある患者の検査において、マルチスライスCT装置による撮影が行われ、大腸の情報を含むボリュームデータが取得されているものとする。
まず、内視鏡1による被検体の解剖学的構造物内部の大腸の動画撮影により、撮影された動画ImgEが取得され、ネットワークを介して不図示のデータベースに記憶されている。また、CT装置による同じ被検体の腹部の撮像により、大腸の情報を含むボリュームデータVが形成されて同様に不図示のデータベースに記憶されている。ユーザが解剖学的構造物である大腸の内視鏡画像処理機能を選択し、その患者の識別子や検査日を入力すると、該当するボリュームデータVおよび内視鏡画像ImgEを構成する複数の内視鏡画像ImgEi(1≦i≦m)が取得されてストレージ2に記憶され、本発明の内視鏡画像処理が実行される。
図2は本発明の内視鏡画像処理方法の好ましい実施形態を示すフローチャートであり、図3は内視鏡画像と仮想内視鏡画像の対応付けを説明する図、図4は図3で対応付けられた内視鏡画像と仮想内視鏡画像を用いて、内視鏡画像を構成する画素に3次元的な位置を算出する方法を説明する図、図8は本実施形態により表示される伸長展開画像のイメージを表す図である。図2、図3、図4および図8を参照して本実施形態の内視鏡画像処理方法について説明する。
まず、内視鏡画像取得手段101が、ストレージ2から被検体の解剖学的構造物に挿入された内視鏡により撮影された動画像ImgEを構成する複数の内視鏡画像ImgEi(1≦i≦m)を取得するとともに、ボリュームデータ取得手段102がストレージ2からCT装置による断層撮影により取得されたボリュームデータVを取得する(S01)。
次に、仮想内視鏡画像生成手段103が、取得されたボリュームデータから解剖学的構造物の複数の仮想内視鏡画像ImgVg(1≦g≦h)を生成する(S02)。仮想内視鏡画像生成手段103は、解剖学的構造物である大腸領域を検出するとともに大腸中心線CLを設定し、大腸中心線CL上の各位置に仮想内視鏡の視点を配置した複数の仮想内視鏡画像ImgVg(1≦g≦h)を、大腸中心線CLに沿って想内視鏡の視点を移動させて生成する。なお、ここでは、大腸領域の抽出及び大腸中心線の抽出には、“Colon centreline calculation for CT colonography using optimised 3D topological thinning.”, Proceedings of the 1st International Symposium on 3D Data Processing Visualization and Transmission, IEEE Computer Society, pp.800-803, 2002に記載された方法を用いたものとする。本実施形態では、比較仮想内視鏡画像を抽出するために十分に多い数h(h≧m1)の仮想内視鏡画像が再構成されるものとする。
そして、対応付け手段104は、取得された複数の内視鏡画像ImgEi(1≦i≦m)を所定の時間間隔でサンプリングし、サンプリングされた内視鏡画像ImgEi(1≦i≦m1)のうち、解剖学的構造物の所定の位置から撮影された内視鏡画像ImgEiと、取得された複数の仮想内視鏡画像ImgVg(1≦g≦h)のうち所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像ImgViを抽出して対応付ける(S03)。
図3に示すように、対応付けられた内視鏡画像ImgEiおよび比較仮想内視鏡画像ImgViは解剖学的構造物の湾曲部Rをほぼ同じサイズで表示画像上の同じ位置に表している。仮想内視鏡画像ImgViを生成する過程で、仮想内視鏡生成手段103は、CT装置で撮影されたボリュームデータVから、内視鏡撮影を行った内視鏡撮影システムに応じて予め与えられた内視鏡の固体撮像素子の位置、向き、画角等の撮影パラメータに基づいて仮想内視鏡画像ImgViを生成しているため、内視鏡画像ImgEiと比較仮想内視鏡画像ImgViとは、解剖学的構造物の同じ位置および同じ向きに内視鏡先端部Pcと仮想内視鏡の視点Qcを配置し、同じ焦点距離や画角等の条件で大腸内の同じ領域を表したものとなっている。
次いで、位置算出手段105は、比較仮想内視鏡画像をImgVi構成する複数の画素Qpjのそれぞれの3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像ImgEiを構成する複数の画素Ppjのそれぞれ対応する3次元的な位置を算出する(S04)。
以下、図4を参照しながら、大腸を例に、本実施形態の位置算出手段105の処理の詳細について説明する。図4左は、大腸5に挿入された内視鏡の撮影部Pc(内視鏡の先端部)と内視鏡画像ImgEiの位置関係を表し、図4右は、CT撮影により得られたボリュームデータから抽出された大腸5に挿入された仮想内視鏡の視点Qcと仮想内視鏡画像ImgViの位置関係を表している。図4左に示すように、XY平面上に配置された内視鏡画像ImgEiは内視鏡の経路Path上の内視鏡先端Qcに設置された内視鏡の撮影部から撮影されたものである。図4右に示すように、XY平面上に投影された仮想内視鏡画像ImgViは大腸中心線CL上の仮想内視鏡の視点Qcに基づいて生成されたものである。
まず、位置算出手段105は、内視鏡画像ImgEiと比較仮想内視鏡画像ImgViを同じサイズかつ同じ解像度となるように適宜調整し、内視鏡画像ImgEiの各画素の位置Ppj(x,y,0)(1≦j≦n)と比較仮想内視鏡画像ImgViを構成する各画素の位置Qpj(x,y,0)がXY平面で1対1に対応するように正規化する。
その後、位置算出手段105が、仮想内視鏡画像ImgVi上の各画素にそれぞれ対応するボリュームデータの3次元座標系の位置を算出する。この方法を以下に説明する。
仮想内視鏡画像ImgVi上の位置Qpj(x,y,0) (1≦j≦n)に投影される画素値は、焦点距離をfとするとき、視点Qcから延びる以下のベクトルv上に位置する画素値である。なお、nは仮想内視鏡画像ImgViの画素数である。
仮想内視鏡画像を生成する工程で、仮想内視鏡画像生成手段103は、視点Qcから延びるベクトルv上の画素のうち、解剖学的構造物の内壁上の画素Q(x’,y’,z’)の画素値を投影する。例えば、ボリュームレンダリング法で仮想内視鏡を生成する際に、解剖学的構造物の内壁の不透明度を1.0に設定することにより、解剖学的構造物の内壁上の位置Qjの画素値を、Qpj(x,y,0)に投影できる。
この工程と併せて、仮想内視鏡画像生成手段103は、仮想内視鏡画像ImgViの全画素について各Qpj(x,y,0)に投影される解剖学的構造物の内壁上の位置Qj(x’,y’,z’)をそれぞれ抽出する。そして、視点QcとQj(x’,y’,z’)との間の距離tを以下の式(2)により算出し(1≦j≦n)、Qpj(x,y,0)と対応付けて記憶しておく。
ボリュームデータVの座標系に対する視点Qcの位置と向きをそれぞれ、位置ベクトルq、向き(行列)Rcとし、視点Q1から仮想内視鏡画像ImgVi上の位置Qpj(x,y,0)に延びるベクトルをvとし、視点Qcから3次元座標系の位置Qjとの距離をtjとすると、仮想内視鏡画像ImgViの点Qpj(x,y,0)に投影されている3次元座標系の位置Qjは以下の式(3)により特定することができる。
位置算出手段105は、メモリから、比較仮想内視鏡画像ImgViを構成する各画素Qpjのそれぞれに対して、対応付けられたボリュームデータの座標系におけるQの位置を取得する。そして、比較仮想内視鏡画像ImgViを構成する画素の位置Qpjに対応する画素の位置Q(x’,y’,z’)を、Qpj(x,y,0)とXY平面上の同位置に相当する内視鏡画像上の位置Ppj(x,y,0) に対応する3次元的な位置P(x’,y’,z’)として算出する。
位置算出手段105は、内視鏡画像ImgEi上の全ての画素の位置Ppj(1≦j≦n)に対して、同様にそれぞれ対応する3次元的な位置Pを算出する。そして、位置算出手段105は、各内視鏡画像上の位置Ppjと対応付けてそれぞれ対応する3次元的な位置Pをメモリに記憶する。
次いで、内視鏡ボリュームデータ生成手段106は、所定の位置から撮影された内視鏡画像ImgEiを構成する複数の画素Ppj(x,y,0)の個々の画素値とそれぞれの画素について算出された3次元的な位置に基づいて、所定の位置から撮影された内視鏡画像から内視鏡ボリュームデータVを生成する。本実施形態においては、内視鏡ボリュームデータ生成手段106は、図4左における内視鏡画像ImgEiの全ての画素について、各画素の位置Ppj(x,y,0)の画素値を、算出されたそれぞれの3次元座標系の位置Pの画素値として挿入する(S05)。
ここで、本実施形態では、複数の内視鏡画像ImgEi(1≦i≦m1)ごとにS03からS05の処理を行う。このため、例えば、内視鏡画像ImgE(kはmより小さい自然数)と内視鏡画像ImgEk+1等の連続する複数のフレームに解剖学的構造物の同じ領域が撮影されている。このため、一つの3次元座標系の位置P(x,y,z)に対して、内視鏡画像ImgEの位置Ppf1と内視鏡画像ImgEk+1の位置Ppf2等の複数の位置が対応付けられる。
1つの3次元座標系の位置に、異なる撮影位置から撮影された複数の内視鏡画像上の位置が対応付けられている場合の、内視鏡ボリュームデータ生成手段106の処理を説明する。ここでは、3次元座標系の位置Pに内視鏡画像ImgE上の位置Ppf1と、ImgEk+1上の位置Ppf2が対応付けられているとする。内視鏡ボリュームデータ生成手段106は、3次元座標系の位置Pと位置Ppf1、Ppf2とのそれぞれ距離に基づいて、位置Pf1、Pf2の画素値にそれぞれ距離に応じた色彩や輝度の補正を行う処理を行った後、位置Pf1、Pf2の画素値を平均した画素値を3次元座標系の位置Pの画素値として挿入する。
以上のように、内視鏡ボリュームデータ生成手段106は、3次元座標系の位置Pに対応付けられた、複数の内視鏡画像上の画素の画素値を処理した後に平均し、3次元座標系の位置Pの画素値として挿入する工程を、位置算出手段106により算出された3次元座標系の位置P(1≦f≦l)の全てに対して行って、内視鏡ボリュームデータVを生成する。なお、lは位置算出手段105により算出された、内視鏡画像ImgEiを構成する複数の画素Ppjにそれぞれ対応する3次元座標系の画素数である。
そして、内視鏡再構成画像生成手段107は、内視鏡画像から生成された内視鏡ボリュームデータVから再構成した内視鏡再構成画像ImgRを生成する(S06)。ここでは、内視鏡再構成画像ImgRとして周知の方法により図8に示すような伸長展開表示画像を生成する。
表示制御手段108は、図5に示すように、生成された内視鏡再構成画像ImgRをディスプレイ3に表示して本実施形態の内視鏡画像の処理を終了する(S07)。
以上のように、本実施形態によれば、内視鏡画像ImgEiからボリュームデータVを生成するため、CT装置等のモダリティでは得られない、質感や色合いの情報を有するボリュームデータを生成することができる。また、通常の奥行き方向の情報を持たない内視鏡画像からは得らなかった、内視鏡ボリュームデータVから再構成される画像表示または内視鏡ボリュームデータVを用いた画像解析が可能となる。つまり、解剖学的構造物の内部をよりリアルな質感や色合いで表すことができるという内視鏡画像の利点と、多様な画像解析及び画像表示を利用可能とするボリュームデータの利点を併せ持つ内視鏡ボリュームデータVを生成することにより、内視鏡画像を多様な画像診断又は画像解析に活用でき、より高精度な画像診断を支援することができる。
また、本実施形態によれば、内視鏡画像から生成された内視鏡ボリュームデータVから再構成した内視鏡再構成画像ImgRを生成する内視鏡再構成画像生成手段107と、生成された内視鏡再構成画像ImgRを表示装置に表示させる表示制御手段108を備えているため、従来の断層撮影から得たボリュームデータでは得られなかった、リアルな質感と色合いを持つ内視鏡再構成画像ImgRを観察することが可能となり、より高精度な画像診断を支援することができる。
また、内視鏡再構成画像生成手段107によって生成された内視鏡再構成画像ImgRが、解剖学的構造物の伸張展開画像であるため、従来の内視鏡画像では得られなかった、画像観察が可能となり、より高精度な画像診断を支援することができる。
また、解剖学的構造物の複数の所定の位置で得られた内視鏡画像に対して本実施形態の処理を行うことにより、複数の撮影位置から撮影した複数の内視鏡画像から解剖学的構造物のより広い範囲の画素値を取得し、解剖学的構造物の広範囲にわたり内視鏡ボリュームデータVを生成することができる。また、解剖学的構造物の凹凸や湾曲により、内視鏡画像に写らない領域が生じて、内視鏡ボリュームデータVに挿入すべき画素値が取得できない領域が生ずることを抑制できる。なお、1枚の内視鏡画像や内視鏡画像の所定の領域のみから内視鏡ボリュームデータVを作成してもよいが、内視鏡の画角や角度により、内視鏡ボリュームデータVの作成できる範囲が制限されるため、本実施形態のように、異なる所定の位置から撮影された複数の内視鏡画像から内視鏡ボリュームデータVを生成することが好ましい。また、異なる所定の位置は、対応付け処理や位置算出処理の計算付加を極端に増大させないように、解剖学的構造物の所望の観察対象領域の撮影漏れがない程度に、適当な間隔に離間するものであってよい。
また、本実施形態によれば、異なる撮影位置から撮影された複数の内視鏡画像上の位置を1つの3次元座標系の位置Pに対応付け、複数の内視鏡画像上の前記同一位置を示す位置の画素の画素値に基づいて、3次元座標系の位置Pの画素値を決定するため、より精度の高い画素値を有する内視鏡ボリュームデータVを生成することができる。また、前記同一位置を示す複数の画素の画素値に対して、算出された内視鏡の撮影部(固体撮像素子の取り付けられた位置)と解剖学的構造物の同一位置との間の距離に応じた補正を行うことで、内視鏡の撮影部や光源と解剖学的構造物との距離に応じて生ずる色合いや明るさ等の誤差を低減することができる。なお、複数の内視鏡画像上の同一位置を示す位置の画素の画素値から内視鏡ボリュームデータVに挿入する画素値を決定する方法は、1つの3次元座標系の位置Pに対応付けられた複数の画素の平均値を取るかわりに、算出された内視鏡の撮影部と解剖学的構造物の同一位置Pとの間の距離があらかじめ設定した距離から誤差の範囲内であるときの画素値を選択してもよく、複数の画素の種々の周知の方法を適宜適用できる。
また、本実施形態の変形例として、位置算出手段105は、所定の位置から撮影された内視鏡画像ImgEiを構成する複数の画素のうち所定の画素に対応付けて、複数の3次元的な位置を算出してもよい。内視鏡画像の所定の画素に対して、複数の3次元的な位置を算出して、空間的に広がりを持った位置と対応付けることができ、内視鏡画像を構成する画素値を複数の3次元的な位置に反映させることができるためである。なお、本変形例の場合、所定の画素の画素値が複数の位置に反映された内視鏡ボリュームデータVが生成されるため、複数の3次元的な位置は、互いに近傍の位置であることが好ましい。
例えば、内視鏡画像は、解剖学的構造物の内部のうち、内視鏡のCCDカメラ等の撮影部から近い領域は大きく写り、撮影部から遠い領域は小さく写るという性質を有するため、同じサイズの領域に対して、撮影部から遠い領域を表す画素数は、撮影部から近い領域を表す画素数よりも少なくなる。このため、生成されるボリュームデータは、内視鏡画像の撮影部Pcから遠い領域に対応する位置は、内視鏡画像の撮影部Pcから近い領域より対応付けられる内視鏡画像の位置が少なく、内視鏡画像の位置Ppjと対応する位置Pが内視鏡ボリュームデータVの3次元座標系でまばらにしか存在しない可能性がある。
このため、例えば図4に示すように、位置算出手段104は、内視鏡画像上の位置Pprに対応する位置を、式(2)に基づいて算出された3次元的な位置Pだけでなく、位置Pを中心として所定の半径の球形状の領域Rd内に存在する複数の位置Pr+1、r+2、・・・r+rm-1(rmは球形状の領域Rdに存在する画素数)と対応付け、内視鏡ボリュームデータ生成手段105は、内視鏡画像上の位置Pprの画素の画素値を、内視鏡画像上の位置Pprに対応付けられた位置P中心として所定の半径の球形状の領域内に存在する複数の位置Pr+1、r+2、・・・r+rm-1に対して挿入してもよい。内視鏡の撮影部Pcから遠い領域Rdに対応する画素に空間的に広がりを持った複数の3次元的な位置を算出して対応付けることにより、内視鏡の撮影部Pcから遠いために対応する内視鏡画像の画素が疎である領域の画素値を的確に補間し、内視鏡画像状の画素の画素値が挿入された内視鏡ボリュームデータVの画素が3次元座標系でまばらに配置されることを抑制し、各画素に画素値が反映された内視鏡ボリュームデータを生成することができる。
なお、本変形例は、図3に示すように、位置算出手段104が、内視鏡画像上の位置Pppに対応する位置を、式(2)に基づいて算出された3次元的な位置Pと対応付け、内視鏡ボリュームデータ生成手段105が、内視鏡画像上の位置Pprの画素の画素値を、内視鏡画像上の位置Pprに対応付けられた位置P中心として所定の半径の球形状の領域Rd内に存在する複数の位置Pr、r+1、r+2、・・・r+rm-1に対して挿入することによって実施してもよい。なお、位置Pr、r+1、r+2、・・・r+rm-1の各位置に対して、異なる撮影位置からそれぞれの位置を撮影した複数の内視鏡画像からも、対応する画素の画素値が得られている際には、それぞれの異なる撮影位置から撮影された複数の内視鏡画像から得られた画素値と重み付けして平均する等、適宜処理を行って位置Pr、r+1、r+2、・・・r+rm-1の画素値を挿入することができる。
また、複数の3次元的な位置を所定の画素に対応する複数の3次元的な位置を球形状に配置してもよく、所定の大きさを有する平面や曲面をなす形状に配置してもよく、立方体、直方体等の多面体や、円錐、多角錐等の立体形状に配置するものであってもよい。ただし、所定の画素の画素値が複数の位置に反映された内視鏡ボリュームデータVが生成されるため、複数の3次元的な位置は、有限の大きさをもった形状をなすように配置することが好ましい。
また、内視鏡再構成画像生成手段108によって生成された内視鏡再構成画像ImgRが、解剖学的構造物5の伸張展開画像または伸張断面画像のいずれかであってもよく、内視鏡ボリュームデータVから表示または再構成可能なものであれば、何でもよい。内視鏡ボリュームデータVから種々の表示方法および、再構成方法によって得られるこれらの内視鏡再構成画像ImgRにより、従来の内視鏡画像では得られなかった画像観察が可能となり、より高精度な画像診断を支援することができる。例えば、ボリュームレンダリング法で内視鏡再構成画像ImgRを生成することにより、従来、CT装置等から生成したボリュームデータVから生成したボリュームレンダリング画像と内視鏡画像の両方を参照して、解剖学的構造物の3次元的な形状と色や質感等の情報を観察していたところ、1つの内視鏡再構成画像ImgRにより、様々な視点から解剖学的構造物を観察することができ、解剖学的構造物の3次元的な形状と色や質感等の情報が容易に効率よく理解できる。
また、本実施形態において内視鏡画像取得手段101によって取得される内視鏡画像は、分光画像であってもよい。
なお、分光画像とは、固体撮像素子を用いた電子内視鏡装置により、主に可視光の波長領域を撮像して可視光領域画像を表す通常画像と、狭い波長帯域のみに光を透過させる複数種類の狭帯域バンドパスフィルタを通して消化器官(例えば胃等)の生体粘膜を撮像し上記生体粘膜の複数種類の狭帯域分光画像を得、これらの狭帯域分光画像を合成してなる診断用画像を生成する方式(Narrow Band Imaging-NBl)により得られる画像(特開2006−341078号公報参照)、または、内視鏡により固体撮像素子上に複数種類の広帯域バンドパスフィルタからなるRGBモザイクフィルタを配置して面同時方式で通常のカラー画像(通常画像ともいう)の撮像を行って、生体粘膜の撮像で得られた通常画像に基づく演算処理により上記狭帯域バンドパスフィルタを用いて得られた狭帯域分光画像と同等の画像を取得して上記のような診断用画像を作成する方式により得られる画像のどちらであってもよい(特開2003−93336号公報、特開2010−75368号公報参照)。
また、内視鏡画像として通常画像と狭帯域分光画像とを取得するNB1方式を本実施形態に適用した場合の応用例を以下に示す。NB1方式において、通常画像と狭帯域分光画像は、非常に短い時間間隔で、ほぼ同じ撮影位置および向きで撮影され、通常画像と同じ解剖学的構造物の位置を表す狭帯域分光画像が対応付けられて取得されている。つまり、通常画像ImgEと、通常画像ImgEに対応する狭帯域分光画像ImgDは同じ座標系に位置あわせができている。
このため、通常画像ImgEiと仮想内視鏡画像ImgViを用いて、第1の実施形態に記載した方法で通常画像ImgEを構成する画素Ppj(xj,yj,0)に対応する3次元座標系の位置P(x’,y’,z’)を算出し、通常画像ImgEiに対応する狭帯域分光画像ImgDi上の位置(xj,yj,0)に対しても同じ3次元座標系の位置(x’,y’,z’)を対応付けることができる。また、逆に、狭帯域分光画像ImgDiと仮想内視鏡画像ImgViを用いて、第1の実施形態に記載した方法で狭帯域分光画像ImgDiを構成する画素Ppj(xj,yj,0)に対応する3次元座標系Pの位置(x’,y’,z’)を算出し、狭帯域分光画像ImgDiに対応する通常画像ImgEiの位置(xj,yj,0)に対しても同じ3次元座標系Pの位置(x’,y’,z’)を対応付けてもよい。
そして、内視鏡ボリュームデータ生成手段106は、通常画像ImgEiの各画素の画素値を、第1の実施形態に記載した方法で3次元座標系の位置Pに挿入し、通常画像ImgEiによる内視鏡ボリュームデータVを生成する。また、狭帯域分光画像ImgDiの各画素の画素値を、第1の実施形態に記載した方法で3次元座標系Pに挿入し、狭帯域分光画像ImgDiから内視鏡ボリュームデータVEDを生成する。このように、通常画像ImgEiと狭帯域分光画像ImgDiは同じ座標系に位置合わせができているため、一方の画像上の各画素に対して位置算出処理を行い、この結果を、他方の画像上の各画素に対して適用すれば、計算負荷を低減し、計算の高速化を図ることができる。
また、狭帯域分光画像ImgDiから内視鏡再構成画像ImgRを生成すれば、解剖学的構造物の表面の色や質感の情報と形状を併せて捉えることができるボリュームレンダリング法等による内視鏡再構成画像ImgRにより、種々の解析及び表示をおこなうことができ、より高精度な診断に資する。
また、通常画像ImgEiに対する演算処理によって狭帯域バンドパスフィルタを用いて得られた狭帯域分光画像と同等の画像を作成する方式においても、上記同様、通常画像ImgEiおよび演算処理後の狭帯域分光画像ImgDiのいずれかにの各画素に対して位置算出処理を行い、この結果を、他方の画像上の各画素に対して適用して、同じ効果を得ることができる。
次に、本発明の第2の実施形態について以下に説明する。図5は、第2の実施形態の機能ブロック図である。本発明の第2の実施形態は、未対応領域抽出手段110および医用画像生成手段109をさらに備えたこと以外は、内視鏡画像処理装置1のハードウェア構成、機能ブロックは、第1の実施形態と同様である。
未対応領域抽出手段110は、内視鏡ボリュームデータVから、所定の位置から撮影された内視鏡画像を構成する画素に対応しない3次元的な位置からなる未対応領域Ruを抽出する。
ここで、内視鏡ボリュームデータVのうち内視鏡画像の画素と3次元的な位置を対応付けられていない領域を「未対応領域」と称する。例えば、第1の実施形態によれば、内視鏡画像を構成する画素に対応する3次元的な位置を算出することにより、所定の画素の画素値が3次元的な位置に反映された内視鏡ボリュームデータVが生成されるため、解剖学的構造物内のポリープ等の凹凸形状や湾曲形状のために内視鏡画像に映っていない領域等の解剖学的構造物内の未撮影領域は、内視鏡画像の画素と3次元的な位置を対応付けることができない。また、内視鏡画像の一部のみに本発明の内視鏡画像処理を行った場合など、内視鏡画像の画素と3次元的な位置の対応付けを行っていない場合もある。このような場合に、内視鏡画像を構成する画素に対応しない3次元的な位置からなる未対応領域Ruが生ずる可能性がある。
未対応領域抽出手段110は、本第2の実施形態では、解剖学的構造物を構成する画素のうち画素値が初期値から変更されていない画素を検出し、これらの抽出された画素からなる領域を未対応領域Ruとして抽出する。
また、医用画像生成手段109は、ストレージ2から取得したボリュームデータVから医用画像ImgRを生成する。本第2の実施形態では、医用画像ImgRとしてボリュームレンダリング法によりボリュームレンダリング画像を生成するものとする。医用画像ImgRは、ボリュームデータVから生成可能なものであれば何でもよいが、代表的なものとしてボリュームレンダリング法、サーフィスレンダリング法があげられる。
図6は、第2の実施形態の処理の流れを表すフローチャートである。図7は、第2の実施形態の処理により医用画像ImgR上に未対応領域Ruを表す指標Mを識別可能に表示した例を示す図である。図6および図7を用いて、第2の実施形態の処理を説明する。図6のうち、S11からS16までの処理は、先述の図2のS01からS06までの処理と同じであるため省略する。図3の斜線領域として例示するように、大腸の湾曲形状により内視鏡の撮影部の死角になった領域が未対応領域Ruである。未対応領域Ruは内視鏡画像Imgiに映っていないため、未対応領域Ruを構成する3次元座標系の位置には内視鏡画像Imgiを構成する画素Pのいずれも対応付けられない。
未対応領域抽出手段110は、内視鏡ボリュームデータVから、所定の位置から撮影された内視鏡画像を構成する画素に対応しない3次元的な位置からなる未対応領域Ruを抽出する(S17)。第1の実施形態と同様、ボリュームデータVと内視鏡ボリュームデータVは同一の座標系に位置合わせがされているため、未対応領域抽出手段110は、ボリュームデータVから抽出した解剖学的構造物を構成する各画素の位置を、そのまま、内視鏡ボリュームデータVの座標系の、解剖学的構造物を構成する各画素の位置に相当するものとして内視鏡ボリュームデータVにおいて解剖学的構造物を構成する画素を特定する。
そして、未対応領域抽出手段110は、内視鏡ボリュームデータVにおいて解剖学的構造物を構成する画素のうち、内視鏡ボリュームデータVから画素値が初期値から変更されていない画素を検出し、未対応領域Ruを構成する画素として抽出する。
医用画像生成手段109は、ストレージ2から取得したボリュームデータVから医用画像ImgRとしてボリュームレンダリング画像を生成する(S18)。
表示制御手段108は、未対応領域抽出手段110から3次元座標系における未対応領域Ruを取得し、ディスプレイ3上に、ボリュームデータVから生成された医用画像ImgRと併せて医用画像上に未対応領域Ruを表す指標Mを識別可能に表示させて第2の実施形態の処理を終了する(S19)。本実施形態では、表示制御手段108は、未対応領域Ruを構成する画素に対して、所定の色と透明度を設定し、図7に示すように、ボリュームレンダリング画像上に未対応領域Ruを表す指標Mを、解剖学的構造物のその他の領域と色を変えることで識別可能に表示する。
未対応領域を表す指標として、円、矩形、閉曲面など、様々な形状の周知の指標を用いることができ、さらに指標に色を付けたり、点滅させるなど様々な周知の表示方法を適用してもよい。なお、表示制御手段108が、未対応領域Ruを表す指標Mを、医用画像ImgRに合成してディスプレイ3に表示させてもよく、医用画像生成手段109が未対応領域Ruを表す指標Mを含んだ医用画像ImgRを生成し、表示制御手段108が、未対応領域Ruを表す指標Mを含んだ医用画像ImgRをディスプレイ3に表示させてもよい。
また、第2の実施形態の変形例として、表示制御手段108は、医用画像上でなく、内視鏡ボリュームデータVから生成された内視鏡再構成画像ImgR上に、未対応領域Ruを表す指標Mをさらに表示させるものであってもよい。なお、未対応領域Ruに相当する解剖学的構造物の形状を必ずしも識別可能に表示する必要はなく、例えば、未対応領域Ruを透明に表示してもよい。また、解剖学的構造物の形状モデル等と内視鏡ボリュームデータVの画素値が変更された領域の形状とをマッチングさせて、形状モデルに基づいて未対応領域Ruの形状を補完し、未対応領域Ruを構成する画素に適当な画素値を挿入してもよい。
第2の実施形態によれば、内視鏡ボリュームデータVのうち、内視鏡画像ImgEiから画素値を取得できなかった領域を認識することが容易である。また、医用画像ImgR上に未対応領域Ruを表す指標を表示した場合には、内視鏡によって撮影されていない領域であっても、抽出された大腸等の解剖学的構造物の外形を表すことができるため、内視鏡画像から画素値を取得できなかった領域の形状も併せて認識することができる。
上記の各実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。
この他、上記の実施形態におけるシステム構成、ハードウェア構成、処理フロー、モジュール構成、ユーザインターフェースや具体的処理内容等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。
また、対応付け手段104は、解剖学的構造物の所定の位置から撮影された内視鏡画像と、所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出できる方法であれば、周知の種々の方法を適用できる。例えば、所定の位置に内視鏡の先端部を配置して撮影した内視鏡画像を取得し、特許文献1または2に開示された方法により、所定の位置に配置された内視鏡の先端部の解剖学的構造物中の位置を検出して、該先端部の位置と対応する仮想内視鏡の視点の位置を取得し、先端部の位置と対応する仮想内視鏡の視点の位置に基づいて比較仮想内視鏡画像を抽出してもよい。また、解剖学的構造物の分岐部などのように識別可能な特徴を有する特定の領域を表す内視鏡画像と同領域を表す仮想内視鏡画像とをユーザによるマウス等の入力装置による操作により表示させ、両画像が対応する所定の位置を表示したことを示す入力をユーザ操作によるマウス等の入力装置等から受け付けて、入力信号を受け付けた際に表示されている内視鏡画像と仮想内視鏡画像を対応付けてもよい。
また、位置あわせを行う場合に、予め撮影された内視鏡画像を用いる替わりに、内視鏡を内視鏡画像処理装置1に接続し、内視鏡画像処理装置1に接続された内視鏡から得られる撮影信号を処理して内視鏡画像を生成する内視鏡画像形成部を備え、被検体の解剖学的構造物を内視鏡によりリアルタイムに撮影した画像信号を所定のフレームレートで繰り返し形成し、形成された内視鏡画像を使用してもよい。
モダリティは、上記のCT装置のほか、MRI装置等の仮想内視鏡画像を生成可能なボリュームデータを取得可能なモダリティを用いることができる。
仮想内視鏡画像生成手段103は、本内視鏡画像処理方法の適用対象である解剖学的構造物を抽出し、仮想内視鏡の視点の経路を設定できるものであれば、周知の解剖学的構造物の抽出方法及び仮想内視鏡の視点の経路の設定方法を適用可能である。一例として、解剖学的構造物が血管である場合、特開2004−313736号公報または特開2006−167287号公報に記載された方法で血管領域を抽出しかつ血管の中心線を設定してもよい。また、仮想内視鏡の視点の経路となる、解剖学的構造物の中心線の設定をボリュームレンダリング法等で表示された画像上で解剖学的構造物内の複数の点をマウス等の入力装置を用いて手動で入力し、入力された複数の点をスプライン補間して芯線としてもよい。
また、内視鏡画像処理装置1は、複数台のコンピュータにより、内視鏡画像取得手段、仮想内視鏡画像生成手段、対応付け手段、位置算出手段、内視鏡ボリュームデータ生成手段、内視鏡再構成画像生成手段、表示制御手段、医用画像生成手段および未対応領域抽出手段としての機能を分担する構成としてもよい。また、入力装置、ディスプレイ等、システムを構成する装置としては、公知のあらゆる装置を採用することができる。例えば、マウスに代えてジョイスティックを採用したり、ディスプレイに代えてタッチパネルを採用したりすることができる。
上記の各実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。
この他、上記の実施形態におけるシステム構成、ハードウェア構成、処理フロー、モジュール構成、ユーザインターフェースや具体的処理内容等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。
1 内視鏡画像処理装置、 2 ストレージ、 3 ディスプレイ
5 解剖学的構造物、
101 内視鏡画像取得手段
102 ボリュームデータ取得手段
103 仮想内視鏡画像生成手段
104 対応付け手段
105 位置算出手段
106 内視鏡ボリュームデータ生成手段
107 内視鏡再構成画像生成手段
108 表示制御手段
109 医用画像生成手段
110 未対応領域抽出手段

Claims (10)

  1. 被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像を取得する内視鏡画像取得手段と、
    断層撮影により取得された前記解剖学的構造物のボリュームデータを取得するボリュームデータ取得手段と、
    前記取得されたボリュームデータから前記解剖学的構造物の複数の仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、
    前記取得された複数の内視鏡画像のうち前記解剖学的構造物の所定の位置から撮影された内視鏡画像と、前記生成された複数の仮想内視鏡画像のうち前記所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付ける対応付け手段と、
    前記ボリュームデータから前記解剖学的構造物を構成する各画素の3次元的な位置を算出し、前記所定の位置から撮影された内視鏡画像と該内視鏡画像に対応付けられた前記比較仮想内視鏡画像に基づいて、前記所定の位置から撮影された内視鏡画像の各画素にそれぞれ対応する前記対応付けられた前記比較仮想内視鏡画像の各画素を特定し、該比較仮想内視鏡画像の各画素にそれぞれ対応する前記ボリュームデータ中の前記解剖学的構造物の表面上の各画素を特定し、前記内視鏡画像を構成する各画素に対応する3次元的な位置として、該内視鏡画像の各画素にそれぞれ対応する前記対応付けられた仮想内視鏡画像の各画素に対してそれぞれ特定された前記表面上の各画素の3次元的な位置を算出する位置算出手段と、
    前記解剖学的構造物を構成する各画素の3次元的な位置に位置する画素と前記内視鏡画像を構成する各画素に対応する3次元的な位置に位置する画素を含むさらなるボリュームデータを生成し、該さらなるボリュームデータにおいて、前記所定の位置から撮影された内視鏡画像を構成する各画素の画素値を該画素に対応する前記3次元的な位置に位置する画素の画素値とすることにより、前記所定の位置から撮影された内視鏡画像から内視鏡ボリュームデータを生成する内視鏡ボリュームデータ生成手段とを備え、
    前記内視鏡ボリュームデータ生成手段は、前記所定の位置から撮影された内視鏡画像を構成する画素のうち所定の画素の画素値を、該所定の画素に対応する前記3次元的な位置を含む所定の領域内の複数の画素の画素値として挿入することを特徴とする内視鏡画像処理装置。
  2. 前記内視鏡画像から生成された内視鏡ボリュームデータから再構成した内視鏡再構成画像を生成する内視鏡再構成画像生成手段と、
    前記生成された内視鏡再構成画像を表示装置に表示させる表示制御手段をさらに備えたことを特徴とする請求項1記載の内視鏡画像処理装置。
  3. 前記内視鏡ボリュームデータ生成手段は、前記所定の画素の画素値を、所定の半径の球形状である前記所定の領域内の複数の画素の画素値として挿入するものであることを特徴とする請求項1または2記載の内視鏡画像処理装置。
  4. 前記内視鏡画像取得手段によって取得される内視鏡画像は、分光画像であることを特徴とする請求項1から3のいずれか1項記載の内視鏡画像処理装置。
  5. 前記生成された内視鏡再構成画像は、前記解剖学的構造物の伸張展開画像または伸張断面画像であることを特徴とする請求項2から4のいずれか1項記載の内視鏡画像処理装置。
  6. 前記内視鏡ボリュームデータから、前記解剖学的構造物を構成する各画素の3次元的な位置に位置する画素のうち、前記所定の位置から撮影された内視鏡画像を構成する画素に対応する3次元的な位置に位置する画素を除いた画素からなる未対応領域を抽出する未対応領域抽出手段をさらに備えることを特徴とする請求項1から5のいずれか1項記載の内視鏡画像処理装置。
  7. 前記内視鏡ボリュームデータから、前記解剖学的構造物を構成する各画素の3次元的な位置に位置する画素のうち、前記所定の位置から撮影された内視鏡画像を構成する画素に対応する3次元的な位置に位置する画素を除いた画素からなる未対応領域を抽出する未対応領域抽出手段と、
    前記ボリュームデータから医用画像を生成する医用画像生成手段をさらに備え、
    前記表示制御手段は、前記ボリュームデータから生成された医用画像上に、前記未対応領域を表す指標をさらに表示させるものであることを特徴とする請求項項記載の内視鏡画像処理装置。
  8. 前記内視鏡ボリュームデータから、前記解剖学的構造物を構成する各画素の3次元的な位置に位置する画素のうち、前記所定の位置から撮影された内視鏡画像を構成する画素に対応する3次元的な位置に位置する画素を除いた画素からなる未対応領域を抽出する未対応領域抽出手段をさらに備え、
    前記表示制御手段は、前記内視鏡ボリュームデータから生成された内視鏡再構成画像上に、前記未対応領域を表す指標をさらに表示させるものであることを特徴とする請求項項記載の内視鏡画像処理装置。
  9. 内視鏡画像処理装置の作動方法であって、
    被検体の断層撮影により取得された前記被検体の解剖学的構造物のボリュームデータから前記解剖学的構造物の複数の仮想内視鏡画像を生成するステップと、
    前記被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像のうち前記解剖学的構造物の所定の位置から撮影された内視鏡画像と、前記生成された複数の仮想内視鏡画像のうち前記所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付けするステップと、
    前記ボリュームデータから前記解剖学的構造物を構成する各画素の3次元的な位置を算出し、前記所定の位置から撮影された内視鏡画像と該内視鏡画像に対応付けられた前記比較仮想内視鏡画像に基づいて、前記所定の位置から撮影された内視鏡画像の各画素にそれぞれ対応する前記対応付けられた前記比較仮想内視鏡画像の各画素を特定し、該比較仮想内視鏡画像の各画素にそれぞれ対応する前記ボリュームデータ中の前記解剖学的構造物の表面上の各画素を特定し、前記内視鏡画像を構成する各画素に対応する3次元的な位置として、該内視鏡画像の各画素にそれぞれ対応する前記対応付けられた仮想内視鏡画像の各画素に対してそれぞれ特定された前記表面上の各画素の3次元的な位置を算出するステップと、
    前記解剖学的構造物を構成する各画素の3次元的な位置に位置する画素と前記内視鏡画像を構成する各画素に対応する3次元的な位置に位置する画素を含むさらなるボリュームデータを生成し、該さらなるボリュームデータにおいて、前記所定の位置から撮影された内視鏡画像を構成する各画素の画素値を該画素に対応する前記3次元的な位置に位置する画素の画素値とすることにより、前記所定の位置から撮影された内視鏡画像から内視鏡ボリュームデータを生成するステップとを有する内視鏡画像処理装置の作動方法であって、
    前記ボリュームデータを生成するステップは、前記所定の位置から撮影された内視鏡画像を構成する画素のうち所定の画素の画素値を、該所定の画素に対応する前記3次元的な位置を含む所定の領域内の複数の画素の画素値として挿入するステップを有することを特徴とする内視鏡画像処理装置の作動方法。
  10. コンピュータを、
    被検体の解剖学的構造物に挿入された内視鏡により撮影された複数の内視鏡画像を取得する内視鏡画像取得手段と、
    断層撮影により取得された前記解剖学的構造物のボリュームデータを取得するボリュームデータ取得手段と、
    前記取得されたボリュームデータから前記解剖学的構造物の複数の仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、
    前記取得された複数の内視鏡画像のうち前記解剖学的構造物の所定の位置から撮影された内視鏡画像と、前記生成された複数の仮想内視鏡画像のうち前記所定の位置と対応する位置から撮影されたように仮想的に生成された比較仮想内視鏡画像を抽出して対応付ける対応付け手段と、
    前記ボリュームデータから前記解剖学的構造物を構成する各画素の3次元的な位置を算出し、前記所定の位置から撮影された内視鏡画像と該内視鏡画像に対応付けられた前記比較仮想内視鏡画像に基づいて、前記所定の位置から撮影された内視鏡画像の各画素にそれぞれ対応する前記対応付けられた前記比較仮想内視鏡画像の各画素を特定し、該比較仮想内視鏡画像の各画素にそれぞれ対応する前記ボリュームデータ中の前記解剖学的構造物の表面上の各画素を特定し、前記内視鏡画像を構成する各画素に対応する3次元的な位置として、該内視鏡画像の各画素にそれぞれ対応する前記対応付けられた仮想内視鏡画像の各画素に対してそれぞれ特定された前記表面上の各画素の3次元的な位置を算出する位置算出手段と、
    前記解剖学的構造物を構成する各画素の3次元的な位置に位置する画素と前記内視鏡画像を構成する各画素に対応する3次元的な位置に位置する画素を含むさらなるボリュームデータを生成し、該さらなるボリュームデータにおいて、前記所定の位置から撮影された内視鏡画像を構成する各画素の画素値を該画素に対応する前記3次元的な位置に位置する画素の画素値とすることにより、前記所定の位置から撮影された内視鏡画像から内視鏡ボリュームデータを生成する内視鏡ボリュームデータ生成手段として機能させる内視鏡画像処理プログラムであって、
    前記内視鏡ボリュームデータ生成手段は、前記所定の位置から撮影された内視鏡画像を構成する画素のうち所定の画素の画素値を、該所定の画素に対応する前記3次元的な位置を含む所定の領域内の複数の画素の画素値として挿入することを特徴とする内視鏡画像処理プログラム。
JP2010194939A 2010-08-31 2010-08-31 内視鏡画像処理装置および作動方法、並びに、プログラム Expired - Fee Related JP5675227B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010194939A JP5675227B2 (ja) 2010-08-31 2010-08-31 内視鏡画像処理装置および作動方法、並びに、プログラム
EP12197495.0A EP2573735B1 (en) 2010-08-31 2011-08-29 Endoscopic image processing device, method and program
EP20110179145 EP2423877A1 (en) 2010-08-31 2011-08-29 Endoscopic image processing device, method and program
US13/221,405 US8939892B2 (en) 2010-08-31 2011-08-30 Endoscopic image processing device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010194939A JP5675227B2 (ja) 2010-08-31 2010-08-31 内視鏡画像処理装置および作動方法、並びに、プログラム

Publications (2)

Publication Number Publication Date
JP2012050606A JP2012050606A (ja) 2012-03-15
JP5675227B2 true JP5675227B2 (ja) 2015-02-25

Family

ID=44651196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010194939A Expired - Fee Related JP5675227B2 (ja) 2010-08-31 2010-08-31 内視鏡画像処理装置および作動方法、並びに、プログラム

Country Status (3)

Country Link
US (1) US8939892B2 (ja)
EP (2) EP2573735B1 (ja)
JP (1) JP5675227B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010092919A1 (ja) * 2009-02-13 2010-08-19 株式会社 日立メディコ 医用画像表示方法、医用画像診断装置、及び医用画像表示装置
JP5932406B2 (ja) * 2012-03-09 2016-06-08 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
JP6301332B2 (ja) * 2012-08-14 2018-03-28 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 多数のビジョンシステムのレジストレーションのためのシステム及び方法
JP5930539B2 (ja) * 2012-09-12 2016-06-08 富士フイルム株式会社 医用画像表示装置および方法並びにプログラム
JP5934070B2 (ja) * 2012-09-26 2016-06-15 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
JP5961504B2 (ja) * 2012-09-26 2016-08-02 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
JP5715311B2 (ja) * 2013-03-06 2015-05-07 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
RU2692206C2 (ru) * 2013-05-09 2019-06-21 Конинклейке Филипс Н.В. Роботизированное управление эндоскопом на основе анатомических признаков
JP6026357B2 (ja) * 2013-06-13 2016-11-16 富士フイルム株式会社 仮想内視鏡画像生成装置および方法並びにプログラム
EP3127470A1 (en) 2014-06-18 2017-02-08 Olympus Corporation Image-processing device
US10424062B2 (en) * 2014-08-06 2019-09-24 Commonwealth Scientific And Industrial Research Organisation Representing an interior of a volume
US9547940B1 (en) * 2014-09-12 2017-01-17 University Of South Florida Systems and methods for providing augmented reality in minimally invasive surgery
JP7014509B2 (ja) * 2016-08-26 2022-02-01 キヤノンメディカルシステムズ株式会社 医用画像処理装置および内視鏡装置
US10485629B2 (en) * 2017-02-24 2019-11-26 Sony Olympus Medical Solutions Inc. Endoscope device
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
JP7148534B2 (ja) * 2017-10-31 2022-10-05 富士フイルム株式会社 画像処理装置、プログラム、及び内視鏡システム
JP7023196B2 (ja) * 2018-07-13 2022-02-21 富士フイルム株式会社 検査支援装置、方法およびプログラム
JP7071240B2 (ja) * 2018-07-26 2022-05-18 富士フイルム株式会社 検査支援装置、方法およびプログラム
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
GB2577718B (en) * 2018-10-03 2022-08-24 Cmr Surgical Ltd Feature identification
US10872690B2 (en) * 2018-11-28 2020-12-22 General Electric Company System and method for remote visualization of medical images
WO2023054366A1 (ja) * 2021-10-01 2023-04-06 富士フイルム株式会社 医療画像処理システム
CN114332844B (zh) * 2022-03-16 2022-07-01 武汉楚精灵医疗科技有限公司 医学图像的智能分类应用方法、装置、设备和存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3627066B2 (ja) * 1995-03-08 2005-03-09 株式会社日立メディコ パノラマ投影方法およびパノラマ投影装置
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
JPH11104072A (ja) * 1997-10-03 1999-04-20 Mitsubishi Electric Corp 医療支援システム
JP4200546B2 (ja) 1998-03-09 2008-12-24 株式会社日立メディコ 画像表示装置
US7477768B2 (en) * 1999-06-29 2009-01-13 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
JP4472085B2 (ja) 2000-01-26 2010-06-02 オリンパス株式会社 手術用ナビゲーションシステム
EP2319390B1 (en) * 2000-07-21 2016-04-20 Olympus Corporation Endoscope apparatus
JP2003093336A (ja) 2001-09-26 2003-04-02 Toshiba Corp 電子内視鏡装置
EP1499235B1 (en) 2002-04-17 2016-08-17 Covidien LP Endoscope structures and techniques for navigating to a target in branched structure
JP3984202B2 (ja) * 2003-04-02 2007-10-03 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、および、プログラム
JP2005211529A (ja) * 2004-01-30 2005-08-11 Olympus Corp 手技支援システム
JP2005334462A (ja) 2004-05-28 2005-12-08 Olympus Corp 立体視内視鏡システム
JP4018679B2 (ja) 2004-08-24 2007-12-05 ザイオソフト株式会社 レンダリング処理方法、レンダリング処理プログラム、レンダリング処理装置
JP2006061274A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc プログラム、及び内視鏡システム
JP4891541B2 (ja) 2004-12-17 2012-03-07 株式会社東芝 血管狭窄率解析システム
CN101065052B (zh) * 2004-12-27 2010-12-22 奥林巴斯株式会社 医疗图像处理装置和医疗图像处理方法
JP4409523B2 (ja) 2005-05-12 2010-02-03 オリンパスメディカルシステムズ株式会社 生体観測装置
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
DE102006003179B4 (de) * 2006-01-23 2009-02-26 Siemens Ag Verfahren und Vorrichtung zur virtuellen Endoskopie eines Hohlkanals
JP5188879B2 (ja) 2008-05-23 2013-04-24 オリンパスメディカルシステムズ株式会社 医療機器
JP4671204B2 (ja) * 2008-07-09 2011-04-13 ザイオソフト株式会社 医用画像表示制御装置及び医用画像表示制御プログラム
JP2010075368A (ja) 2008-09-25 2010-04-08 Fujifilm Corp 電子内視鏡装置および方法並びにプログラム

Also Published As

Publication number Publication date
EP2423877A1 (en) 2012-02-29
US20120053408A1 (en) 2012-03-01
EP2573735B1 (en) 2016-03-23
JP2012050606A (ja) 2012-03-15
EP2573735A1 (en) 2013-03-27
US8939892B2 (en) 2015-01-27

Similar Documents

Publication Publication Date Title
JP5675227B2 (ja) 内視鏡画像処理装置および作動方法、並びに、プログラム
US7502025B2 (en) Image processing method and program for visualization of tubular tissue
JP4676021B2 (ja) 診断支援装置、診断支援プログラムおよび診断支援方法
JP4450786B2 (ja) 画像処理方法および画像処理プログラム
US20130345509A1 (en) System and method for endoscopic measurement and mapping of internal organs, tumors and other objects
US9865079B2 (en) Virtual endoscopic image generated using an opacity curve
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
WO2009116465A1 (ja) 医用画像表示装置及び医用画像表示方法
JP7346693B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法、及びプログラム
US7310095B2 (en) Method, computer program product, and device for projecting an exfoliated picture
Liu et al. Global and local panoramic views for gastroscopy: an assisted method of gastroscopic lesion surveillance
JPH11104072A (ja) 医療支援システム
JP2013009956A (ja) 医用画像表示装置及び医用画像診断装置
JP5934070B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
CN113906479A (zh) 从局部深度图生成合成三维成像
JP4686279B2 (ja) 医用診断装置及び診断支援装置
JP5443238B2 (ja) 仮想内視鏡画像処理装置、方法、及びプログラム
Dimas et al. Endoscopic single-image size measurements
JP2011050590A (ja) 医用画像処理装置、及び医用画像処理プログラム
JP5554028B2 (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP7148534B2 (ja) 画像処理装置、プログラム、及び内視鏡システム
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
JP2011172692A (ja) 医用画像処理装置、及び医用画像処理プログラム
WO2019087969A1 (ja) 内視鏡システム、報知方法、及びプログラム
US20110285695A1 (en) Pictorial Representation in Virtual Endoscopy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R150 Certificate of patent or registration of utility model

Ref document number: 5675227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees