JP2006141734A - Image processing apparatus, method and program - Google Patents
Image processing apparatus, method and program Download PDFInfo
- Publication number
- JP2006141734A JP2006141734A JP2004336590A JP2004336590A JP2006141734A JP 2006141734 A JP2006141734 A JP 2006141734A JP 2004336590 A JP2004336590 A JP 2004336590A JP 2004336590 A JP2004336590 A JP 2004336590A JP 2006141734 A JP2006141734 A JP 2006141734A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- image processing
- pit
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、内視鏡装置などによる医用画像を基に、粘膜微細構造の配列を定量的に評価する、画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program for quantitatively evaluating the arrangement of mucous membrane microstructures based on a medical image obtained by an endoscope apparatus or the like.
近年、細長な挿入部を体腔内に挿入し、挿入部の先端部に設けられた固体撮像素子等を撮像手段に用いて体腔内臓器等をモニタ画面により観察し、検査あるいは診断することのできる内視鏡装置が広く用いられている。また、体腔内臓器等ヘ超音波を照射し、この超音波の反射あるいは透過度等により体腔内臓器等の状況をモニタ画面より観察し、検査あるいは診断することのできる超音波内視鏡装置も、広く用いられている。 In recent years, an elongated insertion part can be inserted into a body cavity, and a solid-state imaging device or the like provided at the distal end of the insertion part can be used as an imaging means to observe a body cavity organ or the like on a monitor screen for examination or diagnosis Endoscopic devices are widely used. There is also an ultrasonic endoscope apparatus that can irradiate an organ in a body cavity with ultrasonic waves, observe the state of the organs in the body cavity from a monitor screen based on the reflection or transmission of the ultrasonic waves, and inspect or diagnose it. Widely used.
これらの内視鏡装置を用いた最終的な診断は、医師の主観に依存している部分が多大であり、客観的・数値的な診断に直接結びつく内視鏡診断支援装置の実現が望まれていた。 The final diagnosis using these endoscopic devices largely depends on the subjectivity of the doctor, and it is desired to realize an endoscopic diagnosis support device that directly relates to objective and numerical diagnosis. It was.
内視鏡診断支援装置は、画像内における関心領域(ROI)から算出された様々な特徴量を用い、閾値処理あるいは統計的・非統計的識別器を用いて診断対象とする画像がそのような所見に分類されるのかを医師に提示することにより、客観的・数値的な診断の支援を行うものである。 The endoscopic diagnosis support apparatus uses various feature amounts calculated from a region of interest (ROI) in an image, and an image to be diagnosed using threshold processing or a statistical / nonstatistic discriminator It provides support for objective and numerical diagnosis by presenting to the doctor whether it is classified as a finding.
特徴量は、内視鏡画像上の様々な所見を反映した数値であり、画像処理手法を適用して得られるものである。内視鏡画像を用いた診断においては、透見血管像に見られる血管の拡張・蛇行や、胃小区の形態の大小・不整合・胃小区間の溝幅等、内視鏡画像における粘膜表面構造に関する所見が種々の疾患に対する診断の重要な要素となっており、これらに対しても画像処理手法を適用することで、特徴量として数値化することができる(例えば、特許文献1参照)。 The feature amount is a numerical value reflecting various findings on the endoscopic image, and is obtained by applying an image processing method. In the diagnosis using endoscopic images, mucosal surfaces in endoscopic images such as dilation and meandering of blood vessels seen in fluoroscopic blood vessel images, size and inconsistency of the shape of gastric subdivision, and groove width of gastric subsection Structural findings are important elements for diagnosis of various diseases, and these can also be quantified as feature quantities by applying an image processing technique (see, for example, Patent Document 1).
近年においては、公知のGaborフィルタを用いて算出されるGabor特徴に対し、内視鏡画像へ適用するための改良を加えた空間周波数解析により、粘膜表面構造の細かさや、粘膜表面構造が呈する模様の方向性などを、特徴量として数値化する内視鏡画像処理手法がある。この内視鏡画像処理手法を適用した特徴量算出方法として、病変の粘膜表面構造が複数の異なる所見を呈する場合、あるいは病変中に他の異なる腫瘍などが混在する場合においても、各所見を示す部位ごとに関心領域を設定すると共に、どのような所見、あるいは所見に関連して診断される腫瘍などが存在しているか、更には、それらがどのような割合で混在しているか、などを知ることができる方法が提案されている(例えば、特許文献2参照)。 In recent years, the fineness of the mucosal surface structure and the pattern of the mucosal surface structure exhibited by the spatial frequency analysis of the Gabor feature calculated using a known Gabor filter with improvements applied to endoscopic images. There is an endoscopic image processing technique for digitizing the directionality of the image as a feature amount. As a feature value calculation method using this endoscopic image processing method, each finding is shown even when the mucosal surface structure of the lesion presents multiple different findings or when other different tumors are mixed in the lesion. Set the region of interest for each part, and know what findings or tumors are diagnosed in relation to the findings, and what proportions are mixed. A method has been proposed (see, for example, Patent Document 2).
一方、最近の内視鏡装置においては、高画質化、固体撮像素子(CCD等)の高画素化、さらには通常の内視鏡と同等の外径と操作性を保ちつつ拡大観察(ズーミング)機能を有する拡大内視鏡の登場と普及によって、粘膜表面の極めて微細な毛細血管や胃・大腸の腺口形態(pit pattern)の観察が可能となってきており、μmレベルの極めて微細な構造に対する所見が得られ、病変種別やがんの進達度診断などに応用されてきている。具体的には、大腸のpit patternの観察(例えば、非特許文献1、及び、非特許文献2参照)や、食道の粘膜内微細血管所見であるIPCL(例えば、非特許文献3参照)が知られている。
大腸pit patternを用いた診断においては、pitの配列が重要な所見の一つとしてあげられる。例えば、正常な粘膜は、規則的I型、炎症や過形成性病変は規則的II型のpit配列を示すのに対し、腫瘍はIIIS型、IIIL型、IV型、V型のpit配列を示す。特に、規則的なIIIL型を示すものは良性の腫瘍であり、不規則的なV型を示すものは癌であることが多い。 In the diagnosis using the large intestine pit pattern, the arrangement of pits is one of the important findings. For example, normal mucosa, regular type I, while inflammation and hyperplastic lesions shows the pit sequence of regular type II, tumor III S type, III L-type, IV type, V-type pit sequences Indicates. In particular, those showing regular type III L are benign tumors, and those showing irregular type V are often cancers.
しかし、特許文献1においては、個々のpitの配置に基づく配列の規則性を評価する方法が示されていない。また、特許文献2においては、内視鏡画像処理手法として周波数解析による統計的処理を用いており、規則性以外の要素も反映した特徴量が算出されるため、pitの配列が直感的にわかりにくいという問題があった。
However,
そこで、本発明においては、個々のpit等の粘膜微細構造成分の相互関係を考慮した配置に基づく配列特徴量を用いた、定量的な配列評価を可能とする、画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。 Therefore, in the present invention, an image processing apparatus, an image processing method, and the like that enable quantitative array evaluation using array feature amounts based on an arrangement that takes into account the mutual relationship between mucosal microstructure components such as individual pits, An object of the present invention is to provide an image processing program.
本発明の画像処理装置は、被写体を撮像した画像信号に基づき、粘膜微細構造を抽出する微細構造抽出手段と、粘膜微細構造に基づき、粘膜微細構造の各要素における領域特徴量を算出する特徴量算出手段と、領域特徴量に基づき粘膜微細構造の配列を評価する配列評価手段とを備えている。 The image processing apparatus according to the present invention includes a fine structure extracting unit that extracts a mucosal microstructure based on an image signal obtained by imaging a subject, and a feature value that calculates a region feature value in each element of the mucosal microstructure based on the mucosal microstructure. Calculation means and arrangement evaluation means for evaluating the arrangement of the mucosal microstructure based on the region feature amount are provided.
個々のpit等の粘膜微細構造成分の相互関係を考慮した配置に基づく配列特徴量を用いた、定量的な配列評価を可能とする、画像処理装置、画像処理方法、及び画像処理プログラムを実現することができる。 To realize an image processing apparatus, an image processing method, and an image processing program capable of quantitative array evaluation using an array feature amount based on an arrangement that takes into consideration the mutual relationship of mucosal microstructure components such as individual pits be able to.
以下、図面を参照して本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1の実施の形態)
まず、図1に基づき、本発明の第1の実施の形態に係わる画像処理装置1の関連システムとのネットワーク構成について説明する。図1は、本発明の第1の実施の形態に係わる画像処理装置1と関連システムとのネットワーク構成を概略的に示した図である。図1に示すように、本実施の形態の画像処理装置1は、TCP/IPを通信プロトコルとするLAN2に接続されている。一方、生体内を撮像して画像信号を出力する内視鏡観察装置3も、内視鏡ファイリング装置4を介してLAN2に接続されている。内視鏡ファイリング装置4は、内視鏡観察装置3から画像信号を受信して画像データを生成するとともに、生成された画像データを蓄積する。すなわち、画像処理装置1は、内視鏡バッファリング装置4に蓄積されている画像データを、LAN2経由で取得する。
(First embodiment)
First, a network configuration with a related system of the
次に、画像処理装置1の全体構成について説明する。画像処理装置1は、図2に示すように、汎用のパーソナルコンピュータ11を中心に構成されており、キーボードとマウスとからなる操作装置12と、ハードディスクからなる記憶装置13と、CRT等からなる表示装置14とを備えている。図2は、画像処理装置1の全体構成を概略的に示した図である。操作装置12、記憶装置13、及び表示装置14は、それぞれパーソナルコンピュータ11と電気的に接続されている。
Next, the overall configuration of the
パーソナルコンピュータ11は、各種プログラムの実行処理や制御を行うCPU21と、各種処理プログラムやデータを記憶するメモリ22と、記憶装置13との間で情報の読み書きを行う外部記憶インターフェース(以下、I/Fと略す)23と、外部機器との間で情報の通信を行うネットワークカード24と、操作装置12から入力された操作信号を受信して必要なデータ処理を行う操作I/F25と、表示装置14へビデオ信号を出力するグラフィックボード26とを有しており、それぞれバス27と電気的に接続されている。従って、パーソナルコンピュータ11の各部は、バス27を介して相互に情報の送受信を行うことができる。
The
ネットワークカード24は、LAN2と電気的に接続されており、同じくLAN2に接続されている内視鏡ファイリング装置4との間で情報を送受信する。
The
外部記憶I/F23は、記憶装置13に格納されている画像処理プログラム28を読み込んでメモリ22に記憶させる。尚、画像処理プログラム28は、画像解析処理を実行するプログラムであって、複数の実行ファイル、又は動的リンクライブラリファイル、又は設定ファイルから構成される。メモリ22に記憶された画像処理プログラム28が実行されることで、CPU21が動作する。CPU21は、内視鏡ファイリング装置4から取得した画像データに対し、画像解析処理を行う。CPU21における各処理によって取得、生成される解析データ29は、メモリ22に記憶される。この解析データ29には、内視鏡ファイリング装置4から取得した画像データである原画像31が含まれる。更に、解析データ29には、二値化画像32と、pit重心画像33と、ボロノイ画像34と、領域特徴量35と、配列規則性特徴量36とが含まれる。これらの各画像32〜34、及び特徴量35、36については、後に詳述する。
The external storage I /
上述のように構成された、画像処理装置1の作用について説明する。本実施の形態においては、粘膜微細構造の配列を評価、例えば類円形・短桿状の大腸pit等の配列規則性を評価する場合について説明する。
The operation of the
まず、画像処理装置1は、内視鏡観察装置3で撮像された、大腸pit patternの原画像31を、画像ファイリング装置4を介して取得する。原画像31は、各画素が8ビットのRGBで構成されているカラー画像である。一般的に、内視鏡観察装置3を用いて大腸pit patternを観察する際には、粘膜表面構造を明瞭に観察するために、インジゴカルミン、ピオクタニン等の色素や染色剤と呼ばれる薬剤が用いられる。これらの薬剤が最も吸収するのはR画像の波長帯域であるため、原画像31のR画像に対して以降の画像解析処理を行うものとする。原画像31を取得すると、画像処理装置1の画像処理プログラム28が実行されて、図3のフローチャートに従って画像解析処理が実行される。
First, the
図3は、画像処理プログラム28による画像解析処理の手順を説明するフローチャートである。図3のフローチャートには、処理ステップに加えて、各処理ステップにおいて入出力される解析データ29も示している。まず、ステップS1において、原画像31に対して、二値化処理を施し、pit部分にあたる画素の画素値を1、それ以外の画素の画素値を0とした、二値化画像32を生成する。本実施の形態における二値化処理とは、原画像31における各画素の画素値について、画素値が予め設定された閾値以上であればその画素値を1とし、閾値よりも小さい値であればその画素値を0とする処理である。尚、二値化処理の前処理として、原画像31に対して逆ガンマ補正、シェーディング補正などを追加してもよい。また、原画像31として、公知のバンドパスフィルタ(BPF)によって、所望の波長帯域の信号のみを透過させて作成したフィルタリング画像を用い、該フィルタリング画像に対して二値化処理を行ってもよい。
FIG. 3 is a flowchart for explaining the procedure of image analysis processing by the
次に、ステップS2において、ステップS1で生成された二値化画像32にラベリング処理を施し、ラベリング画像37を生成する。本実施の形態におけるラベリング処理は次のように行われる。まず、二値化画像32を左上から右下へ順次走査し、ラベル付けされておらず、かつ画素値が1である画素を見つけ、任意の記号をラベルとして付与する。この時、他の画素に対して既に付与されているラベルは使用せず、未付与のラベルを当該画素に付与する。次に、ラベルを付与した画素と連結されており、かつ画素値が1である全ての画素に対して、同じラベルを付与する。画素値が1である全ての画素に対してラベルが付与されるまで、上記の走査とラベル付与を繰り返す。つまり、ラベリング処理によって、同一の連結部分に属している画素には同一のラベルが付与され、かつ、連結部分ごとに異なったラベルが付与される。尚、ステップS1及びステップS2の処理は、微細構造抽出手段に相当している。
Next, in step S2, the
次に、ステップS3において、ステップS2で生成されたラベリング画像37に対してpit重心算出処理を施し、pit重心画像33を生成する。本実施の形態におけるpit重心算出処理は、次のように行われる。まず、同一ラベルを付与された画素の位置座標の平均値を算出して、重心を求める。次に、重心にあたる画素の画素値を、当該画素に付与されているラベルとし、それ以外の画素の画素値を0として、pit重心画像33を得る。すなわち、pit重心画像33は、原画像31に含まれている、個々のpitの重心を示す画像である。
Next, in step S3, a pit centroid calculation process is performed on the
次に、ステップS4において、ステップS3で生成された、pit重心画像33をボロノイ分割してボロノイ図を作成し、ボロノイ画像34を生成する。ボロノイ図とは、ある平面を、平面上に配置された、母点と呼ばれる点の縄張りに分割する公知手法である、ボロノイ分割によって作成される図である。ボロノイ分割とは、複数の母点について、隣接する二つの母点の間に垂直二等分線を引き、各母点の周りをそのような線で囲んで多角形を形成することで、平面を多角形で分割する手法であり、高木隆司、「形の数理」、朝倉書店、1992年2月25日、p.43−p.47に詳しく示されている。尚、母点の周りに形成された多角形の各辺は、ボロノイ線と呼ばれる。また、ボロノイ分割によって分割された領域は、最近傍点の勢力範囲と呼ばれる。本実施の形態におけるボロノイ分割を、図4を用いて説明する。
Next, in step S4, the pit center of
図4は、ボロノイ画像34及びボロノイ画像34から算出される各種領域特徴量35を説明する図であり、図4(a)は、pit重心画像33の概略図、図4(b)は、図4(a)をボロノイ分割したボロノイ図、図4(c)は、各pitの勢力範囲を説明する概略図、図4(d)は、各pitの勢力範囲周囲長を説明する概略図、図4(e)は、各pitにおける隣接pitの重心間距離を説明する概略図である。図4(a)に示すように、ボロノイ画像34の基となるpit重心画像33には、5つのpitが存在しており、それぞれのpitの重心が、母点A41、母点B42、母点C43、母点D44、母点E45として示されている。
4A and 4B are diagrams for explaining the
まず、pit重心画像33の全ての画素について、最も近い母点が同じである画素が同じ領域に含まれるように、pit重心画像33を5つの領域に分割し、各領域の境界線上に位置する画素の画素値を1とし、それ以外の画素の画素値を0とする。以上の処理によって、図4(b)に示すようなボロノイ図を得る。本実施の形態においては、ボロノイ画像34はpit patternの各要素の勢力範囲を表している。すなわち、図4(c)に示すように、pit patternの各要素である5つのpitの勢力範囲は、母点A41を重心とするpitの勢力範囲が領域46、母点B42を重心とするpitの勢力範囲が領域47、母点C43を重心とするpitの勢力範囲が領域48、母点D44を重心とするpitの勢力範囲が領域49、母点E45を重心とするpitの勢力範囲が領域50、として表される。
First, for all the pixels in the
次に、ステップS5において、ステップS3で生成されたpit重心画像33と、ステップS4で生成されたボロノイ画像34を用いて、領域特徴量35を算出する。本実施の形態においては、領域特徴量35として、勢力範囲面積と、勢力範囲周囲長と、隣接pitの重心間距離と、隣接領域数とを算出する。これらの領域特徴量35は、次のようにして算出される。
Next, in step S5, a
勢力範囲面積とは、勢力範囲の画素数であって、pit毎に算出される。勢力範囲面積は、ボロノイ画像34において、pit毎に、勢力範囲に属する画素数をカウントして算出する。勢力範囲周囲長とは、勢力範囲を取り囲むボロノイ線長の総和であって、pit毎に算出される。例えば、母点A41を重心とするpitの勢力範囲長Alは、図4(d)に示すように、領域46を取り囲むボロノイ線の長さの総和として算出され、具体的には、領域46と領域47との境界であるボロノイ線の長さ(=a1)と、領域46と領域48との境界であるボロノイ線の長さ(=a2)と、領域46と領域49との境界であるボロノイ線の長さ(=a3)と、領域46と領域50との境界であるボロノイ線の長さ(=a4)との和となる。
The power range area is the number of pixels in the power range, and is calculated for each pit. The power range area is calculated by counting the number of pixels belonging to the power range for each pit in the
隣接pitの重心間距離とは、勢力範囲を接する二つのpitの重心間の距離である。例えば、母点A41を重心として領域46を勢力範囲とするpitは、図4(e)に示すように、母点B42を重心として領域47を勢力範囲とするpit、母点C43を重心として領域48を勢力範囲とするpit、母点D44を重心として領域49を勢力範囲とするpit、母点E45を重心として領域50を勢力範囲とするpit、の4つのpitと隣接している。従って、母点A41を重心とするpitの隣接pitの重心間距離は、母点A41と母点B42との距離(=d1)と、母点A41と母点C43との距離(=d2)と、母点A41と母点D44との距離(=d3)と、母点A41と母点E45との距離(=d4)との4つの値となる。
The distance between the centers of gravity of adjacent pits is the distance between the centers of gravity of two pits that touch the power range. For example, as shown in FIG. 4E, the pit having the center point A41 as the center of gravity and the
隣接領域数とは、任意の勢力範囲おいて、その周囲を取り囲むボロノイ線を境界として隣接している勢力範囲の数であって、pit毎に算出される。例えば、図4(e)に示すように、母点A41を重心として領域46を勢力範囲とするpitは、母点B42を重心として領域47を勢力範囲とするpit、母点C43を重心として領域48を勢力範囲とするpit、母点D44を重心として領域49を勢力範囲とするpit、母点E45を重心として領域50を勢力範囲とするpit、の4つのpitと隣接しているため、その隣接領域数は4となる。
The number of adjacent regions is the number of power ranges that are adjacent to each other in a given power range with a Voronoi line surrounding the periphery as a boundary, and is calculated for each pit. For example, as shown in FIG. 4 (e), a pit having a center point A41 as a center of gravity and an
尚、これらの領域特徴量35を算出する際には、ステップS3で生成されたpit重心画像33から各pitの重心を取得し、ステップS4で生成されたボロノイ画像34から各pitの勢力範囲を取得する。尚、ステップS3からステップS5の処理は、特徴量算出手段に相当している。
When calculating these region feature values 35, the centroid of each pit is acquired from the
次に、ステップS6において、ステップS5で算出された領域特徴量35を用いて、配列特徴量としての配列規則性特徴量36を算出する。本実施の形態においては、配列規則性特徴量36として、勢力範囲面積と、勢力範囲周囲長と、隣接pitの重心間距離と、隣接領域数のそれぞれの領域特徴量35における、変動係数と、歪度と、尖度とを算出する。
Next, in step S6, the arrangement
変動係数CVとは、特徴領域量35のばらつき度合いを評価する尺度であって、ばらつきが大きいほど大きな値をとる。すなわち、pitの配列が規則的であるほど小さな値をとり、不規則であるほど大きな値をとる。変動係数CVは式(1)にて算出される。
The variation coefficient CV is a scale for evaluating the degree of variation of the
[式1]
式(1)において、x(エックスバー)はn個の領域特徴量35の平均値、sは標準偏差である。標準偏差sは式(2)にて算出される。
[Formula 1]
In Expression (1), x (X bar) is an average value of n region feature values 35, and s is a standard deviation. The standard deviation s is calculated by equation (2).
[式2]
歪度β1とは、領域特徴量35の分布の非対称性を測る尺度であって、図5(a)に示すように、分布が右側に偏るときにはβ1<0、分布が左右対称のときにはβ1=0、分布が左側に偏るときにはβ1>0の値をとる。すなわち、pitの配列が規則的であるほど0に近い値をとる。図5(a)は、領域特徴量35の分布と歪度との関係を説明する図である。歪度β1は、式(3)にて算出される。
[Formula 2]
The skewness β 1 is a scale for measuring the asymmetry of the distribution of the
[式3]
式(3)において、nは領域特徴量35の個数、xiは領域特徴量35、x(エックスバー)はn個の領域特徴量35の平均値、sは標準偏差である。標準偏差sは、変動係数CVと同様に式(2)にて算出される。
[Formula 3]
In Expression (3), n is the number of region feature values 35, xi is the
尖度β2とは、領域特徴量35の分布のすその長さ(厚さ)を測る尺度であって、図5(b)に示すように、分布が正規分布よりも広くてすその長さが長いときにはβ2>3、分布が正規分布のときにはβ2=3、分布が正規分布よりも狭くてすその長さが短いときにはβ2<3の値をとる。すなわち、pitの配列が規則的であるほど0に近い値をとる。図5(b)は、領域特徴量35の分布と尖度との関係を説明する図である。尖度β2は、(数4)にて算出される。
The kurtosis β 2 is a scale for measuring the length (thickness) of the distribution of the
[式4]
式(4)において、nは領域特徴量35の個数、xiは領域特徴量35、x(エックスバー)はn個の領域特徴量35の平均値、sは標準偏差である。標準偏差sは、変動係数CVと同様に式(2)にて算出される。
[Formula 4]
In Expression (4), n is the number of area feature values 35, x i is an
次に、ステップS7において、ステップS6で算出された配列規則性特徴量36を用いて、配列を判定、具体的には配列規則性を評価する。配列規則性評価は、図6のフローチャートに従って行われる。ステップS7は、配列判定手段としての配列規則性判定手段を構成する。
Next, in step S7, the arrangement is determined using the arrangement
図6は、配列規則性評価の手順を説明するフローチャートである。まず、ステップS11において、配列規則性評価に用いる1個以上の配列規則性特徴量36を選択する。続いて、ステップS12において、ステップS11で選択された配列規則性特徴量36の個数を確認する。選択された配列規則性特徴量36の個数が1個の場合、続いてステップS13へ進み、ステップS11で選択された配列規則性特徴量36と、予め設定された閾値Thとを比較する。閾値Thは、配列規則性特徴量36毎に設定されており、pitの配列が規則的であるか否かの判定条件である。例えば、ステップS11で勢力範囲面積分布の変動係数が選択され、対応する閾値Thが0.3と設定されているとする。
FIG. 6 is a flowchart for explaining the sequence regularity evaluation procedure. First, in step S11, one or more arrangement
図7(a)(b)に示すように、図3のステップS6で算出された勢力範囲面積分布の変動係数が0.3未満の場合、ステップS14へ進み、図7(d)(e)に示すように、pit配列は規則的であると判定されて、配列規則性評価を終了する。一方、図7(c)に示すように、図3のステップS6で算出された勢力範囲面積分布の変動係数が0.3以上の場合、ステップS15へ進み、図7(f)に示すように、pit配列は不規則的であると判定されて、配列規則性評価を終了する。 As shown in FIGS. 7A and 7B, when the variation coefficient of the power range area distribution calculated in step S6 in FIG. 3 is less than 0.3, the process proceeds to step S14, and FIGS. As shown, the pit arrangement is determined to be regular, and the arrangement regularity evaluation ends. On the other hand, as shown in FIG. 7C, when the variation coefficient of the power range area distribution calculated in step S6 in FIG. 3 is 0.3 or more, the process proceeds to step S15, and as shown in FIG. , The pit arrangement is determined to be irregular, and the arrangement regularity evaluation is terminated.
図7は、勢力範囲面積分布の変動係数の異なるpit patternに対する配列規則性評価を説明する図であって、図7(a)と、図7(b)とは、勢力範囲面積分布の変動係数が0.3未満のボロノイ画像34、図7(d)は、図7(a)に示したボロノイ画像34pit patternを説明する概略図、図7(e)は、図7(b)に示したボロノイ画像34のpit patternを説明する概略図、図7(c)は、勢力範囲面積分布の変動係数が0.3以上のボロノイ画像34、図7(f)は、図7(c)に示したボロノイ画像34のpit patternを説明する概略図である。
7A and 7B are diagrams for explaining the evaluation of arrangement regularity with respect to a pit pattern having a different coefficient of variation of the power range area distribution. FIGS. 7A and 7B show the coefficient of variation of the power range area distribution. Is a
ステップS12において、ステップS11で選択された配列規則性特徴量36の個数が2個以上である場合、続いてステップS16へ進む。ステップS16において、ステップS11で選択された複数の配列規則性特徴量36に対して識別器を適用する。識別器は、判別分析を用いて、識別器を適応するデータを、予め定義されたクラスと呼ばれるグループの何れかに分類するものである。既に特定のクラスに分類されているデータの特徴量を用いて、特徴量を説明変数としてクラスに分類するための特徴量ベクトルが算出されており、この特徴量ベクトルにクラスが未知のデータの特徴量を適用することで、当該データを何れかのクラスに分類する。また、当該データが、各クラスに対してどの程度類似しているかを示す指標(クラスからの距離と呼ばれる)を算出することも可能である。クラスは、何らかの属性が類似しているデータの集合であれば、自由に定義することができる。本実施の形態においては、配列規則性を属性とし、大腸粘膜におけるpit patternの整群と不整群とをクラスとして定義している。また、配列規則性特徴量36を説明変数として用いている。
In step S12, when the number of arrangement
識別器は、識別の方法から、Fisherの線形判別関数に代表される統計的識別器と、ニューラルネットワークに代表される非統計的識別器とに大別される。分類対象となるデータの特徴量の分布の型(例えば、多変量正規分布)や、識別器自体の性能等に応じて、適宜選択して使用する。本実施の形態においては、識別器として、Fisherの線形判別関数を用いており、規則的配列クラスの判別関数g1と、不規則的配列クラスの判別関数g2とが識別器として定義されている。従って、ステップS16では、ステップS11で選択された複数の配列規則性特徴量36に対して、判別関数g1及び、判別関数g2を適用する。
The classifiers are roughly classified into a statistical classifier represented by Fisher's linear discriminant function and a non-statistical classifier represented by a neural network. It is appropriately selected and used in accordance with the distribution type (for example, multivariate normal distribution) of the feature quantity of the data to be classified and the performance of the classifier itself. In the present embodiment, Fisher's linear discriminant function is used as a discriminator, and a discriminant function g1 for a regular array class and a discriminant function g2 for an irregular array class are defined as discriminators. Accordingly, in step S16, the discriminant function g1 and the discriminant function g2 are applied to the plurality of arrangement
引き続き、ステップS17において、ステップS16での識別器の適用結果を確認する。判別関数g1の適用結果が、判別関数g2の適用結果よりも大きいとき、ステップS14へ進み、pit配列は規則的であると判定されて、配列規則性評価を終了する。一方、判別関数g1の適用結果が、判別関数g2の適用結果以下のとき、ステップS15へ進み、pit配列は不規則的であると判定されて、配列規則性評価を終了する。図6のフローチャートに示した配列規則性評価を終了すると、図3のフローチャートに示した画像解析処理が全て終了する。尚、ステップS6及びステップS7の処理は、配列評価手段としての配列規則性評価手段に相当している。 Subsequently, in step S17, the application result of the discriminator in step S16 is confirmed. When the application result of the discriminant function g1 is larger than the application result of the discriminant function g2, the process proceeds to step S14, where it is determined that the pit arrangement is regular, and the arrangement regularity evaluation ends. On the other hand, when the application result of the discriminant function g1 is equal to or less than the application result of the discriminant function g2, the process proceeds to step S15, where it is determined that the pit arrangement is irregular, and the arrangement regularity evaluation ends. When the arrangement regularity evaluation shown in the flowchart of FIG. 6 is finished, all the image analysis processing shown in the flowchart of FIG. 3 are finished. Note that the processing of step S6 and step S7 corresponds to an array regularity evaluation means as an array evaluation means.
以上の処理によって、画像処理装置1は、内視鏡観察装置3で撮像された原画像31を、画像ファイリング装置4を介して取得し、原画像31における大腸pit patternの配列規則性を評価することができる。
Through the above processing, the
このように、本実施の形態の画像処理装置1では、隣接pitとの関係を考慮してpitの配列規則性特徴量を定量的に算出することができ、粘膜表面微細構造の配列規則性特徴量を基にした配列規則性評価が可能になる。
As described above, in the
尚、本実施の形態においては、大腸粘膜におけるpitの配列規則性の評価について説明したが、例えば食道の微細血管(IPCL)や、胃の粘膜におけるpitについても同様に配列規則性を評価することができる。 In the present embodiment, the evaluation of the arrangement regularity of pits in the large intestine mucosa has been described. For example, the arrangement regularity of pits in the esophageal fine blood vessels (IPCL) and the gastric mucosa is also evaluated. Can do.
(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。画像処理装置1の全体構成は、画像処理プログラム28の処理内容が異なる点と、画像処理プログラム28を実行することによって取得、生成され、メモリ22に記憶される解析データとして、pit重心画像33に換わってpit芯線画像53が含まれる点を除き、第1の実施の形態と同一であるため、ここでは、特徴となる作用についてのみ説明し、同じ構成要素については同じ符号を付して説明は省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The overall configuration of the
本実施の形態においては、粘膜微細構造の配列の評価、例えば桿状の大腸pit等の配列規則性を評価する場合について説明する。まず、画像処理装置1は、第1の実施の形態と同様に、内視鏡観察装置3で撮像された、大腸pit patternの原画像31を、画像ファイリング装置4を介して取得する。原画像31を取得すると、画像処理装置1の画像処理プログラム28が実行されて、図8のフローチャートに従って画像解析処理が実行される。
In the present embodiment, a description will be given of the evaluation of the arrangement of the mucosal microstructure, for example, the evaluation of the arrangement regularity such as a bowl-shaped colon pit. First, the
図8は、画像処理プログラム28による画像解析処理の手順を説明するフローチャートである。図8のフローチャートには、処理ステップに加えて、各処理ステップにおいて入出力される解析データも示している。まず、ステップS21において、原画像31に対して二値化処理を施し、二値化画像32を生成する。次に、ステップS22において、ステップS21で生成された二値化画像32に対してラベリング処理を施し、ラベリング画像37を生成する。ステップS21における二値化処理と、ステップS22におけるラベリング処理とは、それぞれ図3を用いて説明した、第1の実施の形態における画像解析処理の、ステップS1の二値化処理、及び、ステップS2のラベリング処理と同一の処理であるので、具体的な処理に関する説明を省略する。
FIG. 8 is a flowchart for explaining the procedure of image analysis processing by the
次に、ステップS23において、ステップS22で生成されたラベリング画像37に対してpit芯線を算出するための細線化処理を施し、pit patternの幅が1画素である細線画像に変換して、細線化画像、すなわち、pit芯線画像53を生成する。pit芯線画像53は、pit patternの芯線を表す画像であって、芯線にあたる画素の画素値は、当該画素に付与されているラベルとされ、それ以外の画素の画素値は0とされている。ここで、細線化処理とは、公知の処理であって、本実施の形態においては次のように行われる。ラベリング画像37において、同一ラベルが付与された画素の集まりが成す領域のそれぞれについて、その領域における画素の連結性が保持される限り、その領域の輪郭画素、すなわち、画素値が0である画素と隣接している画素の画素値を次々と0にしていく。つまり、同一ラベルが付与された画素の集まりが成す領域を、外側から順番に、一画素層ずつ画素値を0にしていき、領域の線幅が1になるまで領域の線幅を減少させる。上記処理によって、線幅1のpit芯線画像53を生成する。
Next, in step S23, the
次に、ステップS24において、ステップS23で生成されたpit芯線画像53をボロノイ分割してボロノイ図を生成する。本実施の形態におけるボロノイ分割は、次のように行われる。図9は、ボロノイ分割を説明する図であり、図9(a)は、pitの重心を母点として生成したボロノイ画像の概略図、図9(b)及び図9(c)は、pit芯線画像53からボロノイ画像54を作成する途中過程を説明する概略図、図9(d)は、ボロノイ画像54の概略図である。 Next, in step S24, the pit core line image 53 generated in step S23 is Voronoi divided to generate a Voronoi diagram. Voronoi division in the present embodiment is performed as follows. FIG. 9 is a diagram for explaining Voronoi division. FIG. 9A is a schematic diagram of a Voronoi image generated using the center of gravity of pit as a generating point, and FIGS. 9B and 9C are pit core lines. FIG. 9D is a schematic diagram for explaining the intermediate process of creating the Voronoi image 54 from the image 53, and FIG. 9D is a schematic diagram of the Voronoi image 54.
まず、pit芯線画像53において、画素値としてラベルが付与されている画素を母点とし、全ての画素について、最も近い母点を算出する。次に、最も近い母点が同じである画素が同じ領域に含まれるように、pit芯線画像53を母点の数と同じ数の領域にボロノイ分割する。本実施の形態においては、pit芯線画像53を左上から右下へ順次走査しながら、画素値としてラベルが付与されている画素を、三画素おきに抽出して母点とし、この母点に関して上記のボロノイ分割して、図9(b)に示すようなボロノイ図を得る。 First, in the pit core line image 53, a pixel assigned a label as a pixel value is used as a generating point, and the nearest generating point is calculated for all pixels. Next, the pit core line image 53 is Voronoi divided into the same number of regions as the number of generating points so that pixels having the same nearest generating point are included in the same region. In this embodiment, while sequentially scanning the pit core line image 53 from the upper left to the lower right, the pixels assigned with the labels as the pixel values are extracted every three pixels as the mother points, and the above-mentioned mother points are related to the above points. The Voronoi diagram as shown in FIG. 9B is obtained.
次に、ステップS25において、ステップS24で生成されたボロノイ図に対して、同一ラベル間境界線消去処理を施して、ボロノイ画像54を生成する。同一ラベル間境界線消去処理とは、図9(c)に示すように、ステップS24で生成されたボロノイ図において、画素値が同じ母点の領域を隔てる境界線に位置する画素値を0とする処理である。この処理によって、図9(d)に示すような、pit patternの各要素の勢力範囲を表すボロノイ画像54が生成される。桿状の大腸pitの場合、第1の実施の形態で説明したように、pitの重心を母点としてボロノイ分割した場合、図9(a)に示すように、pitの勢力範囲にpit全体を含むことができない場合がある。しかし、本実施の形態においては、pitの芯線を母点としてボロノイ分割を行うことで、pitの形状に拠らず、常にpitの勢力範囲にpit全体が含まれる、図9(d)に示すようなボロノイ画像54を得ることができる。 Next, in step S25, the Voronoi diagram generated in step S24 is subjected to the same inter-label boundary line erasing process to generate a Voronoi image 54. As shown in FIG. 9C, the same-label boundary line erasure processing is performed by setting the pixel value located on the boundary line separating the regions of the same mother point in the Voronoi diagram generated in step S24 to 0. It is processing to do. By this process, a Voronoi image 54 representing the power range of each element of the pit pattern as shown in FIG. 9D is generated. In the case of a bowl-shaped large intestine pit, as described in the first embodiment, when Voronoi is divided using the center of gravity of the pit as a generating point, as shown in FIG. It may not be possible. However, in this embodiment, by performing Voronoi division using the core line of the pit as a generating point, the entire pit is always included in the pit's power range regardless of the shape of the pit, as shown in FIG. Such a Voronoi image 54 can be obtained.
次に、ステップS26において、ステップS25で生成されたボロノイ画像54を用いて、領域特徴量35を算出する。ステップS26における領域特徴量算出処理は、図3を用いて説明した、第1の実施の形態における画像解析処理の、ステップS5における領域特徴量算出処理と同一の処理であるので、具体的な処理に関する説明を省略する。
Next, in step S26, the
次に、ステップS27において、ステップS26において算出された領域特徴量35を用いて、配列規則性特徴量36を算出する。ステップS27における配列規則性特徴量算出処理は、図3を用いて説明した、第1の実施の形態における画像解析処理の、ステップS6における配列規則性特徴量算出処理と同一の処理であるので、具体的な処理に関する説明を省略する。
Next, in step S27, the arrangement
次に、ステップS28において、ステップS27で算出された配列規則性特徴量36を用いて、配列規則性を評価する。配列規則性評価は、第1の実施の形態と同様に、図6のフローチャートに従って行われる。図6のフローチャートに示した配列規則性評価を終了すると、図8のフローチャートに示した画像解析処理が全て終了する。
Next, in step S28, the arrangement regularity is evaluated using the arrangement
以上の処理によって、画像処理装置1は、内視鏡観察装置3で撮像された原画像31を、画像ファイリング装置4を介して取得し、原画像31における大腸pit patternの配列規則性を評価することができる。
Through the above processing, the
このように、本実施の形態の画像処理装置1では、隣接pitとの関係を考慮してpitの配列規則性特徴量を定量的に算出することができ、粘膜表面微細構造の配列規則性特徴量を基にした配列規則性評価が可能になる。また、pitの形状を反映させた領域分割を行うことで、線状の構造要素についても良好な配列規則性評価が可能になる。
As described above, in the
尚、本実施の形態においては、図8のステップS23で、pit芯線画像53を生成したが、pitの輪郭線画像を生成し、この画像をステップS24以降に適用するように構成してもよい。輪郭線画像とは、pitの輪郭を表す画像であって、ステップS22で生成されたラベリング画像37において、同一ラベルが付与された画素の集まりが成す領域のそれぞれについて、その領域の輪郭画素、すなわち、画素値が0である画素が八近傍に存在する画素の画素値をラベルのままとし、輪郭画素以外の画素の画素値を0とすることで得られる。
In the present embodiment, the pit core line image 53 is generated in step S23 of FIG. 8, but a contour image of the pit may be generated, and this image may be applied to step S24 and subsequent steps. . The contour image is an image representing the contour of the pit, and in the
また、本実施の形態においては、大腸粘膜におけるpitの配列規則性の評価について説明したが、第1の実施の形態同様、例えば食道の微細血管(IPCL)や、胃の粘膜におけるpitについても同様に配列規則性を評価することができる。 In this embodiment, the evaluation of the arrangement regularity of pits in the large intestine mucosa has been described. However, as in the first embodiment, for example, the same applies to pits in the esophagus microvessel (IPCL) and gastric mucosa. The arrangement regularity can be evaluated.
なお、本実施の形態においては、粘膜表面微細構造の配列規則性を例に説明したが、本実施の形態における一連の画像解析手法は粘膜表面微細構造の分布状態を評価し得るものであり、これにとどまるものではない。例えば、共に規則性の認められない2種類のパターンの分布に対しても、各構造成分の勢力範囲の持つ領域特徴量が異なるものであれば、識別することが可能である。 In the present embodiment, the arrangement regularity of the mucosal surface fine structure has been described as an example, but a series of image analysis techniques in the present embodiment can evaluate the distribution state of the mucosal surface fine structure, This doesn't stop there. For example, it is possible to identify the distribution of two types of patterns in which regularity is not recognized as long as the region feature amounts of the range of influence of each structural component are different.
以上の実施の形態から、次の付記項に記載の点に特徴がある。 From the above embodiment, there is a feature in the points described in the following additional items.
(付記項1)生体粘膜表面画像を撮像した一つ以上の色信号からなる医用画像を入力するステップと、
前記医用画像から粘膜微細構造を抽出するステップと、
前記粘膜微細構造の持つ領域特徴量を算出するステップと、
前記領域特徴量から粘膜構造の配列規則性を評価するステップと、
を含むことを特徴とする医用画像処理方法。
(Supplementary Item 1) Inputting a medical image composed of one or more color signals obtained by imaging a biological mucosal surface image;
Extracting a mucosal microstructure from the medical image;
Calculating a region feature amount of the mucosal microstructure;
Evaluating the arrangement regularity of the mucosal structure from the region feature amount;
A medical image processing method comprising:
(付記項2)前記粘膜微細構造を抽出するステップが、前記医用画像の少なくとも一つの色信号から二値化抽出するステップを含むことを特徴とする、付記項1に記載の医用画像処理方法。
(Additional Item 2) The medical image processing method according to
(付記項3)前記粘膜微細構造を抽出するステップが、前記粘膜微細構造の各要素を識別するステップをさらに含み、前記各要素を識別するステップにおいて識別された要素ごとに一つ以上の構造情報を抽出することを特徴とする、付記項1又は付記項2に記載の医用画像処理方法。
(Additional Item 3) The step of extracting the mucosal microstructure further includes the step of identifying each element of the mucosal microstructure, and one or more pieces of structural information for each element identified in the step of identifying each element The medical image processing method according to
(付記項4)前記領域特徴量を算出するステップが、前記各要素の構造情報に領域を割り当てるステップをさらに含み、前記割り当てられた領域から、一つ以上の領域特徴量を算出することを特徴とする、付記項4に記載の医用画像処理方法。
(Supplementary Item 4) The step of calculating the region feature amount further includes a step of assigning a region to the structure information of each element, and calculating one or more region feature amounts from the assigned region. The medical image processing method according to
(付記項5)前記各要素の構造情報に領域を割り当てるステップが、前記各要素の構造特徴のボロノイ図により領域を割り当てることを特徴とする、付記項4に記載の医用画像処理方法。
(Additional Item 5) The medical image processing method according to
(付記項6)前記配列規則性を評価するステップが、前記一つ以上の領域特徴量を用いて画像における一つ以上の配列規則性特徴量を算出するステップをさらに含み、前記配列規則性特徴量により、配列規則性を評価することを特徴とする、付記項1乃至付記項5の何れかに記載の医用画像処理方法。
(Supplementary Item 6) The step of evaluating the arrangement regularity further includes a step of calculating one or more arrangement regularity features in an image using the one or more region feature amounts, and the
(付記項7)前記前記粘膜微細構造の各要素を識別するステップが、前記粘膜微細構造のラベリング処理により識別することを特徴とする、付記項3に記載の医用画像処理方方法。
(Additional Item 7) The medical image processing method according to
(付記項8)前記構造情報が、前記粘膜微細構造の各要素の重心であることを特徴とする、付記項3又は付記項7に記載の医用画像処理方方法。
(Additional Item 8) The medical image processing method according to
(付記項9)前記構造情報が、前記粘膜微細構造の各要素の細線であることを特徴とする、付記項3又は付記項7に記載の医用画像処理方方法。
(Additional Item 9) The medical image processing method according to
(付記項10)前記構造情報が、前記粘膜微細構造の各要素の輪郭線であることを特徴とする、付記項3又は付記項7に記載の医用画像処理方方法。
(Additional Item 10) The medical image processing method according to
(付記項11)前記領域特徴量が、前記割り当てられたボロノイ領域の面積であることを特徴とする、付記項5に記載の医用画像処理方法。
(Additional Item 11) The medical image processing method according to
(付記項12)前記領域特徴量が、前記割り当てられたボロノイ領域の周囲長であることを特徴とする、付記項5に記載の医用画像処理方法。
(Additional Item 12) The medical image processing method according to
(付記項13)前記領域特徴量が、前記割り当てられたボロノイ領域の重心間距離であることを特徴とする、付記項5に記載の医用画像処理方法。
(Additional Item 13) The medical image processing method according to
(付記項14)前記配列規則性特徴量を算出するステップが、前記領域特徴量分布のばらつきの大きさを表す変動係数を算出することを特徴とする、付記項6に記載の医用画像処理方法。
(Additional Item 14) The medical image processing method according to
(付記項15)前記配列規則性特徴量を算出するステップが、前記領域特徴量分布の非対称性を表す歪度を算出することを特徴とする、付記項6に記載の医用画像処理方法。
(Additional Item 15) The medical image processing method according to
(付記項16)前記配列規則性特徴量を算出するステップが、前記領域特徴量分布のすその長さを表す尖度を算出することを特徴とする、付記項6に記載の医用画像処理方法。
(Additional Item 16) The medical image processing method according to
(付記項17)前記配列規則性特徴量により配列規則性を評価するステップが、前記一つ以上の配列規則性特徴量を所定閾値と比較することにより、前記粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判断することを特徴とする、付記項6、付記項14、付記項15、付記項16のいずれかに記載の医用画像処理方法。
(Supplementary Item 17) The step of evaluating the arrangement regularity based on the arrangement regularity feature amount compares the one or more arrangement regularity feature amounts with a predetermined threshold value, whereby the arrangement of each element of the mucosal microstructure is determined. Item 18. The medical image processing method according to any one of
(付記項18)前記配列規則性特徴量により配列規則性を評価するステップが、前記二つ以上の配列規則性特徴量を識別器に適用することにより、前記粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判断することを特徴とする、付記項6、付記項14、付記項15、付記項16のいずれかに記載の医用画像処理方法。
(Supplementary Item 18) The step of evaluating the arrangement regularity based on the arrangement regularity feature amount applies the two or more arrangement regularity feature amounts to a discriminator, whereby the arrangement of each element of the mucosal microstructure is changed. Item 18. The medical image processing method according to any one of
(付記項19)前記粘膜微細構造が、前記医用画像における表面腺口形態(pit pattern)であることを特徴とする、付記項1乃至付記項18のいずれかに記載の医用画像処理方法。
(Additional Item 19) The medical image processing method according to any one of
(付記項20)前記粘膜微細構造が、前記医用画像における微細血管であることを特徴とする、付記項1乃至付記項18のいずれかに記載の医用画像処理方法。
(Additional Item 20) The medical image processing method according to any one of
(付記項21)生体粘膜表面を撮像した1つ以上の色信号からなる医用画像を入力する画像入力ステップと、
前記医用画像上の粘膜微細構造を抽出する粘膜微細構造抽出ステップと、
画像領域を前記抽出した粘膜微細構造に基づき前記医用画像を複数の領域に分割する領域分割ステップと、
前記分割領域から特徴量を算出する特徴量算出ステップと、
前記算出した特徴量から粘膜表面状態を識別する識別ステップと、
を含むことを特徴とする医用画像処理方法。
(Additional Item 21) An image input step of inputting a medical image composed of one or more color signals obtained by imaging a biological mucosal surface;
A mucosal microstructure extraction step for extracting the mucosal microstructure on the medical image;
A region dividing step of dividing the medical image into a plurality of regions based on the extracted mucous membrane microstructure;
A feature amount calculating step for calculating a feature amount from the divided area;
An identification step of identifying a mucosal surface state from the calculated feature amount;
A medical image processing method comprising:
(付記項22)前記領域分割ステップは、粘膜微細構造の基準点/又は基準線を抽出する基準情報抽出ステップをさらに含み、前記医用画像を抽出した基準点/又は基準線に基づいた占有範囲に分割することを特徴とする付記項21に記載の医用画像処理方法。
(Additional Item 22) The region dividing step further includes a reference information extracting step for extracting a reference point / or reference line of the mucosal microstructure, and an occupation range based on the reference point / or reference line from which the medical image is extracted.
(付記項23)前記特徴量算出ステップは、個々の分割領域から領域特徴量を算出する領域特徴量算出ステップをさらに含み、算出した領域特徴量の分布に基づいた分布特徴量を算出することを特徴とする付記項21又は付記項22に記載の医用画像処理方法。
(Additional Item 23) The feature amount calculating step further includes a region feature amount calculating step of calculating a region feature amount from each divided region, and calculating a distribution feature amount based on the distribution of the calculated region feature amount.
(付記項24)前記粘膜微細構造の基準点/又は基準線は、粘膜構造の重心/又は細線/又は輪郭線であることを特徴とする付記項21、付記項22又は付記項23に記載の医用画像処理方法。
(Additional Item 24) The reference point / or the reference line of the mucosal microstructure is the center of gravity / or the fine line / or the contour line of the mucosal structure, according to the
(付記項25)前記領域特徴量は、領域の面積/又は周囲長であることを特徴とする付記項23に記載の医用画像処理方法。
(Additional Item 25) The medical image processing method according to
(付記項26)前記領域特徴量算出ステップは、分割領域が隣接する隣接構造成分を特定するステップをさらに含み、前記領域特徴量は、隣接構造成分/又は分割領域の重心間距離/又は隣接領域数であることを特徴とする付記項23又は付記項25に記載の医用画像処理方法。
(Additional Item 26) The region feature amount calculating step further includes a step of specifying an adjacent structural component adjacent to the divided region, and the region feature amount is an adjacent structural component / or a distance between the centers of gravity of the divided regions / or an adjacent region. 26. The medical image processing method according to
(付記項27)前記分布特徴量は、前記領域特徴量分布の変動係数/又は歪度/又は尖度/又は平均値/又は標準偏差/又は分散であることを特徴とする付記項23に記載の医用画像処理方法。
(Additional Item 27) The
(付記項28)前記分布特徴量から粘膜表面状態を識別する識別ステップは、1つ以上の前記分布特徴量を所定閾値と比較することを特徴とする付記項23又に記載の医用画像処理方法。
(Additional Item 28) The medical image processing method according to
(付記項29)前記分布特徴量から粘膜表面状態を識別する識別ステップは、2つ以上の前記分布特徴量を識別器に適用することを特徴とする付記項23又に記載の医用画像処理方法。
(Additional Item 29) The medical image processing method according to
(付記項30)前記分布特徴量を所定閾値と比較することは、粘膜微細構造の各要素の配列が規則的であるか、不規則的であるが判定することを特徴とする付記項28に記載の医用画像処理方法。
(Supplementary Item 30) The
(付記項31)前記2つ以上の分布特徴量を識別器に適用することは、粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判定することを特徴とする付記項29に記載の医用画像処理方法。
(Additional Item 31) The application of the two or more distribution feature quantities to the discriminator is characterized by determining whether the arrangement of each element of the mucosal microstructure is regular or irregular.
(付記項32)前記粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判定することは、粘膜微細構造が病変部に含まれるか否かを判定することを特徴とする付記項30又は付記項31に記載の医用画像処理方法。
(Additional Item 32) Determining whether the arrangement of each element of the mucosal microstructure is regular or irregular means determining whether the mucosal microstructure is included in a lesioned part.
(付記項33)前記領域分割ステップは、前記抽出した粘膜微細構造の基準点/又は基準線におけるボロノイ図により領域を割り当てることを特徴とする付記項21乃至付記項32のいずれかに記載の医用画像処理方法。
(Additional Item 33) The medical region according to any one of
(付記項34)前記粘膜微細構造は、前記生体粘膜表面像における表面腺口形態(pit pattern)/又は微細血管であることを特徴とする付記項21乃至付記項33のいずれかに記載の医用画像処理方法。
(Additional Item 34) The medical structure according to any one of
1 画像処理装置、
11 パーソナルコンピュータ、
28 画像処理プログラム、
29 解析データ、
31 原画像、
32 二値化画像、
33 pit重心画像、
34 ボロノイ画像、
35 領域特徴量、
36 配列規則性特徴量、
代理人 弁理士 伊 藤 進
1 image processing device,
11 Personal computer,
28 image processing program,
29 analysis data,
31 Original image,
32 Binary image,
33 pit centroid image,
34 Voronoi image,
35 area features,
36 sequence regularity features,
Agent Patent Attorney Susumu Ito
Claims (6)
前記粘膜微細構造に基づき、前記粘膜微細構造の各要素における領域特徴量を算出する特徴量算出手段と、
前記領域特徴量に基づき、前記粘膜微細構造の配列を評価する配列評価手段と、
を備えたことを特徴とする画像処理装置。 Fine structure extraction means for extracting a mucous membrane fine structure based on an image signal obtained by imaging a subject;
Based on the mucosal microstructure, feature amount calculation means for calculating an area feature amount in each element of the mucosa microstructure,
An array evaluation means for evaluating the array of the mucosal microstructure based on the region feature amount;
An image processing apparatus comprising:
前記粘膜微細構造に基づき、前記粘膜微細構造の各要素における領域特徴量を算出する特徴量算出工程と、
前記領域特徴量に基づき、前記粘膜微細構造の配列を評価する配列評価工程と、
を備えたことを特徴とする画像処理方法。 A fine structure extraction step of extracting a mucous membrane fine structure based on an image signal obtained by imaging a subject;
Based on the mucosal microstructure, a feature amount calculation step for calculating an area feature amount in each element of the mucosa microstructure,
A sequence evaluation step of evaluating the sequence of the mucosal microstructure based on the region feature amount;
An image processing method comprising:
被写体を撮像した画像信号に基づき、粘膜微細構造を抽出する微細構造抽出手順と、
前記粘膜微細構造に基づき、前記粘膜微細構造の各要素における領域特徴量を算出する特徴量算出手順と、
前記領域特徴量に基づき、前記粘膜微細構造の配列を評価する配列評価手順と、
を実行させることを特徴とする画像処理プログラム。
On the computer,
A fine structure extraction procedure for extracting a mucous membrane fine structure based on an image signal obtained by imaging a subject;
Based on the mucosal microstructure, a feature amount calculation procedure for calculating an area feature amount in each element of the mucosa microstructure,
A sequence evaluation procedure for evaluating the sequence of the mucosal microstructure based on the region feature amount;
An image processing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004336590A JP4804742B2 (en) | 2004-11-19 | 2004-11-19 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004336590A JP4804742B2 (en) | 2004-11-19 | 2004-11-19 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006141734A true JP2006141734A (en) | 2006-06-08 |
JP4804742B2 JP4804742B2 (en) | 2011-11-02 |
Family
ID=36622065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004336590A Expired - Fee Related JP4804742B2 (en) | 2004-11-19 | 2004-11-19 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4804742B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009277205A (en) * | 2008-05-15 | 2009-11-26 | Kazuo Aisaka | Image recognition method |
JP2010004979A (en) * | 2008-06-25 | 2010-01-14 | Fujifilm Corp | Image processor and processor for endoscope |
WO2010110104A1 (en) * | 2009-03-24 | 2010-09-30 | オリンパス株式会社 | Fluorescence observation device |
JP2011087793A (en) * | 2009-10-23 | 2011-05-06 | Hoya Corp | Processor for electronic endoscope |
WO2012039219A1 (en) * | 2010-09-22 | 2012-03-29 | オリンパス株式会社 | Fluorescence observation device |
WO2012073799A1 (en) | 2010-12-02 | 2012-06-07 | オリンパス株式会社 | Endoscopic image processing apparatus and program |
WO2012105141A1 (en) * | 2011-02-01 | 2012-08-09 | オリンパスメディカルシステムズ株式会社 | Diagnosis assistance apparatus |
WO2013008526A1 (en) * | 2011-07-12 | 2013-01-17 | オリンパスメディカルシステムズ株式会社 | Image processing apparatus |
WO2013187206A1 (en) * | 2012-06-12 | 2013-12-19 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
WO2014097758A1 (en) | 2012-12-19 | 2014-06-26 | オリンパスメディカルシステムズ株式会社 | Medical image processing device and medical image processing method |
WO2018203514A1 (en) * | 2017-05-01 | 2018-11-08 | 興和株式会社 | Image analysis evaluation method, computer program, and image analysis evaluation device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002165757A (en) * | 2000-11-30 | 2002-06-11 | Olympus Optical Co Ltd | Diagnostic supporting system |
-
2004
- 2004-11-19 JP JP2004336590A patent/JP4804742B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002165757A (en) * | 2000-11-30 | 2002-06-11 | Olympus Optical Co Ltd | Diagnostic supporting system |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009277205A (en) * | 2008-05-15 | 2009-11-26 | Kazuo Aisaka | Image recognition method |
JP2010004979A (en) * | 2008-06-25 | 2010-01-14 | Fujifilm Corp | Image processor and processor for endoscope |
US8489180B2 (en) | 2009-03-24 | 2013-07-16 | Olympus Corporation | Fluorescence observation apparatus |
WO2010110104A1 (en) * | 2009-03-24 | 2010-09-30 | オリンパス株式会社 | Fluorescence observation device |
JP2010220895A (en) * | 2009-03-24 | 2010-10-07 | Olympus Corp | Fluorescence observation apparatus |
JP2011087793A (en) * | 2009-10-23 | 2011-05-06 | Hoya Corp | Processor for electronic endoscope |
JP2012065800A (en) * | 2010-09-22 | 2012-04-05 | Olympus Corp | Fluorescence observation apparatus |
CN103118582A (en) * | 2010-09-22 | 2013-05-22 | 奥林巴斯株式会社 | Fluorescence observation device |
WO2012039219A1 (en) * | 2010-09-22 | 2012-03-29 | オリンパス株式会社 | Fluorescence observation device |
WO2012073799A1 (en) | 2010-12-02 | 2012-06-07 | オリンパス株式会社 | Endoscopic image processing apparatus and program |
US9521330B2 (en) | 2010-12-02 | 2016-12-13 | Olympus Corporation | Endoscopic image processing device, information storage device and image processing method |
WO2012105141A1 (en) * | 2011-02-01 | 2012-08-09 | オリンパスメディカルシステムズ株式会社 | Diagnosis assistance apparatus |
US8682418B2 (en) | 2011-02-01 | 2014-03-25 | Olympus Medical Systems Corp. | Diagnosis supporting apparatus and control method of diagnosis supporting apparatus |
JP5326064B2 (en) * | 2011-07-12 | 2013-10-30 | オリンパスメディカルシステムズ株式会社 | Image processing device |
WO2013008526A1 (en) * | 2011-07-12 | 2013-01-17 | オリンパスメディカルシステムズ株式会社 | Image processing apparatus |
US8666135B2 (en) | 2011-07-12 | 2014-03-04 | Olympus Medical Systems Corp. | Image processing apparatus |
WO2013187206A1 (en) * | 2012-06-12 | 2013-12-19 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
JP2013255656A (en) * | 2012-06-12 | 2013-12-26 | Olympus Corp | Image processing apparatus, image processing method, and image processing program |
US9916666B2 (en) | 2012-06-12 | 2018-03-13 | Olympus Corporation | Image processing apparatus for identifying whether or not microstructure in set examination region is abnormal, image processing method, and computer-readable recording device |
WO2014097758A1 (en) | 2012-12-19 | 2014-06-26 | オリンパスメディカルシステムズ株式会社 | Medical image processing device and medical image processing method |
US9262687B2 (en) | 2012-12-19 | 2016-02-16 | Olympus Corporation | Image processing apparatus and method of operation of image processing appartus |
JPWO2014097758A1 (en) * | 2012-12-19 | 2017-01-12 | オリンパス株式会社 | Image processing device |
CN104869884A (en) * | 2012-12-19 | 2015-08-26 | 奥林巴斯株式会社 | Medical image processing device and medical image processing method |
WO2018203514A1 (en) * | 2017-05-01 | 2018-11-08 | 興和株式会社 | Image analysis evaluation method, computer program, and image analysis evaluation device |
JPWO2018203514A1 (en) * | 2017-05-01 | 2020-03-12 | 興和株式会社 | Image analysis evaluation method, computer program, image analysis evaluation device |
US11200699B2 (en) | 2017-05-01 | 2021-12-14 | Kowa Company, Ltd. | Image analysis evaluation method, computer program, and image analysis evaluation device |
JP7171549B2 (en) | 2017-05-01 | 2022-11-15 | 興和株式会社 | Image analysis evaluation method, computer program, image analysis evaluation device |
Also Published As
Publication number | Publication date |
---|---|
JP4804742B2 (en) | 2011-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101384211B (en) | Image analyzing device and image analyzing method | |
JP5800468B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6265588B2 (en) | Image processing apparatus, operation method of image processing apparatus, and image processing program | |
Häfner et al. | Color treatment in endoscopic image classification using multi-scale local color vector patterns | |
US7907775B2 (en) | Image processing apparatus, image processing method and image processing program | |
US8244009B2 (en) | Image analysis device | |
JP2006334115A (en) | Endoscopic diagnosis support method, endoscopic diagnosis support device, and endoscopic diagnosis support program | |
CN113573654A (en) | AI system for detecting and determining lesion size | |
JP2002165757A (en) | Diagnostic supporting system | |
JP4804742B2 (en) | Image processing apparatus and image processing program | |
JP2013526930A (en) | Image analysis for cervical neoplasm detection and diagnosis | |
JP5442542B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
JP2012073953A (en) | Image processing device, image processing method, and image processing program | |
WO2014084083A1 (en) | Image processing device, image processing method, and image processing program | |
JP2005157902A (en) | Image analyzing method | |
JP2017213058A (en) | Image processing device, endoscope device, image processing method, and image processing program | |
KR102095730B1 (en) | Method for detecting lesion of large intestine disease based on deep learning | |
JP6824868B2 (en) | Image analysis device and image analysis method | |
Ciaccio et al. | Recommendations to quantify villous atrophy in video capsule endoscopy images of celiac disease patients | |
WO2022180786A1 (en) | Image processing device, image processing method, and storage medium | |
JP7485193B2 (en) | Image processing device, image processing method, and program | |
CN112950601A (en) | Method, system and storage medium for screening pictures for esophageal cancer model training | |
WO2023042273A1 (en) | Image processing device, image processing method, and storage medium | |
JP2019216948A (en) | Image processing device, operation method for image processing device, and operation program of image processing device | |
Barbosa et al. | Detection of small bowel tumors in endoscopic capsule images by modeling non-gaussianity of texture descriptors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100527 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110810 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4804742 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140819 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |