JP2006141734A - Image processing apparatus, method and program - Google Patents

Image processing apparatus, method and program Download PDF

Info

Publication number
JP2006141734A
JP2006141734A JP2004336590A JP2004336590A JP2006141734A JP 2006141734 A JP2006141734 A JP 2006141734A JP 2004336590 A JP2004336590 A JP 2004336590A JP 2004336590 A JP2004336590 A JP 2004336590A JP 2006141734 A JP2006141734 A JP 2006141734A
Authority
JP
Japan
Prior art keywords
image
feature amount
image processing
pit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004336590A
Other languages
Japanese (ja)
Other versions
JP4804742B2 (en
Inventor
Ryoko Inoue
涼子 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004336590A priority Critical patent/JP4804742B2/en
Publication of JP2006141734A publication Critical patent/JP2006141734A/en
Application granted granted Critical
Publication of JP4804742B2 publication Critical patent/JP4804742B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, method and program capable of quantitatively determining a sequence evaluation using a sequence feature quantity taking account of the correlation of mucosal microstructure components such as respective pits. <P>SOLUTION: This image processing apparatus is provided with a microstructure extracting means extracting the mucosal microstructure based on image signals capturing the image of a subject, a feature quantity calculation means calculating regional feature quantities in respective elements of the mucosal microstructure based on the mucosal microstructure, and a sequence evaluation means evaluating the sequence of the mucosal microstructure based on the regional feature quantities. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、内視鏡装置などによる医用画像を基に、粘膜微細構造の配列を定量的に評価する、画像処理装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for quantitatively evaluating the arrangement of mucous membrane microstructures based on a medical image obtained by an endoscope apparatus or the like.

近年、細長な挿入部を体腔内に挿入し、挿入部の先端部に設けられた固体撮像素子等を撮像手段に用いて体腔内臓器等をモニタ画面により観察し、検査あるいは診断することのできる内視鏡装置が広く用いられている。また、体腔内臓器等ヘ超音波を照射し、この超音波の反射あるいは透過度等により体腔内臓器等の状況をモニタ画面より観察し、検査あるいは診断することのできる超音波内視鏡装置も、広く用いられている。   In recent years, an elongated insertion part can be inserted into a body cavity, and a solid-state imaging device or the like provided at the distal end of the insertion part can be used as an imaging means to observe a body cavity organ or the like on a monitor screen for examination or diagnosis Endoscopic devices are widely used. There is also an ultrasonic endoscope apparatus that can irradiate an organ in a body cavity with ultrasonic waves, observe the state of the organs in the body cavity from a monitor screen based on the reflection or transmission of the ultrasonic waves, and inspect or diagnose it. Widely used.

これらの内視鏡装置を用いた最終的な診断は、医師の主観に依存している部分が多大であり、客観的・数値的な診断に直接結びつく内視鏡診断支援装置の実現が望まれていた。   The final diagnosis using these endoscopic devices largely depends on the subjectivity of the doctor, and it is desired to realize an endoscopic diagnosis support device that directly relates to objective and numerical diagnosis. It was.

内視鏡診断支援装置は、画像内における関心領域(ROI)から算出された様々な特徴量を用い、閾値処理あるいは統計的・非統計的識別器を用いて診断対象とする画像がそのような所見に分類されるのかを医師に提示することにより、客観的・数値的な診断の支援を行うものである。   The endoscopic diagnosis support apparatus uses various feature amounts calculated from a region of interest (ROI) in an image, and an image to be diagnosed using threshold processing or a statistical / nonstatistic discriminator It provides support for objective and numerical diagnosis by presenting to the doctor whether it is classified as a finding.

特徴量は、内視鏡画像上の様々な所見を反映した数値であり、画像処理手法を適用して得られるものである。内視鏡画像を用いた診断においては、透見血管像に見られる血管の拡張・蛇行や、胃小区の形態の大小・不整合・胃小区間の溝幅等、内視鏡画像における粘膜表面構造に関する所見が種々の疾患に対する診断の重要な要素となっており、これらに対しても画像処理手法を適用することで、特徴量として数値化することができる(例えば、特許文献1参照)。   The feature amount is a numerical value reflecting various findings on the endoscopic image, and is obtained by applying an image processing method. In the diagnosis using endoscopic images, mucosal surfaces in endoscopic images such as dilation and meandering of blood vessels seen in fluoroscopic blood vessel images, size and inconsistency of the shape of gastric subdivision, and groove width of gastric subsection Structural findings are important elements for diagnosis of various diseases, and these can also be quantified as feature quantities by applying an image processing technique (see, for example, Patent Document 1).

近年においては、公知のGaborフィルタを用いて算出されるGabor特徴に対し、内視鏡画像へ適用するための改良を加えた空間周波数解析により、粘膜表面構造の細かさや、粘膜表面構造が呈する模様の方向性などを、特徴量として数値化する内視鏡画像処理手法がある。この内視鏡画像処理手法を適用した特徴量算出方法として、病変の粘膜表面構造が複数の異なる所見を呈する場合、あるいは病変中に他の異なる腫瘍などが混在する場合においても、各所見を示す部位ごとに関心領域を設定すると共に、どのような所見、あるいは所見に関連して診断される腫瘍などが存在しているか、更には、それらがどのような割合で混在しているか、などを知ることができる方法が提案されている(例えば、特許文献2参照)。   In recent years, the fineness of the mucosal surface structure and the pattern of the mucosal surface structure exhibited by the spatial frequency analysis of the Gabor feature calculated using a known Gabor filter with improvements applied to endoscopic images. There is an endoscopic image processing technique for digitizing the directionality of the image as a feature amount. As a feature value calculation method using this endoscopic image processing method, each finding is shown even when the mucosal surface structure of the lesion presents multiple different findings or when other different tumors are mixed in the lesion. Set the region of interest for each part, and know what findings or tumors are diagnosed in relation to the findings, and what proportions are mixed. A method has been proposed (see, for example, Patent Document 2).

一方、最近の内視鏡装置においては、高画質化、固体撮像素子(CCD等)の高画素化、さらには通常の内視鏡と同等の外径と操作性を保ちつつ拡大観察(ズーミング)機能を有する拡大内視鏡の登場と普及によって、粘膜表面の極めて微細な毛細血管や胃・大腸の腺口形態(pit pattern)の観察が可能となってきており、μmレベルの極めて微細な構造に対する所見が得られ、病変種別やがんの進達度診断などに応用されてきている。具体的には、大腸のpit patternの観察(例えば、非特許文献1、及び、非特許文献2参照)や、食道の粘膜内微細血管所見であるIPCL(例えば、非特許文献3参照)が知られている。
特許第2918162号公報(図6) 特開2002−165757号公報(図3) 工藤進英、「陥凹型早期大腸癌」、Monthly Book Gastro、全日本病院出版会、1993年5月15日、第3巻、第5号、p.47−p.54 工藤進英、他2名、「拡大電子スコープによる大腸疾患の診断」、胃と腸、医学書院、1994年2月26日、第29巻、第3号、p.163−p.165 井上晴洋、他5名、「食道疾患の拡大内視鏡診断」、消化器内視鏡、東京医学社、2001年3月25日、第13巻、第3号、p.301−p.308
On the other hand, with recent endoscope devices, high-quality images, solid-state image sensors (CCDs, etc.) with higher pixels, and magnification observation (zooming) while maintaining the same outer diameter and operability as ordinary endoscopes With the advent and spread of functional magnifying endoscopes, it has become possible to observe extremely fine capillaries on the mucosal surface and the pit pattern of the stomach and large intestine. Findings have been obtained, and it has been applied to diagnosis of lesion type and progress of cancer. Specifically, observation of the pit pattern of the large intestine (see, for example, Non-Patent Document 1 and Non-Patent Document 2) and IPCL (for example, see Non-Patent Document 3), which is an intramucosal microvascular finding in the esophagus, is known. It has been.
Japanese Patent No. 2918162 (FIG. 6) JP 2002-165757 A (FIG. 3) Shindo Kudo, “Depressed Early Colorectal Cancer”, Monthly Book Gastro, All Japan Hospital Press, May 15, 1993, Vol. 3, No. 5, p. 47-p. 54 Shindo Kudo, two others, “Diagnosis of Colorectal Diseases Using an Expanded Electronic Scope”, Stomach and Intestine, Medical School, February 26, 1994, Vol. 29, No. 3, p. 163-p. 165 Haruhiro Inoue and five others, “Enlarged Endoscopic Diagnosis of Esophageal Disease”, Gastrointestinal Endoscopy, Tokyo Medical, March 25, 2001, Vol. 13, No. 3, p. 301-p. 308

大腸pit patternを用いた診断においては、pitの配列が重要な所見の一つとしてあげられる。例えば、正常な粘膜は、規則的I型、炎症や過形成性病変は規則的II型のpit配列を示すのに対し、腫瘍はIII型、III型、IV型、V型のpit配列を示す。特に、規則的なIII型を示すものは良性の腫瘍であり、不規則的なV型を示すものは癌であることが多い。 In the diagnosis using the large intestine pit pattern, the arrangement of pits is one of the important findings. For example, normal mucosa, regular type I, while inflammation and hyperplastic lesions shows the pit sequence of regular type II, tumor III S type, III L-type, IV type, V-type pit sequences Indicates. In particular, those showing regular type III L are benign tumors, and those showing irregular type V are often cancers.

しかし、特許文献1においては、個々のpitの配置に基づく配列の規則性を評価する方法が示されていない。また、特許文献2においては、内視鏡画像処理手法として周波数解析による統計的処理を用いており、規則性以外の要素も反映した特徴量が算出されるため、pitの配列が直感的にわかりにくいという問題があった。   However, Patent Document 1 does not disclose a method for evaluating the regularity of arrangement based on the arrangement of individual pits. Further, in Patent Document 2, statistical processing by frequency analysis is used as an endoscopic image processing method, and feature quantities reflecting elements other than regularity are calculated. There was a problem that it was difficult.

そこで、本発明においては、個々のpit等の粘膜微細構造成分の相互関係を考慮した配置に基づく配列特徴量を用いた、定量的な配列評価を可能とする、画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。   Therefore, in the present invention, an image processing apparatus, an image processing method, and the like that enable quantitative array evaluation using array feature amounts based on an arrangement that takes into account the mutual relationship between mucosal microstructure components such as individual pits, An object of the present invention is to provide an image processing program.

本発明の画像処理装置は、被写体を撮像した画像信号に基づき、粘膜微細構造を抽出する微細構造抽出手段と、粘膜微細構造に基づき、粘膜微細構造の各要素における領域特徴量を算出する特徴量算出手段と、領域特徴量に基づき粘膜微細構造の配列を評価する配列評価手段とを備えている。   The image processing apparatus according to the present invention includes a fine structure extracting unit that extracts a mucosal microstructure based on an image signal obtained by imaging a subject, and a feature value that calculates a region feature value in each element of the mucosal microstructure based on the mucosal microstructure. Calculation means and arrangement evaluation means for evaluating the arrangement of the mucosal microstructure based on the region feature amount are provided.

個々のpit等の粘膜微細構造成分の相互関係を考慮した配置に基づく配列特徴量を用いた、定量的な配列評価を可能とする、画像処理装置、画像処理方法、及び画像処理プログラムを実現することができる。   To realize an image processing apparatus, an image processing method, and an image processing program capable of quantitative array evaluation using an array feature amount based on an arrangement that takes into consideration the mutual relationship of mucosal microstructure components such as individual pits be able to.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施の形態)
まず、図1に基づき、本発明の第1の実施の形態に係わる画像処理装置1の関連システムとのネットワーク構成について説明する。図1は、本発明の第1の実施の形態に係わる画像処理装置1と関連システムとのネットワーク構成を概略的に示した図である。図1に示すように、本実施の形態の画像処理装置1は、TCP/IPを通信プロトコルとするLAN2に接続されている。一方、生体内を撮像して画像信号を出力する内視鏡観察装置3も、内視鏡ファイリング装置4を介してLAN2に接続されている。内視鏡ファイリング装置4は、内視鏡観察装置3から画像信号を受信して画像データを生成するとともに、生成された画像データを蓄積する。すなわち、画像処理装置1は、内視鏡バッファリング装置4に蓄積されている画像データを、LAN2経由で取得する。
(First embodiment)
First, a network configuration with a related system of the image processing apparatus 1 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram schematically showing a network configuration of an image processing apparatus 1 and related systems according to the first embodiment of the present invention. As shown in FIG. 1, an image processing apparatus 1 according to the present embodiment is connected to a LAN 2 using TCP / IP as a communication protocol. On the other hand, an endoscope observation apparatus 3 that captures an image of a living body and outputs an image signal is also connected to the LAN 2 via an endoscope filing apparatus 4. The endoscope filing device 4 receives image signals from the endoscope observation device 3 to generate image data, and accumulates the generated image data. In other words, the image processing device 1 acquires the image data stored in the endoscope buffering device 4 via the LAN 2.

次に、画像処理装置1の全体構成について説明する。画像処理装置1は、図2に示すように、汎用のパーソナルコンピュータ11を中心に構成されており、キーボードとマウスとからなる操作装置12と、ハードディスクからなる記憶装置13と、CRT等からなる表示装置14とを備えている。図2は、画像処理装置1の全体構成を概略的に示した図である。操作装置12、記憶装置13、及び表示装置14は、それぞれパーソナルコンピュータ11と電気的に接続されている。   Next, the overall configuration of the image processing apparatus 1 will be described. As shown in FIG. 2, the image processing apparatus 1 is configured around a general-purpose personal computer 11, and includes an operation device 12 including a keyboard and a mouse, a storage device 13 including a hard disk, and a display including a CRT. Device 14. FIG. 2 is a diagram schematically showing the overall configuration of the image processing apparatus 1. The operation device 12, the storage device 13, and the display device 14 are electrically connected to the personal computer 11, respectively.

パーソナルコンピュータ11は、各種プログラムの実行処理や制御を行うCPU21と、各種処理プログラムやデータを記憶するメモリ22と、記憶装置13との間で情報の読み書きを行う外部記憶インターフェース(以下、I/Fと略す)23と、外部機器との間で情報の通信を行うネットワークカード24と、操作装置12から入力された操作信号を受信して必要なデータ処理を行う操作I/F25と、表示装置14へビデオ信号を出力するグラフィックボード26とを有しており、それぞれバス27と電気的に接続されている。従って、パーソナルコンピュータ11の各部は、バス27を介して相互に情報の送受信を行うことができる。   The personal computer 11 includes an external storage interface (hereinafter referred to as I / F) that reads and writes information between a CPU 21 that executes and controls various programs, a memory 22 that stores various processing programs and data, and a storage device 13. 23, a network card 24 that communicates information with an external device, an operation I / F 25 that receives an operation signal input from the operation device 12 and performs necessary data processing, and a display device 14 And a graphic board 26 for outputting a video signal to each other, and each is electrically connected to a bus 27. Accordingly, each unit of the personal computer 11 can transmit and receive information to and from each other via the bus 27.

ネットワークカード24は、LAN2と電気的に接続されており、同じくLAN2に接続されている内視鏡ファイリング装置4との間で情報を送受信する。   The network card 24 is electrically connected to the LAN 2 and transmits / receives information to / from the endoscope filing device 4 that is also connected to the LAN 2.

外部記憶I/F23は、記憶装置13に格納されている画像処理プログラム28を読み込んでメモリ22に記憶させる。尚、画像処理プログラム28は、画像解析処理を実行するプログラムであって、複数の実行ファイル、又は動的リンクライブラリファイル、又は設定ファイルから構成される。メモリ22に記憶された画像処理プログラム28が実行されることで、CPU21が動作する。CPU21は、内視鏡ファイリング装置4から取得した画像データに対し、画像解析処理を行う。CPU21における各処理によって取得、生成される解析データ29は、メモリ22に記憶される。この解析データ29には、内視鏡ファイリング装置4から取得した画像データである原画像31が含まれる。更に、解析データ29には、二値化画像32と、pit重心画像33と、ボロノイ画像34と、領域特徴量35と、配列規則性特徴量36とが含まれる。これらの各画像32〜34、及び特徴量35、36については、後に詳述する。   The external storage I / F 23 reads the image processing program 28 stored in the storage device 13 and stores it in the memory 22. Note that the image processing program 28 is a program that executes image analysis processing, and includes a plurality of execution files, dynamic link library files, or setting files. When the image processing program 28 stored in the memory 22 is executed, the CPU 21 operates. The CPU 21 performs image analysis processing on the image data acquired from the endoscope filing device 4. Analysis data 29 acquired and generated by each process in the CPU 21 is stored in the memory 22. The analysis data 29 includes an original image 31 that is image data acquired from the endoscope filing device 4. Further, the analysis data 29 includes a binarized image 32, a pit centroid image 33, a Voronoi image 34, a region feature 35, and an array regularity feature 36. The images 32 to 34 and the feature amounts 35 and 36 will be described later in detail.

上述のように構成された、画像処理装置1の作用について説明する。本実施の形態においては、粘膜微細構造の配列を評価、例えば類円形・短桿状の大腸pit等の配列規則性を評価する場合について説明する。   The operation of the image processing apparatus 1 configured as described above will be described. In the present embodiment, a case will be described in which the arrangement of the mucosal microstructure is evaluated, for example, the arrangement regularity of a circular or short colon pit is evaluated.

まず、画像処理装置1は、内視鏡観察装置3で撮像された、大腸pit patternの原画像31を、画像ファイリング装置4を介して取得する。原画像31は、各画素が8ビットのRGBで構成されているカラー画像である。一般的に、内視鏡観察装置3を用いて大腸pit patternを観察する際には、粘膜表面構造を明瞭に観察するために、インジゴカルミン、ピオクタニン等の色素や染色剤と呼ばれる薬剤が用いられる。これらの薬剤が最も吸収するのはR画像の波長帯域であるため、原画像31のR画像に対して以降の画像解析処理を行うものとする。原画像31を取得すると、画像処理装置1の画像処理プログラム28が実行されて、図3のフローチャートに従って画像解析処理が実行される。   First, the image processing apparatus 1 acquires the original image 31 of the large intestine pit pattern imaged by the endoscope observation apparatus 3 via the image filing apparatus 4. The original image 31 is a color image in which each pixel is composed of 8-bit RGB. In general, when observing the colon pit pattern using the endoscope observation apparatus 3, in order to clearly observe the mucosal surface structure, a drug called a dye or staining agent such as indigo carmine or picotanine is used. . Since these drugs absorb most in the wavelength band of the R image, the subsequent image analysis processing is performed on the R image of the original image 31. When the original image 31 is acquired, the image processing program 28 of the image processing apparatus 1 is executed, and image analysis processing is executed according to the flowchart of FIG.

図3は、画像処理プログラム28による画像解析処理の手順を説明するフローチャートである。図3のフローチャートには、処理ステップに加えて、各処理ステップにおいて入出力される解析データ29も示している。まず、ステップS1において、原画像31に対して、二値化処理を施し、pit部分にあたる画素の画素値を1、それ以外の画素の画素値を0とした、二値化画像32を生成する。本実施の形態における二値化処理とは、原画像31における各画素の画素値について、画素値が予め設定された閾値以上であればその画素値を1とし、閾値よりも小さい値であればその画素値を0とする処理である。尚、二値化処理の前処理として、原画像31に対して逆ガンマ補正、シェーディング補正などを追加してもよい。また、原画像31として、公知のバンドパスフィルタ(BPF)によって、所望の波長帯域の信号のみを透過させて作成したフィルタリング画像を用い、該フィルタリング画像に対して二値化処理を行ってもよい。   FIG. 3 is a flowchart for explaining the procedure of image analysis processing by the image processing program 28. In addition to the processing steps, the flowchart of FIG. 3 also shows analysis data 29 input and output at each processing step. First, in step S1, a binarization process is performed on the original image 31 to generate a binarized image 32 in which the pixel value of the pixel corresponding to the pit portion is 1 and the pixel values of the other pixels are 0. . In the binarization processing in the present embodiment, the pixel value of each pixel in the original image 31 is set to 1 if the pixel value is equal to or greater than a preset threshold value, and if the pixel value is smaller than the threshold value. This is a process for setting the pixel value to 0. Note that, as pre-processing for binarization processing, inverse gamma correction, shading correction, and the like may be added to the original image 31. In addition, as the original image 31, a filtering image created by transmitting only a signal in a desired wavelength band by a known band pass filter (BPF) may be used, and binarization processing may be performed on the filtering image. .

次に、ステップS2において、ステップS1で生成された二値化画像32にラベリング処理を施し、ラベリング画像37を生成する。本実施の形態におけるラベリング処理は次のように行われる。まず、二値化画像32を左上から右下へ順次走査し、ラベル付けされておらず、かつ画素値が1である画素を見つけ、任意の記号をラベルとして付与する。この時、他の画素に対して既に付与されているラベルは使用せず、未付与のラベルを当該画素に付与する。次に、ラベルを付与した画素と連結されており、かつ画素値が1である全ての画素に対して、同じラベルを付与する。画素値が1である全ての画素に対してラベルが付与されるまで、上記の走査とラベル付与を繰り返す。つまり、ラベリング処理によって、同一の連結部分に属している画素には同一のラベルが付与され、かつ、連結部分ごとに異なったラベルが付与される。尚、ステップS1及びステップS2の処理は、微細構造抽出手段に相当している。   Next, in step S2, the binarized image 32 generated in step S1 is subjected to a labeling process to generate a labeling image 37. The labeling process in the present embodiment is performed as follows. First, the binarized image 32 is sequentially scanned from the upper left to the lower right, a pixel that is not labeled and has a pixel value of 1 is found, and an arbitrary symbol is assigned as a label. At this time, a label already assigned to another pixel is not used, and an unassigned label is assigned to the pixel. Next, the same label is assigned to all the pixels that are connected to the pixel to which the label is assigned and the pixel value is 1. The scanning and labeling described above are repeated until labels are assigned to all the pixels having a pixel value of 1. That is, by the labeling process, the same label is given to pixels belonging to the same connected portion, and a different label is assigned to each connected portion. Note that the processing in step S1 and step S2 corresponds to a fine structure extraction unit.

次に、ステップS3において、ステップS2で生成されたラベリング画像37に対してpit重心算出処理を施し、pit重心画像33を生成する。本実施の形態におけるpit重心算出処理は、次のように行われる。まず、同一ラベルを付与された画素の位置座標の平均値を算出して、重心を求める。次に、重心にあたる画素の画素値を、当該画素に付与されているラベルとし、それ以外の画素の画素値を0として、pit重心画像33を得る。すなわち、pit重心画像33は、原画像31に含まれている、個々のpitの重心を示す画像である。   Next, in step S3, a pit centroid calculation process is performed on the labeling image 37 generated in step S2 to generate a pit centroid image 33. The pit gravity center calculation process in the present embodiment is performed as follows. First, the average value of the position coordinates of the pixels assigned with the same label is calculated to obtain the center of gravity. Next, the pixel value of the pixel corresponding to the center of gravity is set as a label given to the pixel, and the pixel values of other pixels are set to 0, thereby obtaining the pit center of gravity image 33. That is, the pit centroid image 33 is an image showing the centroid of each pit included in the original image 31.

次に、ステップS4において、ステップS3で生成された、pit重心画像33をボロノイ分割してボロノイ図を作成し、ボロノイ画像34を生成する。ボロノイ図とは、ある平面を、平面上に配置された、母点と呼ばれる点の縄張りに分割する公知手法である、ボロノイ分割によって作成される図である。ボロノイ分割とは、複数の母点について、隣接する二つの母点の間に垂直二等分線を引き、各母点の周りをそのような線で囲んで多角形を形成することで、平面を多角形で分割する手法であり、高木隆司、「形の数理」、朝倉書店、1992年2月25日、p.43−p.47に詳しく示されている。尚、母点の周りに形成された多角形の各辺は、ボロノイ線と呼ばれる。また、ボロノイ分割によって分割された領域は、最近傍点の勢力範囲と呼ばれる。本実施の形態におけるボロノイ分割を、図4を用いて説明する。   Next, in step S4, the pit center of gravity image 33 generated in step S3 is Voronoi divided to create a Voronoi diagram, and a Voronoi image 34 is generated. The Voronoi diagram is a diagram created by Voronoi division, which is a well-known technique for dividing a certain plane into territory points called mother points arranged on the plane. Voronoi division is a method of drawing a vertical bisector between two adjacent generating points and forming a polygon by surrounding each generating point with such a line. Is divided into polygons, Takashi Takagi, “Mathematics of Shape”, Asakura Shoten, February 25, 1992, p. 43-p. 47 shows the details. Each side of the polygon formed around the generating point is called a Voronoi line. The region divided by Voronoi division is called the power range of the nearest point. Voronoi division in the present embodiment will be described with reference to FIG.

図4は、ボロノイ画像34及びボロノイ画像34から算出される各種領域特徴量35を説明する図であり、図4(a)は、pit重心画像33の概略図、図4(b)は、図4(a)をボロノイ分割したボロノイ図、図4(c)は、各pitの勢力範囲を説明する概略図、図4(d)は、各pitの勢力範囲周囲長を説明する概略図、図4(e)は、各pitにおける隣接pitの重心間距離を説明する概略図である。図4(a)に示すように、ボロノイ画像34の基となるpit重心画像33には、5つのpitが存在しており、それぞれのpitの重心が、母点A41、母点B42、母点C43、母点D44、母点E45として示されている。   4A and 4B are diagrams for explaining the Voronoi image 34 and various region feature amounts 35 calculated from the Voronoi image 34. FIG. 4A is a schematic diagram of the pit barycentric image 33, and FIG. 4 (a) is a Voronoi diagram obtained by dividing Voronoi, FIG. 4 (c) is a schematic diagram for explaining the power range of each pit, and FIG. 4 (d) is a schematic diagram for explaining the power range perimeter of each pit. 4 (e) is a schematic diagram illustrating the distance between the centers of gravity of adjacent pits in each pit. As shown in FIG. 4A, there are five pits in the pit centroid image 33 that is the basis of the Voronoi image 34, and the centroids of the pits are the mother point A41, the mother point B42, and the mother point. C43, generating point D44, and generating point E45 are shown.

まず、pit重心画像33の全ての画素について、最も近い母点が同じである画素が同じ領域に含まれるように、pit重心画像33を5つの領域に分割し、各領域の境界線上に位置する画素の画素値を1とし、それ以外の画素の画素値を0とする。以上の処理によって、図4(b)に示すようなボロノイ図を得る。本実施の形態においては、ボロノイ画像34はpit patternの各要素の勢力範囲を表している。すなわち、図4(c)に示すように、pit patternの各要素である5つのpitの勢力範囲は、母点A41を重心とするpitの勢力範囲が領域46、母点B42を重心とするpitの勢力範囲が領域47、母点C43を重心とするpitの勢力範囲が領域48、母点D44を重心とするpitの勢力範囲が領域49、母点E45を重心とするpitの勢力範囲が領域50、として表される。   First, for all the pixels in the pit centroid image 33, the pit centroid image 33 is divided into five regions so that the pixels having the same nearest generating point are included in the same region, and are located on the boundary line of each region. The pixel value of the pixel is set to 1, and the pixel values of the other pixels are set to 0. With the above processing, a Voronoi diagram as shown in FIG. 4B is obtained. In the present embodiment, the Voronoi image 34 represents the power range of each element of the pit pattern. That is, as shown in FIG. 4C, the force range of the five pits that are the elements of the pit pattern is the pit force range having the center point A41 as the center of gravity and the pits having the center point B42 as the center of gravity. The force range of the pit is the region 47, the force range of the pit centered at the generating point C43 is the region 48, the force range of the pit centering on the generating point D44 is the region 49, and the force range of the pit centering on the generating point E45 is the region 50.

次に、ステップS5において、ステップS3で生成されたpit重心画像33と、ステップS4で生成されたボロノイ画像34を用いて、領域特徴量35を算出する。本実施の形態においては、領域特徴量35として、勢力範囲面積と、勢力範囲周囲長と、隣接pitの重心間距離と、隣接領域数とを算出する。これらの領域特徴量35は、次のようにして算出される。   Next, in step S5, a region feature 35 is calculated using the pit barycenter image 33 generated in step S3 and the Voronoi image 34 generated in step S4. In the present embodiment, as the region feature amount 35, the power range area, the power range perimeter, the distance between the centers of gravity of adjacent pits, and the number of adjacent regions are calculated. These region feature amounts 35 are calculated as follows.

勢力範囲面積とは、勢力範囲の画素数であって、pit毎に算出される。勢力範囲面積は、ボロノイ画像34において、pit毎に、勢力範囲に属する画素数をカウントして算出する。勢力範囲周囲長とは、勢力範囲を取り囲むボロノイ線長の総和であって、pit毎に算出される。例えば、母点A41を重心とするpitの勢力範囲長Alは、図4(d)に示すように、領域46を取り囲むボロノイ線の長さの総和として算出され、具体的には、領域46と領域47との境界であるボロノイ線の長さ(=a1)と、領域46と領域48との境界であるボロノイ線の長さ(=a2)と、領域46と領域49との境界であるボロノイ線の長さ(=a3)と、領域46と領域50との境界であるボロノイ線の長さ(=a4)との和となる。   The power range area is the number of pixels in the power range, and is calculated for each pit. The power range area is calculated by counting the number of pixels belonging to the power range for each pit in the Voronoi image 34. The power range perimeter is the sum of the Voronoi line lengths surrounding the power range, and is calculated for each pit. For example, the force range length Al of the pit having the center A41 as the center of gravity is calculated as the sum of the lengths of Voronoi lines surrounding the region 46, as shown in FIG. The length of the Voronoi line that is the boundary with the region 47 (= a1), the length of the Voronoi line that is the boundary between the region 46 and the region 48 (= a2), and the Voronoi that is the boundary between the region 46 and the region 49 This is the sum of the length of the line (= a3) and the length of the Voronoi line (= a4) that is the boundary between the region 46 and the region 50.

隣接pitの重心間距離とは、勢力範囲を接する二つのpitの重心間の距離である。例えば、母点A41を重心として領域46を勢力範囲とするpitは、図4(e)に示すように、母点B42を重心として領域47を勢力範囲とするpit、母点C43を重心として領域48を勢力範囲とするpit、母点D44を重心として領域49を勢力範囲とするpit、母点E45を重心として領域50を勢力範囲とするpit、の4つのpitと隣接している。従って、母点A41を重心とするpitの隣接pitの重心間距離は、母点A41と母点B42との距離(=d1)と、母点A41と母点C43との距離(=d2)と、母点A41と母点D44との距離(=d3)と、母点A41と母点E45との距離(=d4)との4つの値となる。   The distance between the centers of gravity of adjacent pits is the distance between the centers of gravity of two pits that touch the power range. For example, as shown in FIG. 4E, the pit having the center point A41 as the center of gravity and the region 46 as the power range is a region having the center point B42 as the center of gravity and the region 47 as the power range, and the center point C43 as the center of gravity. It is adjacent to four pits, a pit having a power range of 48, a pit having a center point D44 as a center of gravity and a region 49 as a power range, and a pit having a center point E45 as a center of gravity and a region 50 as a power range. Therefore, the distance between the centroids of the adjacent pits having the centroid at the generating point A41 is the distance between the generating point A41 and the generating point B42 (= d1) and the distance between the generating point A41 and the generating point C43 (= d2). The distance between the generating point A41 and the generating point D44 (= d3) and the distance between the generating point A41 and the generating point E45 (= d4) are four values.

隣接領域数とは、任意の勢力範囲おいて、その周囲を取り囲むボロノイ線を境界として隣接している勢力範囲の数であって、pit毎に算出される。例えば、図4(e)に示すように、母点A41を重心として領域46を勢力範囲とするpitは、母点B42を重心として領域47を勢力範囲とするpit、母点C43を重心として領域48を勢力範囲とするpit、母点D44を重心として領域49を勢力範囲とするpit、母点E45を重心として領域50を勢力範囲とするpit、の4つのpitと隣接しているため、その隣接領域数は4となる。   The number of adjacent regions is the number of power ranges that are adjacent to each other in a given power range with a Voronoi line surrounding the periphery as a boundary, and is calculated for each pit. For example, as shown in FIG. 4 (e), a pit having a center point A41 as a center of gravity and an area 46 as a power range is a pit having a base point B42 as a center of gravity and a region 47 as a power range, and a center point C43 as a center of gravity. Since it is adjacent to four pits, a pit having a power range of 48, a pit having a center point D44 as a center of gravity and a region 49 as a power range, and a pit having a center point E45 as a center of gravity and a region 50 as a power range, The number of adjacent areas is 4.

尚、これらの領域特徴量35を算出する際には、ステップS3で生成されたpit重心画像33から各pitの重心を取得し、ステップS4で生成されたボロノイ画像34から各pitの勢力範囲を取得する。尚、ステップS3からステップS5の処理は、特徴量算出手段に相当している。   When calculating these region feature values 35, the centroid of each pit is acquired from the pit centroid image 33 generated in step S3, and the power range of each pit is determined from the Voronoi image 34 generated in step S4. get. Note that the processing from step S3 to step S5 corresponds to a feature amount calculating means.

次に、ステップS6において、ステップS5で算出された領域特徴量35を用いて、配列特徴量としての配列規則性特徴量36を算出する。本実施の形態においては、配列規則性特徴量36として、勢力範囲面積と、勢力範囲周囲長と、隣接pitの重心間距離と、隣接領域数のそれぞれの領域特徴量35における、変動係数と、歪度と、尖度とを算出する。   Next, in step S6, the arrangement regularity feature quantity 36 as the arrangement feature quantity is calculated using the region feature quantity 35 calculated in step S5. In the present embodiment, as the arrangement regularity feature amount 36, the power range area, the power range perimeter, the distance between the centers of gravity of adjacent pits, and the coefficient of variation in each region feature amount 35 of the number of adjacent regions, Skewness and kurtosis are calculated.

変動係数CVとは、特徴領域量35のばらつき度合いを評価する尺度であって、ばらつきが大きいほど大きな値をとる。すなわち、pitの配列が規則的であるほど小さな値をとり、不規則であるほど大きな値をとる。変動係数CVは式(1)にて算出される。   The variation coefficient CV is a scale for evaluating the degree of variation of the feature region amount 35, and takes a larger value as the variation is larger. That is, the smaller the pit arrangement, the smaller the value, and the more irregular, the larger the value. The variation coefficient CV is calculated by the equation (1).

[式1]

Figure 2006141734
式(1)において、x(エックスバー)はn個の領域特徴量35の平均値、sは標準偏差である。標準偏差sは式(2)にて算出される。 [Formula 1]
Figure 2006141734
In Expression (1), x (X bar) is an average value of n region feature values 35, and s is a standard deviation. The standard deviation s is calculated by equation (2).

[式2]

Figure 2006141734
歪度βとは、領域特徴量35の分布の非対称性を測る尺度であって、図5(a)に示すように、分布が右側に偏るときにはβ<0、分布が左右対称のときにはβ=0、分布が左側に偏るときにはβ>0の値をとる。すなわち、pitの配列が規則的であるほど0に近い値をとる。図5(a)は、領域特徴量35の分布と歪度との関係を説明する図である。歪度βは、式(3)にて算出される。 [Formula 2]
Figure 2006141734
The skewness β 1 is a scale for measuring the asymmetry of the distribution of the region feature 35, and as shown in FIG. 5A, when the distribution is biased to the right side, β 1 <0, and when the distribution is symmetrical When β 1 = 0 and the distribution is biased to the left, β 1 > 0. That is, the closer to the pit arrangement, the closer to 0. FIG. 5A is a diagram for explaining the relationship between the distribution of the region feature 35 and the skewness. The skewness β 1 is calculated by Expression (3).

[式3]

Figure 2006141734
式(3)において、nは領域特徴量35の個数、xiは領域特徴量35、x(エックスバー)はn個の領域特徴量35の平均値、sは標準偏差である。標準偏差sは、変動係数CVと同様に式(2)にて算出される。 [Formula 3]
Figure 2006141734
In Expression (3), n is the number of region feature values 35, xi is the region feature value 35, x (X bar) is an average value of n region feature values 35, and s is a standard deviation. The standard deviation s is calculated by the equation (2) similarly to the variation coefficient CV.

尖度βとは、領域特徴量35の分布のすその長さ(厚さ)を測る尺度であって、図5(b)に示すように、分布が正規分布よりも広くてすその長さが長いときにはβ>3、分布が正規分布のときにはβ=3、分布が正規分布よりも狭くてすその長さが短いときにはβ<3の値をとる。すなわち、pitの配列が規則的であるほど0に近い値をとる。図5(b)は、領域特徴量35の分布と尖度との関係を説明する図である。尖度βは、(数4)にて算出される。 The kurtosis β 2 is a scale for measuring the length (thickness) of the distribution of the region feature amount 35, and as shown in FIG. 5B, the length of the distribution that is wider than the normal distribution. Β 2 > 3 when the distribution is long, β 2 = 3 when the distribution is normal, and β 2 <3 when the distribution is narrower than the normal distribution and short. That is, the closer to the pit arrangement, the closer to 0. FIG. 5B is a diagram for explaining the relationship between the distribution of the region feature amount 35 and the kurtosis. The kurtosis β 2 is calculated by (Equation 4).

[式4]

Figure 2006141734
式(4)において、nは領域特徴量35の個数、xiは領域特徴量35、x(エックスバー)はn個の領域特徴量35の平均値、sは標準偏差である。標準偏差sは、変動係数CVと同様に式(2)にて算出される。 [Formula 4]
Figure 2006141734
In Expression (4), n is the number of area feature values 35, x i is an area feature value 35, x (X bar) is an average value of n area feature values 35, and s is a standard deviation. The standard deviation s is calculated by the equation (2) similarly to the variation coefficient CV.

次に、ステップS7において、ステップS6で算出された配列規則性特徴量36を用いて、配列を判定、具体的には配列規則性を評価する。配列規則性評価は、図6のフローチャートに従って行われる。ステップS7は、配列判定手段としての配列規則性判定手段を構成する。   Next, in step S7, the arrangement is determined using the arrangement regularity feature amount 36 calculated in step S6, specifically, the arrangement regularity is evaluated. The array regularity evaluation is performed according to the flowchart of FIG. Step S7 constitutes an array regularity determining means as an array determining means.

図6は、配列規則性評価の手順を説明するフローチャートである。まず、ステップS11において、配列規則性評価に用いる1個以上の配列規則性特徴量36を選択する。続いて、ステップS12において、ステップS11で選択された配列規則性特徴量36の個数を確認する。選択された配列規則性特徴量36の個数が1個の場合、続いてステップS13へ進み、ステップS11で選択された配列規則性特徴量36と、予め設定された閾値Thとを比較する。閾値Thは、配列規則性特徴量36毎に設定されており、pitの配列が規則的であるか否かの判定条件である。例えば、ステップS11で勢力範囲面積分布の変動係数が選択され、対応する閾値Thが0.3と設定されているとする。   FIG. 6 is a flowchart for explaining the sequence regularity evaluation procedure. First, in step S11, one or more arrangement regularity feature quantities 36 used for arrangement regularity evaluation are selected. Subsequently, in step S12, the number of arrangement regularity features 36 selected in step S11 is confirmed. If the number of selected arrangement regularity features 36 is one, the process proceeds to step S13, where the arrangement regularity features 36 selected in step S11 are compared with a preset threshold Th. The threshold value Th is set for each arrangement regularity feature amount 36 and is a determination condition as to whether or not the arrangement of pits is regular. For example, it is assumed that the variation coefficient of the power range area distribution is selected in step S11 and the corresponding threshold value Th is set to 0.3.

図7(a)(b)に示すように、図3のステップS6で算出された勢力範囲面積分布の変動係数が0.3未満の場合、ステップS14へ進み、図7(d)(e)に示すように、pit配列は規則的であると判定されて、配列規則性評価を終了する。一方、図7(c)に示すように、図3のステップS6で算出された勢力範囲面積分布の変動係数が0.3以上の場合、ステップS15へ進み、図7(f)に示すように、pit配列は不規則的であると判定されて、配列規則性評価を終了する。   As shown in FIGS. 7A and 7B, when the variation coefficient of the power range area distribution calculated in step S6 in FIG. 3 is less than 0.3, the process proceeds to step S14, and FIGS. As shown, the pit arrangement is determined to be regular, and the arrangement regularity evaluation ends. On the other hand, as shown in FIG. 7C, when the variation coefficient of the power range area distribution calculated in step S6 in FIG. 3 is 0.3 or more, the process proceeds to step S15, and as shown in FIG. , The pit arrangement is determined to be irregular, and the arrangement regularity evaluation is terminated.

図7は、勢力範囲面積分布の変動係数の異なるpit patternに対する配列規則性評価を説明する図であって、図7(a)と、図7(b)とは、勢力範囲面積分布の変動係数が0.3未満のボロノイ画像34、図7(d)は、図7(a)に示したボロノイ画像34pit patternを説明する概略図、図7(e)は、図7(b)に示したボロノイ画像34のpit patternを説明する概略図、図7(c)は、勢力範囲面積分布の変動係数が0.3以上のボロノイ画像34、図7(f)は、図7(c)に示したボロノイ画像34のpit patternを説明する概略図である。   7A and 7B are diagrams for explaining the evaluation of arrangement regularity with respect to a pit pattern having a different coefficient of variation of the power range area distribution. FIGS. 7A and 7B show the coefficient of variation of the power range area distribution. Is a Voronoi image 34 having a value less than 0.3, FIG. 7D is a schematic diagram for explaining the Voronoi image 34 pit pattern shown in FIG. 7A, and FIG. 7E is shown in FIG. 7B. FIG. 7C is a schematic diagram for explaining the pit pattern of the Voronoi image 34. FIG. 7C shows the Voronoi image 34 in which the coefficient of variation of the power range area distribution is 0.3 or more. FIG. 7F shows the pit pattern shown in FIG. FIG. 6 is a schematic diagram illustrating a pit pattern of a Voronoi image 34.

ステップS12において、ステップS11で選択された配列規則性特徴量36の個数が2個以上である場合、続いてステップS16へ進む。ステップS16において、ステップS11で選択された複数の配列規則性特徴量36に対して識別器を適用する。識別器は、判別分析を用いて、識別器を適応するデータを、予め定義されたクラスと呼ばれるグループの何れかに分類するものである。既に特定のクラスに分類されているデータの特徴量を用いて、特徴量を説明変数としてクラスに分類するための特徴量ベクトルが算出されており、この特徴量ベクトルにクラスが未知のデータの特徴量を適用することで、当該データを何れかのクラスに分類する。また、当該データが、各クラスに対してどの程度類似しているかを示す指標(クラスからの距離と呼ばれる)を算出することも可能である。クラスは、何らかの属性が類似しているデータの集合であれば、自由に定義することができる。本実施の形態においては、配列規則性を属性とし、大腸粘膜におけるpit patternの整群と不整群とをクラスとして定義している。また、配列規則性特徴量36を説明変数として用いている。   In step S12, when the number of arrangement regularity feature quantities 36 selected in step S11 is two or more, the process proceeds to step S16. In step S16, a discriminator is applied to the plurality of arrangement regularity feature quantities 36 selected in step S11. The discriminator uses discriminant analysis to classify data to which the discriminator is applied into one of a group called a predefined class. A feature vector for classifying the feature quantity into the class as an explanatory variable has been calculated using the feature quantity of the data already classified into a specific class, and the feature of the data whose class is unknown in this feature quantity vector By applying the quantity, the data is classified into any class. It is also possible to calculate an index (referred to as a distance from the class) indicating how similar the data is to each class. A class can be freely defined as long as it is a collection of data with similar attributes. In the present embodiment, the regularity of arrangement is defined as an attribute, and the regular group and irregular group of the pit pattern in the colonic mucosa are defined as classes. The arrangement regularity feature quantity 36 is used as an explanatory variable.

識別器は、識別の方法から、Fisherの線形判別関数に代表される統計的識別器と、ニューラルネットワークに代表される非統計的識別器とに大別される。分類対象となるデータの特徴量の分布の型(例えば、多変量正規分布)や、識別器自体の性能等に応じて、適宜選択して使用する。本実施の形態においては、識別器として、Fisherの線形判別関数を用いており、規則的配列クラスの判別関数g1と、不規則的配列クラスの判別関数g2とが識別器として定義されている。従って、ステップS16では、ステップS11で選択された複数の配列規則性特徴量36に対して、判別関数g1及び、判別関数g2を適用する。   The classifiers are roughly classified into a statistical classifier represented by Fisher's linear discriminant function and a non-statistical classifier represented by a neural network. It is appropriately selected and used in accordance with the distribution type (for example, multivariate normal distribution) of the feature quantity of the data to be classified and the performance of the classifier itself. In the present embodiment, Fisher's linear discriminant function is used as a discriminator, and a discriminant function g1 for a regular array class and a discriminant function g2 for an irregular array class are defined as discriminators. Accordingly, in step S16, the discriminant function g1 and the discriminant function g2 are applied to the plurality of arrangement regularity feature quantities 36 selected in step S11.

引き続き、ステップS17において、ステップS16での識別器の適用結果を確認する。判別関数g1の適用結果が、判別関数g2の適用結果よりも大きいとき、ステップS14へ進み、pit配列は規則的であると判定されて、配列規則性評価を終了する。一方、判別関数g1の適用結果が、判別関数g2の適用結果以下のとき、ステップS15へ進み、pit配列は不規則的であると判定されて、配列規則性評価を終了する。図6のフローチャートに示した配列規則性評価を終了すると、図3のフローチャートに示した画像解析処理が全て終了する。尚、ステップS6及びステップS7の処理は、配列評価手段としての配列規則性評価手段に相当している。   Subsequently, in step S17, the application result of the discriminator in step S16 is confirmed. When the application result of the discriminant function g1 is larger than the application result of the discriminant function g2, the process proceeds to step S14, where it is determined that the pit arrangement is regular, and the arrangement regularity evaluation ends. On the other hand, when the application result of the discriminant function g1 is equal to or less than the application result of the discriminant function g2, the process proceeds to step S15, where it is determined that the pit arrangement is irregular, and the arrangement regularity evaluation ends. When the arrangement regularity evaluation shown in the flowchart of FIG. 6 is finished, all the image analysis processing shown in the flowchart of FIG. 3 are finished. Note that the processing of step S6 and step S7 corresponds to an array regularity evaluation means as an array evaluation means.

以上の処理によって、画像処理装置1は、内視鏡観察装置3で撮像された原画像31を、画像ファイリング装置4を介して取得し、原画像31における大腸pit patternの配列規則性を評価することができる。   Through the above processing, the image processing apparatus 1 acquires the original image 31 captured by the endoscope observation apparatus 3 via the image filing apparatus 4, and evaluates the arrangement regularity of the large intestine pit pattern in the original image 31. be able to.

このように、本実施の形態の画像処理装置1では、隣接pitとの関係を考慮してpitの配列規則性特徴量を定量的に算出することができ、粘膜表面微細構造の配列規則性特徴量を基にした配列規則性評価が可能になる。   As described above, in the image processing apparatus 1 according to the present embodiment, the arrangement regularity feature amount of the pit can be quantitatively calculated in consideration of the relationship with the adjacent pit, and the arrangement regularity feature of the mucosal surface fine structure can be calculated. It is possible to evaluate the arrangement regularity based on the quantity.

尚、本実施の形態においては、大腸粘膜におけるpitの配列規則性の評価について説明したが、例えば食道の微細血管(IPCL)や、胃の粘膜におけるpitについても同様に配列規則性を評価することができる。   In the present embodiment, the evaluation of the arrangement regularity of pits in the large intestine mucosa has been described. For example, the arrangement regularity of pits in the esophageal fine blood vessels (IPCL) and the gastric mucosa is also evaluated. Can do.

(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。画像処理装置1の全体構成は、画像処理プログラム28の処理内容が異なる点と、画像処理プログラム28を実行することによって取得、生成され、メモリ22に記憶される解析データとして、pit重心画像33に換わってpit芯線画像53が含まれる点を除き、第1の実施の形態と同一であるため、ここでは、特徴となる作用についてのみ説明し、同じ構成要素については同じ符号を付して説明は省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The overall configuration of the image processing apparatus 1 is that the processing content of the image processing program 28 is different from that of the pit barycentric image 33 as analysis data acquired and generated by executing the image processing program 28 and stored in the memory 22. Since it is the same as that of the first embodiment except that the pit core line image 53 is included instead, only the characteristic operation will be described here, and the same components are denoted by the same reference numerals and the description will be omitted. Omitted.

本実施の形態においては、粘膜微細構造の配列の評価、例えば桿状の大腸pit等の配列規則性を評価する場合について説明する。まず、画像処理装置1は、第1の実施の形態と同様に、内視鏡観察装置3で撮像された、大腸pit patternの原画像31を、画像ファイリング装置4を介して取得する。原画像31を取得すると、画像処理装置1の画像処理プログラム28が実行されて、図8のフローチャートに従って画像解析処理が実行される。   In the present embodiment, a description will be given of the evaluation of the arrangement of the mucosal microstructure, for example, the evaluation of the arrangement regularity such as a bowl-shaped colon pit. First, the image processing apparatus 1 acquires the original image 31 of the large intestine pit pattern captured by the endoscope observation apparatus 3 via the image filing apparatus 4 as in the first embodiment. When the original image 31 is acquired, the image processing program 28 of the image processing apparatus 1 is executed, and image analysis processing is executed according to the flowchart of FIG.

図8は、画像処理プログラム28による画像解析処理の手順を説明するフローチャートである。図8のフローチャートには、処理ステップに加えて、各処理ステップにおいて入出力される解析データも示している。まず、ステップS21において、原画像31に対して二値化処理を施し、二値化画像32を生成する。次に、ステップS22において、ステップS21で生成された二値化画像32に対してラベリング処理を施し、ラベリング画像37を生成する。ステップS21における二値化処理と、ステップS22におけるラベリング処理とは、それぞれ図3を用いて説明した、第1の実施の形態における画像解析処理の、ステップS1の二値化処理、及び、ステップS2のラベリング処理と同一の処理であるので、具体的な処理に関する説明を省略する。   FIG. 8 is a flowchart for explaining the procedure of image analysis processing by the image processing program 28. In addition to the processing steps, the flowchart of FIG. 8 also shows analysis data input / output at each processing step. First, in step S <b> 21, binarization processing is performed on the original image 31 to generate a binarized image 32. Next, in step S22, a labeling process is performed on the binarized image 32 generated in step S21 to generate a labeling image 37. The binarization process in step S21 and the labeling process in step S22 are respectively the binarization process in step S1 and the step S2 of the image analysis process in the first embodiment described with reference to FIG. This is the same process as the labeling process in FIG.

次に、ステップS23において、ステップS22で生成されたラベリング画像37に対してpit芯線を算出するための細線化処理を施し、pit patternの幅が1画素である細線画像に変換して、細線化画像、すなわち、pit芯線画像53を生成する。pit芯線画像53は、pit patternの芯線を表す画像であって、芯線にあたる画素の画素値は、当該画素に付与されているラベルとされ、それ以外の画素の画素値は0とされている。ここで、細線化処理とは、公知の処理であって、本実施の形態においては次のように行われる。ラベリング画像37において、同一ラベルが付与された画素の集まりが成す領域のそれぞれについて、その領域における画素の連結性が保持される限り、その領域の輪郭画素、すなわち、画素値が0である画素と隣接している画素の画素値を次々と0にしていく。つまり、同一ラベルが付与された画素の集まりが成す領域を、外側から順番に、一画素層ずつ画素値を0にしていき、領域の線幅が1になるまで領域の線幅を減少させる。上記処理によって、線幅1のpit芯線画像53を生成する。   Next, in step S23, the labeling image 37 generated in step S22 is subjected to a thinning process for calculating a pit core line, and converted into a thin line image having a pit pattern width of 1 pixel, thereby thinning the line. An image, that is, a pit core line image 53 is generated. The pit core line image 53 is an image representing a core line of a pit pattern, and the pixel value of the pixel corresponding to the core line is a label attached to the pixel, and the pixel values of the other pixels are zero. Here, the thinning process is a known process, and is performed as follows in the present embodiment. In the labeling image 37, as long as the connectivity of the pixels in each region formed by a group of pixels to which the same label is assigned, the contour pixels of the region, that is, the pixels having a pixel value of 0 The pixel values of adjacent pixels are successively set to 0. That is, the pixel value is set to 0 for each pixel layer sequentially from the outside in a region formed by a collection of pixels to which the same label is assigned, and the line width of the region is reduced until the line width of the region becomes 1. With the above processing, a pit core line image 53 having a line width of 1 is generated.

次に、ステップS24において、ステップS23で生成されたpit芯線画像53をボロノイ分割してボロノイ図を生成する。本実施の形態におけるボロノイ分割は、次のように行われる。図9は、ボロノイ分割を説明する図であり、図9(a)は、pitの重心を母点として生成したボロノイ画像の概略図、図9(b)及び図9(c)は、pit芯線画像53からボロノイ画像54を作成する途中過程を説明する概略図、図9(d)は、ボロノイ画像54の概略図である。   Next, in step S24, the pit core line image 53 generated in step S23 is Voronoi divided to generate a Voronoi diagram. Voronoi division in the present embodiment is performed as follows. FIG. 9 is a diagram for explaining Voronoi division. FIG. 9A is a schematic diagram of a Voronoi image generated using the center of gravity of pit as a generating point, and FIGS. 9B and 9C are pit core lines. FIG. 9D is a schematic diagram for explaining the intermediate process of creating the Voronoi image 54 from the image 53, and FIG. 9D is a schematic diagram of the Voronoi image 54.

まず、pit芯線画像53において、画素値としてラベルが付与されている画素を母点とし、全ての画素について、最も近い母点を算出する。次に、最も近い母点が同じである画素が同じ領域に含まれるように、pit芯線画像53を母点の数と同じ数の領域にボロノイ分割する。本実施の形態においては、pit芯線画像53を左上から右下へ順次走査しながら、画素値としてラベルが付与されている画素を、三画素おきに抽出して母点とし、この母点に関して上記のボロノイ分割して、図9(b)に示すようなボロノイ図を得る。   First, in the pit core line image 53, a pixel assigned a label as a pixel value is used as a generating point, and the nearest generating point is calculated for all pixels. Next, the pit core line image 53 is Voronoi divided into the same number of regions as the number of generating points so that pixels having the same nearest generating point are included in the same region. In this embodiment, while sequentially scanning the pit core line image 53 from the upper left to the lower right, the pixels assigned with the labels as the pixel values are extracted every three pixels as the mother points, and the above-mentioned mother points are related to the above points. The Voronoi diagram as shown in FIG. 9B is obtained.

次に、ステップS25において、ステップS24で生成されたボロノイ図に対して、同一ラベル間境界線消去処理を施して、ボロノイ画像54を生成する。同一ラベル間境界線消去処理とは、図9(c)に示すように、ステップS24で生成されたボロノイ図において、画素値が同じ母点の領域を隔てる境界線に位置する画素値を0とする処理である。この処理によって、図9(d)に示すような、pit patternの各要素の勢力範囲を表すボロノイ画像54が生成される。桿状の大腸pitの場合、第1の実施の形態で説明したように、pitの重心を母点としてボロノイ分割した場合、図9(a)に示すように、pitの勢力範囲にpit全体を含むことができない場合がある。しかし、本実施の形態においては、pitの芯線を母点としてボロノイ分割を行うことで、pitの形状に拠らず、常にpitの勢力範囲にpit全体が含まれる、図9(d)に示すようなボロノイ画像54を得ることができる。   Next, in step S25, the Voronoi diagram generated in step S24 is subjected to the same inter-label boundary line erasing process to generate a Voronoi image 54. As shown in FIG. 9C, the same-label boundary line erasure processing is performed by setting the pixel value located on the boundary line separating the regions of the same mother point in the Voronoi diagram generated in step S24 to 0. It is processing to do. By this process, a Voronoi image 54 representing the power range of each element of the pit pattern as shown in FIG. 9D is generated. In the case of a bowl-shaped large intestine pit, as described in the first embodiment, when Voronoi is divided using the center of gravity of the pit as a generating point, as shown in FIG. It may not be possible. However, in this embodiment, by performing Voronoi division using the core line of the pit as a generating point, the entire pit is always included in the pit's power range regardless of the shape of the pit, as shown in FIG. Such a Voronoi image 54 can be obtained.

次に、ステップS26において、ステップS25で生成されたボロノイ画像54を用いて、領域特徴量35を算出する。ステップS26における領域特徴量算出処理は、図3を用いて説明した、第1の実施の形態における画像解析処理の、ステップS5における領域特徴量算出処理と同一の処理であるので、具体的な処理に関する説明を省略する。   Next, in step S26, the region feature 35 is calculated using the Voronoi image 54 generated in step S25. The area feature quantity calculation process in step S26 is the same process as the area feature quantity calculation process in step S5 of the image analysis process in the first embodiment described with reference to FIG. The description about is omitted.

次に、ステップS27において、ステップS26において算出された領域特徴量35を用いて、配列規則性特徴量36を算出する。ステップS27における配列規則性特徴量算出処理は、図3を用いて説明した、第1の実施の形態における画像解析処理の、ステップS6における配列規則性特徴量算出処理と同一の処理であるので、具体的な処理に関する説明を省略する。   Next, in step S27, the arrangement regularity feature amount 36 is calculated using the region feature amount 35 calculated in step S26. Since the arrangement regularity feature amount calculation processing in step S27 is the same processing as the arrangement regularity feature amount calculation processing in step S6 of the image analysis processing in the first embodiment described with reference to FIG. A description of specific processing is omitted.

次に、ステップS28において、ステップS27で算出された配列規則性特徴量36を用いて、配列規則性を評価する。配列規則性評価は、第1の実施の形態と同様に、図6のフローチャートに従って行われる。図6のフローチャートに示した配列規則性評価を終了すると、図8のフローチャートに示した画像解析処理が全て終了する。   Next, in step S28, the arrangement regularity is evaluated using the arrangement regularity feature amount 36 calculated in step S27. The array regularity evaluation is performed according to the flowchart of FIG. 6 as in the first embodiment. When the arrangement regularity evaluation shown in the flowchart of FIG. 6 is completed, all the image analysis processes shown in the flowchart of FIG. 8 are completed.

以上の処理によって、画像処理装置1は、内視鏡観察装置3で撮像された原画像31を、画像ファイリング装置4を介して取得し、原画像31における大腸pit patternの配列規則性を評価することができる。   Through the above processing, the image processing apparatus 1 acquires the original image 31 captured by the endoscope observation apparatus 3 via the image filing apparatus 4, and evaluates the arrangement regularity of the large intestine pit pattern in the original image 31. be able to.

このように、本実施の形態の画像処理装置1では、隣接pitとの関係を考慮してpitの配列規則性特徴量を定量的に算出することができ、粘膜表面微細構造の配列規則性特徴量を基にした配列規則性評価が可能になる。また、pitの形状を反映させた領域分割を行うことで、線状の構造要素についても良好な配列規則性評価が可能になる。   As described above, in the image processing apparatus 1 according to the present embodiment, the arrangement regularity feature amount of the pit can be quantitatively calculated in consideration of the relationship with the adjacent pit, and the arrangement regularity feature of the mucosal surface fine structure can be calculated. It is possible to evaluate the arrangement regularity based on the quantity. In addition, by performing region division that reflects the shape of the pit, it is possible to evaluate a good arrangement regularity even for linear structural elements.

尚、本実施の形態においては、図8のステップS23で、pit芯線画像53を生成したが、pitの輪郭線画像を生成し、この画像をステップS24以降に適用するように構成してもよい。輪郭線画像とは、pitの輪郭を表す画像であって、ステップS22で生成されたラベリング画像37において、同一ラベルが付与された画素の集まりが成す領域のそれぞれについて、その領域の輪郭画素、すなわち、画素値が0である画素が八近傍に存在する画素の画素値をラベルのままとし、輪郭画素以外の画素の画素値を0とすることで得られる。   In the present embodiment, the pit core line image 53 is generated in step S23 of FIG. 8, but a contour image of the pit may be generated, and this image may be applied to step S24 and subsequent steps. . The contour image is an image representing the contour of the pit, and in the labeling image 37 generated in step S22, for each region formed by a group of pixels to which the same label is assigned, The pixel value of the pixel having a pixel value of 0 is obtained by setting the pixel value of the pixel in the vicinity of eight as the label and setting the pixel values of the pixels other than the contour pixel to 0.

また、本実施の形態においては、大腸粘膜におけるpitの配列規則性の評価について説明したが、第1の実施の形態同様、例えば食道の微細血管(IPCL)や、胃の粘膜におけるpitについても同様に配列規則性を評価することができる。   In this embodiment, the evaluation of the arrangement regularity of pits in the large intestine mucosa has been described. However, as in the first embodiment, for example, the same applies to pits in the esophagus microvessel (IPCL) and gastric mucosa. The arrangement regularity can be evaluated.

なお、本実施の形態においては、粘膜表面微細構造の配列規則性を例に説明したが、本実施の形態における一連の画像解析手法は粘膜表面微細構造の分布状態を評価し得るものであり、これにとどまるものではない。例えば、共に規則性の認められない2種類のパターンの分布に対しても、各構造成分の勢力範囲の持つ領域特徴量が異なるものであれば、識別することが可能である。   In the present embodiment, the arrangement regularity of the mucosal surface fine structure has been described as an example, but a series of image analysis techniques in the present embodiment can evaluate the distribution state of the mucosal surface fine structure, This doesn't stop there. For example, it is possible to identify the distribution of two types of patterns in which regularity is not recognized as long as the region feature amounts of the range of influence of each structural component are different.

以上の実施の形態から、次の付記項に記載の点に特徴がある。   From the above embodiment, there is a feature in the points described in the following additional items.

(付記項1)生体粘膜表面画像を撮像した一つ以上の色信号からなる医用画像を入力するステップと、
前記医用画像から粘膜微細構造を抽出するステップと、
前記粘膜微細構造の持つ領域特徴量を算出するステップと、
前記領域特徴量から粘膜構造の配列規則性を評価するステップと、
を含むことを特徴とする医用画像処理方法。
(Supplementary Item 1) Inputting a medical image composed of one or more color signals obtained by imaging a biological mucosal surface image;
Extracting a mucosal microstructure from the medical image;
Calculating a region feature amount of the mucosal microstructure;
Evaluating the arrangement regularity of the mucosal structure from the region feature amount;
A medical image processing method comprising:

(付記項2)前記粘膜微細構造を抽出するステップが、前記医用画像の少なくとも一つの色信号から二値化抽出するステップを含むことを特徴とする、付記項1に記載の医用画像処理方法。   (Additional Item 2) The medical image processing method according to Additional Item 1, wherein the step of extracting the mucosal microstructure includes the step of binarizing and extracting from at least one color signal of the medical image.

(付記項3)前記粘膜微細構造を抽出するステップが、前記粘膜微細構造の各要素を識別するステップをさらに含み、前記各要素を識別するステップにおいて識別された要素ごとに一つ以上の構造情報を抽出することを特徴とする、付記項1又は付記項2に記載の医用画像処理方法。   (Additional Item 3) The step of extracting the mucosal microstructure further includes the step of identifying each element of the mucosal microstructure, and one or more pieces of structural information for each element identified in the step of identifying each element The medical image processing method according to supplementary note 1 or supplementary note 2, wherein the medical image processing method is extracted.

(付記項4)前記領域特徴量を算出するステップが、前記各要素の構造情報に領域を割り当てるステップをさらに含み、前記割り当てられた領域から、一つ以上の領域特徴量を算出することを特徴とする、付記項4に記載の医用画像処理方法。   (Supplementary Item 4) The step of calculating the region feature amount further includes a step of assigning a region to the structure information of each element, and calculating one or more region feature amounts from the assigned region. The medical image processing method according to appendix 4.

(付記項5)前記各要素の構造情報に領域を割り当てるステップが、前記各要素の構造特徴のボロノイ図により領域を割り当てることを特徴とする、付記項4に記載の医用画像処理方法。   (Additional Item 5) The medical image processing method according to Additional Item 4, wherein the step of allocating an area to the structural information of each element allocates an area according to a Voronoi diagram of the structural feature of each element.

(付記項6)前記配列規則性を評価するステップが、前記一つ以上の領域特徴量を用いて画像における一つ以上の配列規則性特徴量を算出するステップをさらに含み、前記配列規則性特徴量により、配列規則性を評価することを特徴とする、付記項1乃至付記項5の何れかに記載の医用画像処理方法。   (Supplementary Item 6) The step of evaluating the arrangement regularity further includes a step of calculating one or more arrangement regularity features in an image using the one or more region feature amounts, and the arrangement regularity feature 6. The medical image processing method according to any one of appendices 1 to 5, wherein the arrangement regularity is evaluated based on the amount.

(付記項7)前記前記粘膜微細構造の各要素を識別するステップが、前記粘膜微細構造のラベリング処理により識別することを特徴とする、付記項3に記載の医用画像処理方方法。   (Additional Item 7) The medical image processing method according to Additional Item 3, wherein the step of identifying each element of the mucosal microstructure is identified by a labeling process of the mucous membrane microstructure.

(付記項8)前記構造情報が、前記粘膜微細構造の各要素の重心であることを特徴とする、付記項3又は付記項7に記載の医用画像処理方方法。   (Additional Item 8) The medical image processing method according to Additional Item 3 or Additional Item 7, wherein the structure information is a center of gravity of each element of the mucosal microstructure.

(付記項9)前記構造情報が、前記粘膜微細構造の各要素の細線であることを特徴とする、付記項3又は付記項7に記載の医用画像処理方方法。   (Additional Item 9) The medical image processing method according to Additional Item 3 or Additional Item 7, wherein the structure information is a thin line of each element of the mucosal microstructure.

(付記項10)前記構造情報が、前記粘膜微細構造の各要素の輪郭線であることを特徴とする、付記項3又は付記項7に記載の医用画像処理方方法。   (Additional Item 10) The medical image processing method according to Additional Item 3 or Additional Item 7, wherein the structure information is a contour line of each element of the mucosal microstructure.

(付記項11)前記領域特徴量が、前記割り当てられたボロノイ領域の面積であることを特徴とする、付記項5に記載の医用画像処理方法。   (Additional Item 11) The medical image processing method according to Additional Item 5, wherein the region feature amount is an area of the allocated Voronoi region.

(付記項12)前記領域特徴量が、前記割り当てられたボロノイ領域の周囲長であることを特徴とする、付記項5に記載の医用画像処理方法。   (Additional Item 12) The medical image processing method according to Additional Item 5, wherein the region feature amount is a perimeter of the assigned Voronoi region.

(付記項13)前記領域特徴量が、前記割り当てられたボロノイ領域の重心間距離であることを特徴とする、付記項5に記載の医用画像処理方法。   (Additional Item 13) The medical image processing method according to Additional Item 5, wherein the region feature amount is a distance between the centers of gravity of the assigned Voronoi regions.

(付記項14)前記配列規則性特徴量を算出するステップが、前記領域特徴量分布のばらつきの大きさを表す変動係数を算出することを特徴とする、付記項6に記載の医用画像処理方法。   (Additional Item 14) The medical image processing method according to Additional Item 6, wherein the step of calculating the arrangement regularity feature amount calculates a variation coefficient indicating a variation of the region feature amount distribution. .

(付記項15)前記配列規則性特徴量を算出するステップが、前記領域特徴量分布の非対称性を表す歪度を算出することを特徴とする、付記項6に記載の医用画像処理方法。   (Additional Item 15) The medical image processing method according to Additional Item 6, wherein the step of calculating the arrangement regularity feature amount calculates a skewness representing the asymmetry of the region feature amount distribution.

(付記項16)前記配列規則性特徴量を算出するステップが、前記領域特徴量分布のすその長さを表す尖度を算出することを特徴とする、付記項6に記載の医用画像処理方法。   (Additional Item 16) The medical image processing method according to Additional Item 6, wherein the step of calculating the arrangement regularity feature amount calculates a kurtosis representing a length of the region feature amount distribution. .

(付記項17)前記配列規則性特徴量により配列規則性を評価するステップが、前記一つ以上の配列規則性特徴量を所定閾値と比較することにより、前記粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判断することを特徴とする、付記項6、付記項14、付記項15、付記項16のいずれかに記載の医用画像処理方法。   (Supplementary Item 17) The step of evaluating the arrangement regularity based on the arrangement regularity feature amount compares the one or more arrangement regularity feature amounts with a predetermined threshold value, whereby the arrangement of each element of the mucosal microstructure is determined. Item 18. The medical image processing method according to any one of Item 6, Item 14, Item 15, and Item 16, wherein it is determined whether the image is regular or irregular.

(付記項18)前記配列規則性特徴量により配列規則性を評価するステップが、前記二つ以上の配列規則性特徴量を識別器に適用することにより、前記粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判断することを特徴とする、付記項6、付記項14、付記項15、付記項16のいずれかに記載の医用画像処理方法。   (Supplementary Item 18) The step of evaluating the arrangement regularity based on the arrangement regularity feature amount applies the two or more arrangement regularity feature amounts to a discriminator, whereby the arrangement of each element of the mucosal microstructure is changed. Item 18. The medical image processing method according to any one of Item 6, Item 14, Item 15, and Item 16, wherein it is determined whether the image is regular or irregular.

(付記項19)前記粘膜微細構造が、前記医用画像における表面腺口形態(pit pattern)であることを特徴とする、付記項1乃至付記項18のいずれかに記載の医用画像処理方法。   (Additional Item 19) The medical image processing method according to any one of Additional Item 1 to Additional Item 18, wherein the mucosal microstructure is a pit pattern in the medical image.

(付記項20)前記粘膜微細構造が、前記医用画像における微細血管であることを特徴とする、付記項1乃至付記項18のいずれかに記載の医用画像処理方法。   (Additional Item 20) The medical image processing method according to any one of Additional Items 1 to 18, wherein the mucosal microstructure is a fine blood vessel in the medical image.

(付記項21)生体粘膜表面を撮像した1つ以上の色信号からなる医用画像を入力する画像入力ステップと、
前記医用画像上の粘膜微細構造を抽出する粘膜微細構造抽出ステップと、
画像領域を前記抽出した粘膜微細構造に基づき前記医用画像を複数の領域に分割する領域分割ステップと、
前記分割領域から特徴量を算出する特徴量算出ステップと、
前記算出した特徴量から粘膜表面状態を識別する識別ステップと、
を含むことを特徴とする医用画像処理方法。
(Additional Item 21) An image input step of inputting a medical image composed of one or more color signals obtained by imaging a biological mucosal surface;
A mucosal microstructure extraction step for extracting the mucosal microstructure on the medical image;
A region dividing step of dividing the medical image into a plurality of regions based on the extracted mucous membrane microstructure;
A feature amount calculating step for calculating a feature amount from the divided area;
An identification step of identifying a mucosal surface state from the calculated feature amount;
A medical image processing method comprising:

(付記項22)前記領域分割ステップは、粘膜微細構造の基準点/又は基準線を抽出する基準情報抽出ステップをさらに含み、前記医用画像を抽出した基準点/又は基準線に基づいた占有範囲に分割することを特徴とする付記項21に記載の医用画像処理方法。   (Additional Item 22) The region dividing step further includes a reference information extracting step for extracting a reference point / or reference line of the mucosal microstructure, and an occupation range based on the reference point / or reference line from which the medical image is extracted. Item 22. The medical image processing method according to Item 21, which is divided.

(付記項23)前記特徴量算出ステップは、個々の分割領域から領域特徴量を算出する領域特徴量算出ステップをさらに含み、算出した領域特徴量の分布に基づいた分布特徴量を算出することを特徴とする付記項21又は付記項22に記載の医用画像処理方法。   (Additional Item 23) The feature amount calculating step further includes a region feature amount calculating step of calculating a region feature amount from each divided region, and calculating a distribution feature amount based on the distribution of the calculated region feature amount. Item 23. The medical image processing method according to item 21 or 22,

(付記項24)前記粘膜微細構造の基準点/又は基準線は、粘膜構造の重心/又は細線/又は輪郭線であることを特徴とする付記項21、付記項22又は付記項23に記載の医用画像処理方法。   (Additional Item 24) The reference point / or the reference line of the mucosal microstructure is the center of gravity / or the fine line / or the contour line of the mucosal structure, according to the additional item 21, the additional item 22 or the additional item 23, Medical image processing method.

(付記項25)前記領域特徴量は、領域の面積/又は周囲長であることを特徴とする付記項23に記載の医用画像処理方法。   (Additional Item 25) The medical image processing method according to Additional Item 23, wherein the region feature amount is an area / perimeter of the region.

(付記項26)前記領域特徴量算出ステップは、分割領域が隣接する隣接構造成分を特定するステップをさらに含み、前記領域特徴量は、隣接構造成分/又は分割領域の重心間距離/又は隣接領域数であることを特徴とする付記項23又は付記項25に記載の医用画像処理方法。   (Additional Item 26) The region feature amount calculating step further includes a step of specifying an adjacent structural component adjacent to the divided region, and the region feature amount is an adjacent structural component / or a distance between the centers of gravity of the divided regions / or an adjacent region. 26. The medical image processing method according to Additional Item 23 or Additional Item 25, wherein the medical image processing method is a number.

(付記項27)前記分布特徴量は、前記領域特徴量分布の変動係数/又は歪度/又は尖度/又は平均値/又は標準偏差/又は分散であることを特徴とする付記項23に記載の医用画像処理方法。   (Additional Item 27) The additional feature item 23, wherein the distribution feature amount is a variation coefficient / or skewness / or kurtosis / or average value / or standard deviation / or variance of the region feature amount distribution. Medical image processing method.

(付記項28)前記分布特徴量から粘膜表面状態を識別する識別ステップは、1つ以上の前記分布特徴量を所定閾値と比較することを特徴とする付記項23又に記載の医用画像処理方法。   (Additional Item 28) The medical image processing method according to Additional Item 23, wherein the identifying step of identifying the mucosal surface state from the distribution feature amount compares one or more of the distribution feature amounts with a predetermined threshold value. .

(付記項29)前記分布特徴量から粘膜表面状態を識別する識別ステップは、2つ以上の前記分布特徴量を識別器に適用することを特徴とする付記項23又に記載の医用画像処理方法。   (Additional Item 29) The medical image processing method according to Additional Item 23, wherein the identifying step of identifying a mucosal surface state from the distribution feature amount applies two or more of the distribution feature amounts to a discriminator. .

(付記項30)前記分布特徴量を所定閾値と比較することは、粘膜微細構造の各要素の配列が規則的であるか、不規則的であるが判定することを特徴とする付記項28に記載の医用画像処理方法。   (Supplementary Item 30) The supplementary item 28 is characterized in that comparing the distribution feature amount with a predetermined threshold value determines whether the arrangement of each element of the mucosal microstructure is regular or irregular. The medical image processing method as described.

(付記項31)前記2つ以上の分布特徴量を識別器に適用することは、粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判定することを特徴とする付記項29に記載の医用画像処理方法。   (Additional Item 31) The application of the two or more distribution feature quantities to the discriminator is characterized by determining whether the arrangement of each element of the mucosal microstructure is regular or irregular. Item 29. The medical image processing method according to Item 29.

(付記項32)前記粘膜微細構造の各要素の配列が規則的であるか、不規則的であるかを判定することは、粘膜微細構造が病変部に含まれるか否かを判定することを特徴とする付記項30又は付記項31に記載の医用画像処理方法。   (Additional Item 32) Determining whether the arrangement of each element of the mucosal microstructure is regular or irregular means determining whether the mucosal microstructure is included in a lesioned part. Item 32. The medical image processing method according to Item 31 or Item 31 characterized by the above.

(付記項33)前記領域分割ステップは、前記抽出した粘膜微細構造の基準点/又は基準線におけるボロノイ図により領域を割り当てることを特徴とする付記項21乃至付記項32のいずれかに記載の医用画像処理方法。   (Additional Item 33) The medical region according to any one of Additional Item 21 to Additional Item 32, wherein in the region dividing step, a region is assigned by a Voronoi diagram at a reference point / or reference line of the extracted mucosal microstructure. Image processing method.

(付記項34)前記粘膜微細構造は、前記生体粘膜表面像における表面腺口形態(pit pattern)/又は微細血管であることを特徴とする付記項21乃至付記項33のいずれかに記載の医用画像処理方法。   (Additional Item 34) The medical structure according to any one of Additional Item 21 to Additional Item 33, wherein the mucosal microstructure is a pit pattern / or microvessel in the surface image of the biological mucosa. Image processing method.

本発明の第1の実施の形態に係わる画像処理装置1と関連システムとのネットワーク構成を概略的に示した図である。1 is a diagram schematically illustrating a network configuration between an image processing apparatus 1 and a related system according to a first embodiment of the present invention. 画像処理装置1の全体構成を概略的に示した図である。1 is a diagram schematically illustrating an overall configuration of an image processing apparatus 1. FIG. 画像処理プログラム28による画像解析処理の手順を説明するフローチャートである。4 is a flowchart for explaining a procedure of image analysis processing by an image processing program 28; ボロノイ画像34及びボロノイ画像34から算出される各種領域特徴量35を説明する図であり、図4(a)は、pit重心画像33の概略図、図4(b)は、図4(a)をボロノイ分割したボロノイ図、図4(c)は、各pitの勢力範囲を説明する概略図、図4(d)は、各pitの勢力範囲周囲長を説明する概略図、図4(e)は、各pitにおける隣接pitの重心間距離を説明する概略図である。4A and 4B are diagrams for explaining the Voronoi image 34 and various region feature amounts 35 calculated from the Voronoi image 34. FIG. 4A is a schematic diagram of the pit centroid image 33, and FIG. 4B is FIG. FIG. 4C is a schematic diagram explaining the power range of each pit, FIG. 4D is a schematic diagram explaining the circumference of the power range of each pit, and FIG. 4E. These are the schematic diagrams explaining the distance between the centers of gravity of adjacent pits in each pit. 図5(a)は、領域特徴量35の分布と歪度との関係を説明する図、図5(b)は、領域特徴量35の分布と尖度との関係を説明する図である。FIG. 5A is a diagram for explaining the relationship between the distribution of the region feature 35 and the skewness, and FIG. 5B is a diagram for explaining the relationship between the distribution of the region feature 35 and the kurtosis. 配列規則性評価の手順を説明するフローチャートである。It is a flowchart explaining the procedure of arrangement | sequence regularity evaluation. 図7は、勢力範囲面積分布の変動係数の異なるpit patternに対する配列規則性評価を説明する図であって、図7(a)と、図7(b)とは、勢力範囲面積分布の変動係数が0.3未満のボロノイ画像34、図7(d)は、図7(a)に示したボロノイ画像34のpit patternを説明する概略図、図7(e)は、図7(b)に示したボロノイ画像34のpit patternを説明する概略図、図7(c)は、勢力範囲面積分布の変動係数が0.3以上のボロノイ画像34、図7(f)は、図7(c)に示したボロノイ画像34のpit patternを説明する概略図である。7A and 7B are diagrams for explaining the evaluation of arrangement regularity with respect to a pit pattern having a different coefficient of variation of the power range area distribution. FIGS. 7A and 7B show the coefficient of variation of the power range area distribution. 7 is a schematic diagram illustrating the pit pattern of the Voronoi image 34 shown in FIG. 7A, and FIG. 7E is a diagram illustrating FIG. 7B. FIG. 7C is a schematic diagram illustrating the pit pattern of the Voronoi image 34 shown, FIG. 7C is a Voronoi image 34 having a coefficient of variation of the power range area distribution of 0.3 or more, and FIG. 7F is FIG. It is the schematic explaining the pit pattern of the Voronoi image 34 shown in FIG. 画像処理プログラム51による画像解析処理の手順を説明するフローチャートである。5 is a flowchart for explaining a procedure of image analysis processing by an image processing program 51. ボロノイ分割を説明する図であり、図9(a)は、pitの重心を母点として生成したボロノイ画像の概略図、図9(b)及び図9(c)は、pit芯線画像53からボロノイ画像54を作成する途中過程を説明する概略図、図9(d)は、ボロノイ画像54の概略図である。FIG. 9A is a diagram for explaining Voronoi division. FIG. 9A is a schematic diagram of a Voronoi image generated using the center of gravity of pit as a generating point, and FIGS. 9B and 9C are Voronoi images from the pit core line image 53. FIG. 9D is a schematic diagram for explaining an intermediate process of creating the image 54, and FIG. 9D is a schematic diagram of the Voronoi image 54.

符号の説明Explanation of symbols

1 画像処理装置、
11 パーソナルコンピュータ、
28 画像処理プログラム、
29 解析データ、
31 原画像、
32 二値化画像、
33 pit重心画像、
34 ボロノイ画像、
35 領域特徴量、
36 配列規則性特徴量、
代理人 弁理士 伊 藤 進
1 image processing device,
11 Personal computer,
28 image processing program,
29 analysis data,
31 Original image,
32 Binary image,
33 pit centroid image,
34 Voronoi image,
35 area features,
36 sequence regularity features,
Agent Patent Attorney Susumu Ito

Claims (6)

被写体を撮像した画像信号に基づき、粘膜微細構造を抽出する微細構造抽出手段と、
前記粘膜微細構造に基づき、前記粘膜微細構造の各要素における領域特徴量を算出する特徴量算出手段と、
前記領域特徴量に基づき、前記粘膜微細構造の配列を評価する配列評価手段と、
を備えたことを特徴とする画像処理装置。
Fine structure extraction means for extracting a mucous membrane fine structure based on an image signal obtained by imaging a subject;
Based on the mucosal microstructure, feature amount calculation means for calculating an area feature amount in each element of the mucosa microstructure,
An array evaluation means for evaluating the array of the mucosal microstructure based on the region feature amount;
An image processing apparatus comprising:
前記微細構造抽出手段が、前記粘膜微細構造の構成要素を識別する構成要素識別手段と、前記構成要素毎に一つ以上の構造情報を抽出する構造情報抽出手段とを含むことを特徴とする、請求項1に記載の画像処理装置。   The fine structure extraction means includes: a component identification means for identifying a component of the mucosal fine structure; and a structure information extraction means for extracting one or more pieces of structure information for each component. The image processing apparatus according to claim 1. 前記特徴量算出手段が、前記微粘膜構造の各構成要素についての前記構造情報に基づき前記微細粘膜構造の各要素に領域を割り当てる領域分割手段と、前記領域毎に一つ以上の領域特徴量を算出する領域特徴量算出手段とを含むことを特徴とする、請求項2に記載の画像処理装置。   The feature quantity calculating means includes area dividing means for assigning areas to each element of the micromucosal structure based on the structural information for each component of the micromucosal structure, and one or more area feature quantities for each area. The image processing apparatus according to claim 2, further comprising a region feature amount calculation unit for calculating. 前記配列評価手段が、前記領域特徴量に基づき配列特徴量を算出する配列特徴量算出手段と、前記配列特徴量に基づき前記粘膜微細構造の配列規則性を判定する配列規則性判定手段とを含むことを特徴とする、請求項1から請求項3のいずれかに記載の画像処理装置。   The array evaluation unit includes an array feature amount calculating unit that calculates an array feature amount based on the region feature amount, and an array regularity determining unit that determines an array regularity of the mucosal microstructure based on the array feature amount. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized. 被写体を撮像した画像信号に基づき、粘膜微細構造を抽出する微細構造抽出工程と、
前記粘膜微細構造に基づき、前記粘膜微細構造の各要素における領域特徴量を算出する特徴量算出工程と、
前記領域特徴量に基づき、前記粘膜微細構造の配列を評価する配列評価工程と、
を備えたことを特徴とする画像処理方法。
A fine structure extraction step of extracting a mucous membrane fine structure based on an image signal obtained by imaging a subject;
Based on the mucosal microstructure, a feature amount calculation step for calculating an area feature amount in each element of the mucosa microstructure,
A sequence evaluation step of evaluating the sequence of the mucosal microstructure based on the region feature amount;
An image processing method comprising:
コンピュータに、
被写体を撮像した画像信号に基づき、粘膜微細構造を抽出する微細構造抽出手順と、
前記粘膜微細構造に基づき、前記粘膜微細構造の各要素における領域特徴量を算出する特徴量算出手順と、
前記領域特徴量に基づき、前記粘膜微細構造の配列を評価する配列評価手順と、
を実行させることを特徴とする画像処理プログラム。

On the computer,
A fine structure extraction procedure for extracting a mucous membrane fine structure based on an image signal obtained by imaging a subject;
Based on the mucosal microstructure, a feature amount calculation procedure for calculating an area feature amount in each element of the mucosa microstructure,
A sequence evaluation procedure for evaluating the sequence of the mucosal microstructure based on the region feature amount;
An image processing program for executing

JP2004336590A 2004-11-19 2004-11-19 Image processing apparatus and image processing program Expired - Fee Related JP4804742B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004336590A JP4804742B2 (en) 2004-11-19 2004-11-19 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004336590A JP4804742B2 (en) 2004-11-19 2004-11-19 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2006141734A true JP2006141734A (en) 2006-06-08
JP4804742B2 JP4804742B2 (en) 2011-11-02

Family

ID=36622065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004336590A Expired - Fee Related JP4804742B2 (en) 2004-11-19 2004-11-19 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4804742B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277205A (en) * 2008-05-15 2009-11-26 Kazuo Aisaka Image recognition method
JP2010004979A (en) * 2008-06-25 2010-01-14 Fujifilm Corp Image processor and processor for endoscope
WO2010110104A1 (en) * 2009-03-24 2010-09-30 オリンパス株式会社 Fluorescence observation device
JP2011087793A (en) * 2009-10-23 2011-05-06 Hoya Corp Processor for electronic endoscope
WO2012039219A1 (en) * 2010-09-22 2012-03-29 オリンパス株式会社 Fluorescence observation device
WO2012073799A1 (en) 2010-12-02 2012-06-07 オリンパス株式会社 Endoscopic image processing apparatus and program
WO2012105141A1 (en) * 2011-02-01 2012-08-09 オリンパスメディカルシステムズ株式会社 Diagnosis assistance apparatus
WO2013008526A1 (en) * 2011-07-12 2013-01-17 オリンパスメディカルシステムズ株式会社 Image processing apparatus
WO2013187206A1 (en) * 2012-06-12 2013-12-19 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2014097758A1 (en) 2012-12-19 2014-06-26 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method
WO2018203514A1 (en) * 2017-05-01 2018-11-08 興和株式会社 Image analysis evaluation method, computer program, and image analysis evaluation device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165757A (en) * 2000-11-30 2002-06-11 Olympus Optical Co Ltd Diagnostic supporting system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165757A (en) * 2000-11-30 2002-06-11 Olympus Optical Co Ltd Diagnostic supporting system

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277205A (en) * 2008-05-15 2009-11-26 Kazuo Aisaka Image recognition method
JP2010004979A (en) * 2008-06-25 2010-01-14 Fujifilm Corp Image processor and processor for endoscope
US8489180B2 (en) 2009-03-24 2013-07-16 Olympus Corporation Fluorescence observation apparatus
WO2010110104A1 (en) * 2009-03-24 2010-09-30 オリンパス株式会社 Fluorescence observation device
JP2010220895A (en) * 2009-03-24 2010-10-07 Olympus Corp Fluorescence observation apparatus
JP2011087793A (en) * 2009-10-23 2011-05-06 Hoya Corp Processor for electronic endoscope
JP2012065800A (en) * 2010-09-22 2012-04-05 Olympus Corp Fluorescence observation apparatus
CN103118582A (en) * 2010-09-22 2013-05-22 奥林巴斯株式会社 Fluorescence observation device
WO2012039219A1 (en) * 2010-09-22 2012-03-29 オリンパス株式会社 Fluorescence observation device
WO2012073799A1 (en) 2010-12-02 2012-06-07 オリンパス株式会社 Endoscopic image processing apparatus and program
US9521330B2 (en) 2010-12-02 2016-12-13 Olympus Corporation Endoscopic image processing device, information storage device and image processing method
WO2012105141A1 (en) * 2011-02-01 2012-08-09 オリンパスメディカルシステムズ株式会社 Diagnosis assistance apparatus
US8682418B2 (en) 2011-02-01 2014-03-25 Olympus Medical Systems Corp. Diagnosis supporting apparatus and control method of diagnosis supporting apparatus
JP5326064B2 (en) * 2011-07-12 2013-10-30 オリンパスメディカルシステムズ株式会社 Image processing device
WO2013008526A1 (en) * 2011-07-12 2013-01-17 オリンパスメディカルシステムズ株式会社 Image processing apparatus
US8666135B2 (en) 2011-07-12 2014-03-04 Olympus Medical Systems Corp. Image processing apparatus
WO2013187206A1 (en) * 2012-06-12 2013-12-19 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2013255656A (en) * 2012-06-12 2013-12-26 Olympus Corp Image processing apparatus, image processing method, and image processing program
US9916666B2 (en) 2012-06-12 2018-03-13 Olympus Corporation Image processing apparatus for identifying whether or not microstructure in set examination region is abnormal, image processing method, and computer-readable recording device
WO2014097758A1 (en) 2012-12-19 2014-06-26 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method
US9262687B2 (en) 2012-12-19 2016-02-16 Olympus Corporation Image processing apparatus and method of operation of image processing appartus
JPWO2014097758A1 (en) * 2012-12-19 2017-01-12 オリンパス株式会社 Image processing device
CN104869884A (en) * 2012-12-19 2015-08-26 奥林巴斯株式会社 Medical image processing device and medical image processing method
WO2018203514A1 (en) * 2017-05-01 2018-11-08 興和株式会社 Image analysis evaluation method, computer program, and image analysis evaluation device
JPWO2018203514A1 (en) * 2017-05-01 2020-03-12 興和株式会社 Image analysis evaluation method, computer program, image analysis evaluation device
US11200699B2 (en) 2017-05-01 2021-12-14 Kowa Company, Ltd. Image analysis evaluation method, computer program, and image analysis evaluation device
JP7171549B2 (en) 2017-05-01 2022-11-15 興和株式会社 Image analysis evaluation method, computer program, image analysis evaluation device

Also Published As

Publication number Publication date
JP4804742B2 (en) 2011-11-02

Similar Documents

Publication Publication Date Title
CN101384211B (en) Image analyzing device and image analyzing method
JP5800468B2 (en) Image processing apparatus, image processing method, and image processing program
JP6265588B2 (en) Image processing apparatus, operation method of image processing apparatus, and image processing program
Häfner et al. Color treatment in endoscopic image classification using multi-scale local color vector patterns
US7907775B2 (en) Image processing apparatus, image processing method and image processing program
US8244009B2 (en) Image analysis device
JP2006334115A (en) Endoscopic diagnosis support method, endoscopic diagnosis support device, and endoscopic diagnosis support program
CN113573654A (en) AI system for detecting and determining lesion size
JP2002165757A (en) Diagnostic supporting system
JP4804742B2 (en) Image processing apparatus and image processing program
JP2013526930A (en) Image analysis for cervical neoplasm detection and diagnosis
JP5442542B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
JP2012073953A (en) Image processing device, image processing method, and image processing program
WO2014084083A1 (en) Image processing device, image processing method, and image processing program
JP2005157902A (en) Image analyzing method
JP2017213058A (en) Image processing device, endoscope device, image processing method, and image processing program
KR102095730B1 (en) Method for detecting lesion of large intestine disease based on deep learning
JP6824868B2 (en) Image analysis device and image analysis method
Ciaccio et al. Recommendations to quantify villous atrophy in video capsule endoscopy images of celiac disease patients
WO2022180786A1 (en) Image processing device, image processing method, and storage medium
JP7485193B2 (en) Image processing device, image processing method, and program
CN112950601A (en) Method, system and storage medium for screening pictures for esophageal cancer model training
WO2023042273A1 (en) Image processing device, image processing method, and storage medium
JP2019216948A (en) Image processing device, operation method for image processing device, and operation program of image processing device
Barbosa et al. Detection of small bowel tumors in endoscopic capsule images by modeling non-gaussianity of texture descriptors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110810

R151 Written notification of patent or utility model registration

Ref document number: 4804742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees