JP4668624B2 - Image processing device for esophageal mucosa - Google Patents

Image processing device for esophageal mucosa Download PDF

Info

Publication number
JP4668624B2
JP4668624B2 JP2005003200A JP2005003200A JP4668624B2 JP 4668624 B2 JP4668624 B2 JP 4668624B2 JP 2005003200 A JP2005003200 A JP 2005003200A JP 2005003200 A JP2005003200 A JP 2005003200A JP 4668624 B2 JP4668624 B2 JP 4668624B2
Authority
JP
Japan
Prior art keywords
epithelial boundary
boundary
epithelial
value
esophagus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005003200A
Other languages
Japanese (ja)
Other versions
JP2006187551A (en
Inventor
博一 西村
潤 長谷川
秀樹 田中
涼子 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005003200A priority Critical patent/JP4668624B2/en
Priority to KR1020077014516A priority patent/KR100890102B1/en
Priority to CN2005800406014A priority patent/CN101065052B/en
Priority to PCT/JP2005/023493 priority patent/WO2006070669A1/en
Priority to EP05820108.8A priority patent/EP1832223B1/en
Publication of JP2006187551A publication Critical patent/JP2006187551A/en
Priority to US11/821,898 priority patent/US7857752B2/en
Application granted granted Critical
Publication of JP4668624B2 publication Critical patent/JP4668624B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、胃食道逆流によって生じるバレット食道等の判定を、食道内の粘膜境界、より具体的には上皮境界の特徴量に対する解析により行う食道粘膜用画像処理装置に関する。   The present invention relates to an image processing apparatus for esophageal mucosa that performs determination of a Barrett's esophagus or the like caused by gastroesophageal reflux by analyzing a characteristic amount of a mucosal boundary in the esophagus, more specifically, an epithelial boundary.

近年、内視鏡を用いて内視鏡検査等を行う内視鏡装置は、医療用分野及び工業用分野において広く採用されている。医療用分野においては、例えば内視鏡の挿入部を体腔内に挿入して、検査対象部位を観察することにより、検査対象部位が正常な状態か性状が変化した性状変化状態かを診断するのに利用される。
このような場合、内視鏡画像から画像処理により、正常な状態か性状変化状態であるかの判定を行うことができると、術者は、その判定結果の部位を重点的に診断することにより、効率的な診断を行うことができる。
例えば、従来例としての特開2000−155840号公報は、撮像条件の影響を少なくして、性状変化部と正常部の境界の形状に関する情報に基づき特徴量を算出することが記載されている。
In recent years, endoscope apparatuses that perform endoscopy and the like using an endoscope have been widely adopted in the medical field and the industrial field. In the medical field, for example, by inserting an insertion portion of an endoscope into a body cavity and observing the examination target part, it is diagnosed whether the examination target part is in a normal state or a property change state in which the property has changed. Used for
In such a case, when it is possible to determine whether a normal state or a property change state by image processing from an endoscopic image, the surgeon focuses on the determination result site. Efficient diagnosis can be performed.
For example, Japanese Patent Application Laid-Open No. 2000-155840 as a conventional example describes that feature amounts are calculated based on information on the shape of the boundary between a property change portion and a normal portion while reducing the influence of imaging conditions.

また、PCT国際公開 WO02/073507 A2公報には、カプセル型内視鏡により得た画像情報における比色等を用いて異常検出を行う方法及び装置が開示されている。   PCT International Publication No. WO02 / 073507 A2 discloses a method and an apparatus for performing abnormality detection using colorimetry or the like in image information obtained by a capsule endoscope.

また、内視鏡装置による管状器官としての食道検査のスクリーニングにおいては、バレット粘膜或いはバレット食道の有無などが調べられる。バレット粘膜は、食道と胃の接続部としての胃食道接合部において、逆流性食道炎等の影響により食道の粘膜を形成する扁平上皮が胃の粘膜に置換されたもので、円柱上皮とも呼ばれる。このバレット粘膜が正常な粘膜境界から3cm以上、食道管腔断面に対して全周性に生じた場合にバレット食道という疾患と診断される。
バレット食道は、特に欧米人において増加しており、高い確率で腺癌が発生することから大きな問題となっているため、バレット食道或いはバレット粘膜の早期発見が非常に重要なものとなっている。
なお、バレット食道或いはバレット粘膜は、食道に対して全周的に発生する場合のみでなく、しばしば局所的に進行するような場合がある。
特開2000−155840号公報 PCT国際公開 WO02/073507 A2公報
Further, in screening for an esophageal examination as a tubular organ by an endoscope apparatus, the presence or absence of Barrett mucosa or Barrett esophagus is examined. Barrett's mucosa is a gastric esophageal junction at the junction of the esophagus and stomach where squamous epithelium forming the esophageal mucosa is replaced by gastric mucosa due to the influence of reflux esophagitis or the like, and is also called columnar epithelium. A disease called Barrett's esophagus is diagnosed when the Barrett's mucosa occurs 3 cm or more from the normal mucosal boundary and circumferentially with respect to the esophageal lumen cross section.
Barrett's esophagus is increasing, especially in Westerners, and is a major problem because adenocarcinoma occurs with high probability, so early detection of Barrett's esophagus or Barrett's mucosa is very important.
The Barrett's esophagus or Barrett's mucosa may not only occur all around the esophagus, but often progress locally.
JP 2000-155840 A PCT International Publication WO02 / 073507 A2

上記2つの公報による従来例では上皮境界を検出してバレット食道やバレット粘膜を判定をすることに関して何ら示唆を行なっていない。
また、食道内部のような管状部位を直視型の内視鏡により撮像した画像の場合には、管状の粘膜組織(上皮)を管腔の軸方向から撮像した画像となるため、特に撮像手段からの距離が異なる部分での形状等が大きく変化する。
In the conventional examples according to the above two publications, no suggestion is made regarding the detection of the epithelial boundary to determine the Barrett esophagus or Barrett mucosa.
In addition, in the case of an image obtained by imaging a tubular part such as the inside of the esophagus with a direct-viewing endoscope, an image obtained by imaging the tubular mucosal tissue (epithelium) from the axial direction of the lumen is obtained. The shape and the like at the portions where the distances are different greatly change.

このため、上記従来例のような直視型等の内視鏡により撮像した内視鏡画像のみでは、形状や大きさ等を把握するのに時間がかかる場合がある。このため、判定結果を提供すると共に、その判定結果をより把握し易い画像と共に提供できると、非常に便利なものとなる。
(発明の目的)
本発明は、上述した点に鑑みてなされたもので、直視型の内視鏡によって撮像された食道の内視鏡画像のような場合に対してもバレット食道の診断等を効率良く行うのに適した食道粘膜用画像処理装置を提供することを目的とする。
For this reason, it may take time to grasp the shape, size, and the like only with an endoscopic image captured by a direct-viewing type endoscope as in the conventional example. For this reason, it is very convenient to provide a determination result and provide the determination result together with an image that is easier to grasp.
(Object of invention)
The present invention has been made in view of the above-described points, and can efficiently diagnose Barrett's esophagus even in the case of an endoscopic image of the esophagus imaged by a direct-viewing endoscope. An object is to provide a suitable image processing apparatus for esophageal mucosa.

本発明の第1の食道粘膜用画像処理装置は、食道内を撮像した画像に対して、展開図を生成する展開図生成手段と、前記展開図上の画素値の色調変化または当該画像のエッジ状態に基づいて、食道側粘膜としての扁平上皮と、胃側粘膜の円柱上皮との境界としての上皮境界を検出する上皮境界検出手段と、前記上皮境界検出手段により検出された前記上皮境界を構成する各画素の位置情報に関する特徴量を算出する特徴量算出手段と、前記特徴量算出手段が算出した特徴量に基づいて解析結果を出力する解析手段と、を具備したことを特徴とする。
本発明の第2の食道粘膜用画像処理装置は、食道内を撮像した画像に対して、展開図を生成する展開図生成手段と、前記展開図上の画素値の色調変化または当該画像のエッジ状態に基づいて、食道側粘膜としての扁平上皮と、胃側粘膜の円柱上皮との境界としての上皮境界を検出する上皮境界検出手段と、前記上皮境界検出手段により検出された前記上皮境界を構成する各画素の管腔方向に対する座標に関する特徴量を算出する特徴量算出手段と、前記特徴量算出手段が算出した特徴量に基づいて解析結果を出力する解析手段と、を具備したことを特徴とする。
本発明の第3の食道粘膜用画像処理装置は、食道内を撮像した画像に対して、展開図を生成する展開図生成手段と、前記展開図上の画素値の色調変化または当該画像のエッジ状態に基づいて、食道側粘膜としての扁平上皮と、胃側粘膜の円柱上皮との境界としての上皮境界を検出する上皮境界検出手段と、前記展開図上の基準部を設定する基準部設定手段と、前記上皮境界検出手段により検出された前記上皮境界を構成する画素と、前記基準部設定手段により設定された前記基準部を構成する画素の座標間の距離に関する特徴量を算出する特徴量算出手段と、前記特徴量算出手段が算出した特徴量に基づいて解析結果を出力する解析手段と、を具備しことを特徴とする。
The first image processing apparatus for esophageal mucosa according to the present invention includes a development view generating means for generating a development view for an image taken in the esophagus, a color tone change of a pixel value on the development view, or an edge of the image based on the state, configuration and squamous as esophageal side mucosa epithelial boundary detecting means for detecting epithelial boundary as the boundary between the columnar epithelium of gastric side mucosa, the epithelium boundary detected by the epithelial boundary detecting means And a feature amount calculating unit that calculates a feature amount related to position information of each pixel, and an analysis unit that outputs an analysis result based on the feature amount calculated by the feature amount calculating unit .
The second image processing apparatus for esophageal mucosa according to the present invention is a development drawing generation means for generating a development drawing for an image captured in the esophagus, a color tone change of a pixel value on the development drawing, or an edge of the image An epithelial boundary detecting means for detecting an epithelial boundary as a boundary between the squamous epithelium as the esophageal mucosa and the columnar epithelium of the gastric mucosa based on the state, and the epithelial boundary detected by the epithelial boundary detecting means A feature amount calculating unit that calculates a feature amount related to coordinates of each pixel in the lumen direction; and an analysis unit that outputs an analysis result based on the feature amount calculated by the feature amount calculating unit. To do.
The third image processing apparatus for esophageal mucosa according to the present invention is a development diagram generating means for generating a development diagram for an image captured in the esophagus, a color change of a pixel value on the development diagram, or an edge of the image An epithelial boundary detecting means for detecting an epithelial boundary as a boundary between the squamous epithelium as the esophageal mucosa and the columnar epithelium of the gastric mucosa, based on the state, and a reference part setting means for setting the reference part on the developed view And a feature amount calculation for calculating a feature amount relating to a distance between the pixels constituting the epithelial boundary detected by the epithelial boundary detection means and the coordinates of the pixels constituting the reference portion set by the reference portion setting means And an analysis means for outputting an analysis result based on the feature quantity calculated by the feature quantity calculation means.

本発明によれば、バレット食道等に対する解析結果を得られると共に、解析結果と生成された展開図から診断等を効率良く進めることができる。   According to the present invention, an analysis result for Barrett's esophagus and the like can be obtained, and diagnosis and the like can be advanced efficiently from the analysis result and the generated developed view.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図12は、本発明の実施例1に係り、図1は本発明の実施例1を備えた内視鏡システムの構成を示し、図2は食道のような管状器官(管状部位)に挿入された内視鏡により撮像する様子を示し、図3は図2の内視鏡の撮像装置により撮像された内視鏡画像を示し、図4はCPUによる画像処理機能を示し、図5は展開図を生成する処理を経てバレット食道か否かの判定を行う処理手順のフローを示し、図6は内視鏡画像と生成された展開図の関係を示す。
図7は、内視鏡画像から展開図生成の処理手順のフローを示し、図8は図5における上皮境界を検出する処理手順のフローを示し、図9は算出した上皮境界のZ方向の平均値を表示した展開図を示し、図10は予め診断が確定した上皮境界の場合とバレット食道の場合のサンプルの分散値のヒストグラムにより判定基準となる基準値を算出したヒストグラム例を示し、図11は内視鏡画像、展開図及び判定結果を表示したモニタでの表示例を示し、図12は内視鏡画像、この内視鏡画像から推定された食道と胃の接合部周辺部の内壁の立体形状、及びその立体形状から生成した展開図を示す。
1 to 12 relate to a first embodiment of the present invention, FIG. 1 shows a configuration of an endoscope system including the first embodiment of the present invention, and FIG. 2 shows a tubular organ (tubular portion) such as an esophagus. FIG. 3 shows an endoscope image captured by the endoscope imaging device of FIG. 2, FIG. 4 shows an image processing function by the CPU, and FIG. Shows a flow of a processing procedure for determining whether or not a Barrett's esophagus is passed through a process for generating a development view, and FIG. 6 shows a relationship between the endoscopic image and the generated development view.
FIG. 7 shows a flow of a processing procedure for generating a development view from an endoscopic image, FIG. 8 shows a flow of a processing procedure for detecting the epithelial boundary in FIG. 5, and FIG. 9 shows an average of the calculated epithelial boundary in the Z direction. FIG. 10 shows a development example in which values are displayed, and FIG. 10 shows an example of a histogram in which a reference value serving as a determination criterion is calculated based on a histogram of variance values of samples in the case of epithelial boundary and diagnosis in the case of Barrett's esophagus. Shows an example of display on a monitor displaying an endoscopic image, a developed view, and a determination result, and FIG. 12 shows an endoscopic image and the inner wall of the peripheral portion of the junction between the esophagus and the stomach estimated from the endoscopic image. A three-dimensional shape and a development view generated from the three-dimensional shape are shown.

図1に示す内視鏡システム1は、内視鏡観察装置2と、この内視鏡観察装置2により得られた内視鏡画像に対して画像処理を行うパーソナルコンピュータ等により構成される本発明の食道粘膜用画像処理装置の実施例1としての内視鏡画像処理装置(以下、単に画像処理装置と略記)3と、この画像処理装置3により画像処理された画像を表示するモニタ4とから構成される。
内視鏡観察装置2は、体腔内に挿入される内視鏡6と、この内視鏡6に照明光を供給する光源装置7と、内視鏡6の撮像手段に対する信号処理を行うカメラコントロールユニット(CCUと略記)8と、このCCU8から出力される映像信号が入力されることにより、撮像素子で撮影した内視鏡画像を表示するモニタ9とを有する。
An endoscope system 1 shown in FIG. 1 includes an endoscope observation apparatus 2 and a personal computer that performs image processing on an endoscope image obtained by the endoscope observation apparatus 2. An endoscopic image processing apparatus (hereinafter simply referred to as an image processing apparatus) 3 as a first embodiment of the image processing apparatus for esophageal mucosa, and a monitor 4 that displays an image processed by the image processing apparatus 3 Composed.
The endoscope observation apparatus 2 includes an endoscope 6 that is inserted into a body cavity, a light source device 7 that supplies illumination light to the endoscope 6, and a camera control that performs signal processing on an imaging unit of the endoscope 6. A unit (abbreviated as CCU) 8 and a monitor 9 for displaying an endoscopic image photographed by the image sensor when a video signal output from the CCU 8 is input.

内視鏡6は、体腔内に挿入される挿入部11と、この挿入部11の後端に設けられた操作部12とを有する。また、挿入部11内には照明光を伝送するライトガイド13が挿通されている。
このライトガイド13の後端は、光源装置7に接続される。そして、この光源装置7から供給される照明光をライトガイド13により転送し、挿入部11の先端部14に設けた照明窓に取り付けられた先端面から(伝送した照明光を)出射し、患部等の被写体を照明する。
照明窓に隣接する観察窓に取り付けた対物レンズ15と、この対物レンズ15の結像位置に配置された固体撮像素子としての例えば電荷結合素子(CCDと略記)16とによる撮像装置17が設けてある。そして、このCCD16の撮像面に結蔵された光学像は、このCCD16により光電変換される。
The endoscope 6 includes an insertion portion 11 that is inserted into a body cavity, and an operation portion 12 that is provided at the rear end of the insertion portion 11. Further, a light guide 13 that transmits illumination light is inserted into the insertion portion 11.
The rear end of the light guide 13 is connected to the light source device 7. Then, the illumination light supplied from the light source device 7 is transferred by the light guide 13 and emitted (transmitted illumination light) is emitted from the distal end surface attached to the illumination window provided at the distal end portion 14 of the insertion portion 11. Illuminate the subject.
An imaging device 17 is provided which includes an objective lens 15 attached to an observation window adjacent to the illumination window, and a charge coupled device (abbreviated as CCD) 16 as a solid-state imaging device disposed at the imaging position of the objective lens 15. is there. The optical image stored on the imaging surface of the CCD 16 is photoelectrically converted by the CCD 16.

このCCD16は、信号線を介してCCU8と接続され、このCCU8からCCD駆動信号が印加されることにより、CCD16は光電変換した画像信号を出力する。この画像信号は、CCU8内の映像処理回路により信号処理され、映像信号に変換される。この映像信号はモニタ9に出力され、モニタ9の表示面には、内視鏡画像が表示される。この映像信号は、画像処理装置3にも入力される。
この画像処理装置3は、内視鏡観察装置2から入力される内視鏡画像に対応する映像信号が入力され、A/D変換する画像入力部21と、この画像入力部21から出力される画像データに対する画像処理を行う中央演算処理装置としてのCPU22と、このCPU22により画像処理を実行させる処理プログラム(制御プログラム)を記憶する処理プログラム記憶部23とを有する。
The CCD 16 is connected to the CCU 8 via a signal line. When a CCD drive signal is applied from the CCU 8, the CCD 16 outputs a photoelectrically converted image signal. This image signal is signal-processed by a video processing circuit in the CCU 8 and converted into a video signal. This video signal is output to the monitor 9, and an endoscopic image is displayed on the display surface of the monitor 9. This video signal is also input to the image processing device 3.
The image processing device 3 receives a video signal corresponding to an endoscopic image input from the endoscope observation device 2, and outputs an image input unit 21 that performs A / D conversion, and the image input unit 21. It has CPU22 as a central processing unit which performs image processing with respect to image data, and the processing program memory | storage part 23 which memorize | stores the processing program (control program) which performs image processing by this CPU22.

また、この画像処理装置3は画像入力部21を経て入力される画像データ等を記憶する画像記憶部24と、CPU22により処理された情報等を記憶する情報記憶部25と、CPU22により処理された画像データ及び情報等を記憶装置インターフェース26を介して記憶する記憶装置としてのハードディスク27と、CPU22により処理された画像データ等を表示するための表示処理を行う表示処理部28と、ユーザが画像処理する際のパラメータ等のデータ入力や指示入力を行うキーボードなどからなる入力操作部29とを有する。
そして、この表示処理部28により生成された映像信号は、モニタ4に表示され、このモニタ4の表示面には画像処理された処理画像が表示される。なお、画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、情報記憶部25、記憶装置インターフェース26、表示処理部28、入力操作部29は、データバス30を介して互いに接続されている。
Further, the image processing apparatus 3 is processed by the CPU 22, an image storage unit 24 that stores image data input through the image input unit 21, an information storage unit 25 that stores information processed by the CPU 22, and the like. A hard disk 27 serving as a storage device that stores image data, information, and the like via the storage device interface 26, a display processing unit 28 that performs display processing for displaying image data and the like processed by the CPU 22, and image processing by the user And an input operation unit 29 including a keyboard for inputting data such as parameters and inputting instructions.
The video signal generated by the display processing unit 28 is displayed on the monitor 4, and a processed image subjected to image processing is displayed on the display surface of the monitor 4. The image input unit 21, CPU 22, processing program storage unit 23, image storage unit 24, information storage unit 25, storage device interface 26, display processing unit 28, and input operation unit 29 are connected to each other via a data bus 30. ing.

本実施例においては、図2に示すように、例えば食道31のような管状器官或いは管状部位内に直視型の内視鏡6の挿入部11が挿入され、先端部14に設けた撮像装置17により、食道31の内壁粘膜等が撮像される。
図3は、この直視型の内視鏡6によって撮像されたバレット食道の内視鏡画像Iaの1例を示している。バレット食道は、胃と食道の接合部としての胃食道接合部Bから口腔に向かって連続的に食道粘膜としての扁平上皮32が胃粘膜或いはバレット粘膜としての円柱上皮33に変性したものであり、このバレット粘膜が正常な粘膜境界から3cm以上、食道管腔断面に対して全周性に生じた場合に、バレット食道という疾患と診断される。
In the present embodiment, as shown in FIG. 2, for example, an imaging device 17 provided at the distal end portion 14 is inserted into the tubular organ or tubular portion such as the esophagus 31 and the insertion portion 11 of the direct-view endoscope 6 is inserted. Thus, the inner wall mucous membrane of the esophagus 31 is imaged.
FIG. 3 shows an example of an endoscopic image Ia of Barrett's esophagus imaged by this direct-view type endoscope 6. The Barrett's esophagus is one in which the squamous epithelium 32 as the esophageal mucosa is continuously denatured into the gastric mucosa or the columnar epithelium 33 as the Barrett mucosa from the gastroesophageal junction B as the junction between the stomach and the esophagus. A disease called Barrett's esophagus is diagnosed when the Barrett's mucosa occurs 3 cm or more from the normal mucosal boundary and circumferentially with respect to the esophageal lumen cross section.

このように定義された場合を含めて、変性した円柱上皮33の広がり方や円柱上皮33と扁平上皮32との境界としての上皮境界Aの特徴的な形状を内視鏡6によって観察することにより、術者はバレット食道の診断を行う。
図3の内視鏡画像Iaでは、食道31から胃内部に至る管状部位部分が、図示しない最暗部の周囲の胃食道接合部B、胃食道接合部Bの周囲の外側の円柱上皮33、その外側の上皮境界A、そしてこの上皮境界Aの外側の扁平上皮32が表示されている。
Including the case defined as described above, the endoscope 6 observes how the degenerated columnar epithelium 33 spreads and the characteristic shape of the epithelial boundary A as the boundary between the columnar epithelium 33 and the squamous epithelium 32. The surgeon diagnoses Barrett's esophagus.
In the endoscopic image Ia of FIG. 3, the tubular part extending from the esophagus 31 to the stomach interior is a gastroesophageal junction B around the darkest portion (not shown), an outer columnar epithelium 33 around the gastroesophageal junction B, The outer epithelial boundary A and the squamous epithelium 32 outside the epithelial boundary A are displayed.

本実施例では、食道31のような管状器官の対象物を直視型の内視鏡6によって撮像し、撮像された内視鏡画像Iaを幾何学的に変換して、展開図を生成する処理を行い、生成された対象物の展開図をモニタ4で表示すると共に、生成された展開図から上皮境界Aを検出する。
そして、検出された上皮境界Aの特徴的な形状に基づいて、形状の解析を行い、解析結果を出力する処理を行う。
具体的には、上皮境界AのZ方向の平均値を算出し、さらに上皮境界AのZ方向の分散値を算出することによって、上皮境界かバレット食道かを判定する処理を行い、上皮境界かバレット食道かの判定結果(解析結果)を出力する。
In the present embodiment, a processing for generating an unfolded view by capturing an object of a tubular organ such as the esophagus 31 with the direct-view endoscope 6 and geometrically converting the captured endoscope image Ia. And a developed view of the generated object is displayed on the monitor 4, and the epithelial boundary A is detected from the generated developed view.
Then, based on the characteristic shape of the detected epithelial boundary A, the shape is analyzed, and the analysis result is output.
Specifically, the average value of the epithelial boundary A in the Z direction is calculated, and further, the dispersion value of the epithelial boundary A in the Z direction is calculated to determine whether the epithelial boundary or Barrett's esophagus. Outputs judgment result (analysis result) of Barrett's esophagus.

画像処理装置3を構成するCPU22は、図4に示すように、幾何学的な変換を行う幾何学的画像変換手段(機能)22aと、幾何学的な変換により展開図の画像を出力する展開図出力手段(機能)22bと、展開図から上皮境界を検出する上皮境界検出手段(機能)22cと、上皮境界の形状を解析して解析結果を出力する上皮境界解析手段(機能)22dとを有する。
上記上皮境界解析手段22dは、具体的には、上皮境界のZ軸方向の平均値を算出する上皮境界の平均値算出手段(機能)と、上皮境界のZ方向の分散値を算出する上皮境界の分散値算出手段(機能)と、この分散値が上皮境界かバレット食道かを判定する判定手段(機能)とからなる。
As shown in FIG. 4, the CPU 22 constituting the image processing apparatus 3 has a geometric image conversion means (function) 22 a that performs geometric conversion, and a development that outputs an image of a development view through the geometric conversion. Figure output means (function) 22b, epithelial boundary detection means (function) 22c for detecting the epithelial boundary from the developed view, and epithelial boundary analysis means (function) 22d for analyzing the shape of the epithelial boundary and outputting the analysis result Have.
Specifically, the epithelial boundary analyzing means 22d includes an epithelial boundary average value calculating means (function) for calculating an average value of the epithelial boundary in the Z-axis direction, and an epithelial boundary for calculating a variance value of the epithelial boundary in the Z direction. Dispersion value calculation means (function) and determination means (function) for determining whether the dispersion value is an epithelial boundary or Barrett's esophagus.

本実施例においては、図4に示した幾何学的画像変換手段22a、展開図出力手段22b、上皮境界検出手段22c、及び上皮解析手段22dをソフトウェア的に実現しており、このために処理プログラム記憶部23に記憶(格納)された処理プログラムをCPU22は読み出し、CPU22は、この処理プログラムに従って図5に示す処理手順を実行する。 以下に説明するように本実施例は、食道の胃食道接合部周辺部を直視型の内視鏡6で撮像した内視鏡画像Iaから展開図Ibを生成し、その展開図Ibから上皮境界を検出し、さらにその上皮境界Aの形状に対して典型的なバレット食道の形状、つまり上皮境界Aの各点が管腔方向にぎざぎざになっている等、複雑な形状となっている場合における特徴量を有しているかを上皮境界各点での分散値を算出して、判定するようにしている。   In the present embodiment, the geometric image conversion means 22a, the developed view output means 22b, the epithelial boundary detection means 22c, and the epithelial analysis means 22d shown in FIG. 4 are realized by software. The CPU 22 reads out the processing program stored (stored) in the storage unit 23, and the CPU 22 executes the processing procedure shown in FIG. 5 according to the processing program. As will be described below, in this embodiment, a developed view Ib is generated from an endoscopic image Ia obtained by imaging the gastroesophageal joint peripheral portion of the esophagus with a direct-view type endoscope 6, and the epithelial boundary is generated from the developed view Ib. In addition, the shape of the Barrett's esophagus with respect to the shape of the epithelial boundary A, that is, when each point of the epithelial boundary A is jagged in the luminal direction, Whether or not the feature amount is present is determined by calculating a variance value at each epithelial boundary point.

そして、撮像された内視鏡画像Iaにおける上皮境界Aの各点が管腔方向にぎざぎざになっている等、複雑な形状となっている場合の典型的なバレット食道を客観的に判定するようにしている。
次に図5を参照して、本実施例の動作を説明する。
画像処理装置3の動作が開始すると、CPU22は処理プログラム記憶部23の処理プログラムを読み出し、その処理プログラムに従った処理を開始する。CPU22は最初のステップS1において、内視鏡観察装置2のCCU8から画像入力部21を経て入力される内視鏡画像Iaの画像データを取得する。
Then, a typical Barrett esophagus is objectively determined when each point of the epithelial boundary A in the captured endoscopic image Ia has a complicated shape, such as jagged in the luminal direction. I have to.
Next, the operation of this embodiment will be described with reference to FIG.
When the operation of the image processing apparatus 3 starts, the CPU 22 reads the processing program in the processing program storage unit 23 and starts processing according to the processing program. In the first step S1, the CPU 22 acquires image data of the endoscopic image Ia input from the CCU 8 of the endoscope observation apparatus 2 via the image input unit 21.

そして、次のステップS2においてCPU22は、取得された画像データに対して歪曲収差補正(例えば特開平8−256295号公報参照)や、ノイズ除去等の前処理を行い、ステップS3において図6(A)に示す内視鏡画像Iaから図6(B)に示すその展開図Ibを生成する処理を行う。
この展開図Ibを生成する処理を図7に示す。
図7に示すように最初のステップS11において、内視鏡画像Ia内の最暗部の位置を検出し、検出された最暗部の重心位置を内視鏡画像Iaの座標の中心位置とする。
本実施例においては、内視鏡画像Ia内の最暗部の位置を中心に展開図を生成する。最暗部の検出方法として内視鏡画像Iaを複数の領域に分割し、分割された領域の平均輝度を算出し、最小の平均輝度を有する領域を最暗部の位置として求める。
In the next step S2, the CPU 22 performs preprocessing such as distortion correction (see, for example, JP-A-8-256295) and noise removal on the acquired image data. ) To generate a development view Ib shown in FIG. 6B from the endoscopic image Ia shown in FIG.
FIG. 7 shows a process for generating the development diagram Ib.
As shown in FIG. 7, in the first step S11, the position of the darkest part in the endoscopic image Ia is detected, and the center of gravity position of the detected darkest part is set as the center position of the coordinates of the endoscopic image Ia.
In this embodiment, a development view is generated around the position of the darkest part in the endoscopic image Ia. As a method for detecting the darkest part, the endoscopic image Ia is divided into a plurality of areas, the average luminance of the divided areas is calculated, and the area having the minimum average luminance is obtained as the position of the darkest part.

図6に示すように内視鏡画像Iaの2次元の直交座標系をX−Yとし、この内視鏡画像Iaから極座標系に幾何学的に変換してθ−Zとする展開図Ibを生成する。なお座標系X−Yにおける座標位置はx、yで示す。また、極座標系θ−Zにおける座標位置は、周方向の位置を表すθ、中心からの距離位置をzで示す。
なお、図6では内視鏡画像Iaから展開図Ibが生成された場合の関係を分かりやすくするために、内視鏡画像Iaにおける扁平上皮32と円柱上皮33の上皮境界A、胃食道接合部Bを展開図Ibにした場合にはどのような形状で表示されるかを矢印で対応付けて示している。ここで、θが0度、45度、90度、…の場合の目盛を付して示している。また、画像の表示枠の位置をQ,Q45,Q90により示している。
次のステップS12とステップS13において展開図Ibの座標S(θ、z)の初期値を設定する。つまり、ステップS12において、CPU22は、θ=0とし、ステップS13においてz=0とする。
As shown in FIG. 6, a two-dimensional orthogonal coordinate system of the endoscopic image Ia is set to XY, and a development view Ib is geometrically converted from the endoscopic image Ia to the polar coordinate system to be θ-Z. Generate. The coordinate position in the coordinate system XY is indicated by x and y. Further, the coordinate position in the polar coordinate system θ-Z is represented by θ representing the position in the circumferential direction, and z the distance position from the center.
In FIG. 6, in order to facilitate understanding of the relationship when the developed view Ib is generated from the endoscopic image Ia, the epithelial boundary A between the squamous epithelium 32 and the columnar epithelium 33 in the endoscopic image Ia, the gastroesophageal junction When B is a developed view Ib, the shape of the display is indicated by an arrow in association with the arrow. Here, the scale is shown with θ being 0 degrees, 45 degrees, 90 degrees,. The position of the image display frame is indicated by Q 0 , Q 45 , and Q 90 .
In the next step S12 and step S13, the initial value of the coordinates S (θ, z) of the developed view Ib is set. That is, in step S12, the CPU 22 sets θ = 0, and sets z = 0 in step S13.

次のステップS14において設定され展開図Ibの座標S(θ、z)に対応する内視鏡画像Iaの座標位置を以下の式(1)によって求める。
x=z sin θ 、y=z cos θ (1)
ステップS15において算出された座標P(x、y)が内視鏡画像Ia内に存在するかを判断する。
そして、内視鏡画像Ia内に存在する場合は、ステップS16に進む。式(1)より得られた内視鏡画像の座標P(x、y)の位置は、画素間の中に存在する可能性がある為、ステップS16で線形補間等の処理を用いて座標P(x、y)の輝度値を算出する。
なお、輝度値としては、カラー撮像を行っている場合には、各色信号の輝度値を算出する。
The coordinate position of the endoscopic image Ia set in the next step S14 and corresponding to the coordinate S (θ, z) of the developed view Ib is obtained by the following equation (1).
x = z sin θ, y = z cos θ (1)
It is determined whether the coordinates P (x, y) calculated in step S15 exist in the endoscopic image Ia.
And when it exists in the endoscopic image Ia, it progresses to step S16. Since the position of the coordinate P (x, y) of the endoscopic image obtained from the expression (1) may exist between pixels, the coordinate P is obtained using processing such as linear interpolation in step S16. The luminance value of (x, y) is calculated.
As the luminance value, when color imaging is performed, the luminance value of each color signal is calculated.

ステップS17においてステップS16で求めた輝度値を展開図の座標S(θ、z)の輝度値とする。次にステップS18に進み、展開図Ibのzの値を変更(例えばzの増分Δz=1)し、ステップS14に戻る。
一方、ステップS15において算出された座標P(x、y)が内視鏡画像Ia内に存在しない場合、ステップS19へ進み、展開図Ibのθの値を変更する(例えばθの増分Δθ=π/180、つまり1°)。
次のステップS20において、θが2π(360°)より小さければステップS13に戻り、展開図生成の処理を継続する。一方、θが2π以上になった場合、展開図Ibが生成されたと判断しステップS11に進み、内視鏡画像Iaと展開図Ibとをモニタ4に出力して、展開図生成の処理を終了し、生成された展開図Ibを用いて図5のステップS4の上皮境界を検出する処理に移る。
In step S17, the luminance value obtained in step S16 is set as the luminance value of the coordinate S (θ, z) in the development view. Next, the process proceeds to step S18, the value of z in the developed view Ib is changed (for example, z increment Δz = 1), and the process returns to step S14.
On the other hand, if the coordinate P (x, y) calculated in step S15 does not exist in the endoscopic image Ia, the process proceeds to step S19, and the value of θ in the developed view Ib is changed (for example, an increment of θ Δθ = π). / 180 or 1 °).
In the next step S20, if [theta] is smaller than 2 [pi] (360 [deg.]), The process returns to step S13 to continue the process of generating the development diagram. On the other hand, if θ is equal to or greater than 2π, it is determined that the development view Ib has been generated, and the process proceeds to step S11. The endoscopic image Ia and the development view Ib are output to the monitor 4, and the processing for generating the development view is completed. Then, the process proceeds to the process of detecting the epithelial boundary in step S4 of FIG. 5 using the generated developed view Ib.

図5のステップS4に示す扁平上皮と円柱上皮との境界としての上皮境界を検出(座標点列を取得)するために、例えば図8に示すようにエッジ検出を利用して行う。扁平上皮は白い色調であり、これに対して円柱上皮は赤い色調であるので、R,G,Bにおける特定の色調等によりその上皮境界を検出することもできる。
図8に示すようにCPU22は、ステップS31において、画像記憶部24等に格納された展開図Ibの画像データを取得する。
そして、次のステップS32においてCPU22は、その画像データに対して、輪郭抽出フィルタリング処理として上述した公知のエッジ検出の処理を行い、エッジ検出画像を生成する。
In order to detect the epithelial boundary as a boundary between the squamous epithelium and the columnar epithelium shown in step S4 of FIG. 5 (acquire a coordinate point sequence), for example, edge detection is used as shown in FIG. Since the squamous epithelium has a white color tone, and the columnar epithelium has a red color tone, the epithelial boundary can be detected by a specific color tone in R, G, and B.
As shown in FIG. 8, in step S31, the CPU 22 acquires the image data of the development view Ib stored in the image storage unit 24 or the like.
In the next step S32, the CPU 22 performs the known edge detection process described above as the contour extraction filtering process on the image data to generate an edge detection image.

次のステップS33においてCPU22は、このエッジ検出画像に対して、2値化処理を行い、さらに細線化処理を行って境界の取得を行う。
次のステップS34においてCPU22は、取得した境界に対してトレース処理を行って境界に沿った座標点列、つまり上皮境界の点列を取得する。
このようにして上皮境界の点列を取得したら、CPU22は、図5のステップS5に示すように上皮境界の(食道の管腔方向となる)Z方向の平均値<Z>を算出する。
つまり、検出された上皮境界のZ方向の平均値<Z>を以下の式で求める。

Figure 0004668624
In the next step S33, the CPU 22 performs binarization processing on the edge detection image, and further performs thinning processing to acquire a boundary.
In the next step S34, the CPU 22 performs a tracing process on the acquired boundary to acquire a coordinate point sequence along the boundary, that is, a point sequence of the epithelial boundary.
After acquiring the epithelial boundary point sequence in this way, the CPU 22 calculates the average value <Z A > in the Z direction (which is the esophageal lumen direction) of the epithelial boundary as shown in step S5 of FIG.
That is, the average value <Z A > in the Z direction of the detected epithelial boundary is obtained by the following equation.
Figure 0004668624

ただし、ZAθiは、式(1)で得られた展開図における上皮境界のθiにおけるZ値であり、式(2)は周方向の1回転分のサンプル値Nで平均を取る。(この場合、図6の展開図の分解能は、θiとZ(中心Oからの距離)のサンプリングの細かさによって決定される。 However, Z Aθi is the Z value at θi of the epithelial boundary in the developed view obtained by Expression (1), and Expression (2) takes an average with the sample value N for one rotation in the circumferential direction. (In this case, the resolution of the developed view of FIG. 6 is determined by the fineness of sampling of θi and Z (distance from the center O).

図9は、展開図Ib上に、上皮境界のZ方向の平均値<Z>を表示した図を示す。 式(2)の平均値<Z>を算出した後、次のステップS6により上皮境界のZ方向の座標位置のばらつき(境界の凹凸の)の程度を表す分散値σを以下の式で求める。

Figure 0004668624
FIG. 9 shows a diagram in which an average value <Z A > in the Z direction of the epithelial boundary is displayed on the developed view Ib. After calculating the average value <Z A > of Equation (2), a variance value σ A representing the degree of variation in the coordinate position of the epithelial boundary in the Z direction (unevenness of the boundary) is calculated by the following equation in Step S6. Ask.
Figure 0004668624

次のステップS7において、式(3)で算出された分散値σと基準値σthを比較し、この分散値σが基準値σthより小さいか否かの判定を行う。
そして、分散値σが基準値σthより小さい場合にはステップS8に示すように上皮境界と判定し、逆に分散値σが基準値σthより大きい場合はステップS9に示すように上皮境界が複雑な形状をしていると判断し、撮像された画像をバレット食道と判断する。
この場合、展開図Ibにより得られた分散値σに対して判定に用いる基準値σthは、図10に示すように予め診断が確定した上皮境界のサンプルとバレット食道の場合のサンプルを用いて求められた分散値σのヒストグラムを用いる。
In the next step S7, by comparing the equation (3) variance sigma A and the reference value sigma th calculated in this variance sigma A it is determined whether the reference value sigma th smaller.
If the variance value σ A is smaller than the reference value σ th, it is determined as an epithelial boundary as shown in step S8. Conversely, if the variance value σ A is larger than the reference value σ th , the epithelium as shown in step S9. It is determined that the boundary has a complicated shape, and the captured image is determined as Barrett's esophagus.
In this case, the reference value σ th used for the determination with respect to the variance value σ A obtained from the development diagram Ib uses a sample of the epithelial boundary and a sample in the case of Barrett's esophagus that have been diagnosed in advance as shown in FIG. A histogram of the variance value σ obtained in this way is used.

図10は、上皮境界の場合に得られる分散値σnorの分布のヒストグラムDnorと、バレット食道の場合に得られる分散値σbarの分布のヒストグラムDbarとを示している。なお、バレット食道の場合のサンプルは、上皮境界がぎざぎざになったように境界形状が複雑な形状のサンプルを用いている。
図10に示すように2つのヒストグラムDnor及びDbarから、例えば2つのヒストグラムが交差する位置σthをバレット食道と評価する基準値とする。
そして、上述したように式(3)で求めた分散値σをこの基準値σthと比較することにより上皮境界であるかバレット食道かを判定する。
ステップS8或いはステップS9による判定結果(解析結果)の情報を、ステップS10に示すようにモニタ4等の表示装置に出力してこの処理を終了する。
Figure 10 shows a histogram D nor the distribution of the variance value sigma nor obtained when epithelial border, and a histogram D bar distribution of the resulting dispersion value sigma bar in the case of Barrett's esophagus. In the case of Barrett's esophagus, a sample having a complicated boundary shape such as a jagged epithelial boundary is used.
As shown in FIG. 10, from two histograms D nor and D bar , for example, a position σ th where the two histograms intersect is set as a reference value for evaluating the Barrett esophagus.
Then, as described above, the variance value σ A obtained by the equation (3) is compared with the reference value σ th to determine whether it is an epithelial boundary or Barrett's esophagus.
Information on the determination result (analysis result) in step S8 or step S9 is output to the display device such as the monitor 4 as shown in step S10, and this process is terminated.

図11は、内視鏡画像Ia、展開図Ib、及び判定結果の情報をモニタ4に表示した表示例を示す。図11の例では、分散値σが基準値σth以上となった場合の例として、判定表示部41に”バレット食道”と判定した判定結果を表示している。
なお、ここでは、バレット食道と表示しているが、”バレット食道の可能性が高い”と表示する等しても良い。また、分散値σを求める代わりに標準偏差値を算出して、基準値と比較して比較結果を解析結果としても良い。
また、本実施例及び以下の実施例では、算出した分散値σ等、判定対象となるバレット食道の特徴量に対する評価値を単一の基準値(σth等))と比較した比較結果を解析結果としているが、算出した評価値を複数の基準値と比較して、バレット食道の可能性が高い状態と正常に近い状態との中間的な状態(1つ或いは複数の中間的な状態)の解析結果等を出すようにしても良い。
FIG. 11 shows a display example in which the endoscope image Ia, the development view Ib, and the information of the determination result are displayed on the monitor 4. In the example of FIG. 11, as an example when the variance value σ A is equal to or greater than the reference value σ th, the determination result determined as “Barrett's esophagus” is displayed on the determination display unit 41.
Here, the Barrett's esophagus is displayed, but “Barrett's esophagus is highly likely” may be displayed. Further, instead of obtaining the variance value σ A , a standard deviation value may be calculated and compared with a reference value, and a comparison result may be used as an analysis result.
Further, in the present example and the following examples, the comparison result obtained by comparing the evaluation value for the feature amount of the Barrett's esophagus to be determined, such as the calculated dispersion value σ A , with a single reference value (σ th etc.) Although it is an analysis result, the calculated evaluation value is compared with a plurality of reference values, and an intermediate state (one or a plurality of intermediate states) between a state where the possibility of Barrett's esophagus is high and a state close to normal The analysis result or the like may be output.

例えば、上皮境界の場合よりも、食道粘膜としての扁平上皮が少し変性した状態と判定した場合には、少し円柱上皮(バレット粘膜)が生成されている初期状態の可能性があるとか、扁平上皮がより変性した状態と判定した場合にはかなり円柱上皮(バレット粘膜)が生成されている症状が進行状態にある等の判定結果を表示する等して告知するようにしても良い。
術者は、判定結果の情報を参考にすることにより、効率的な診断を行うことができる。また、術者は、モニタ4に表示される内視鏡画像Iaと共に表示される展開図Ibを参照することにより、上皮境界Aの周方向の形状等を(内視鏡画像Iaのみの場合よりも)より把握し易くなり、従って診断等も効率良く進めることができる。
For example, when it is determined that the squamous epithelium as the esophageal mucosa is slightly degenerated compared to the case of the epithelial boundary, there is a possibility that the columnar epithelium (Barrett mucosa) is slightly generated, If it is determined that the condition is more degenerated, it may be notified by displaying a determination result indicating that the symptom in which the columnar epithelium (Barrett mucosa) is generated is in an advanced state.
The surgeon can make an efficient diagnosis by referring to the information of the determination result. In addition, the surgeon refers to the developed view Ib displayed together with the endoscopic image Ia displayed on the monitor 4, so that the shape of the epithelial boundary A in the circumferential direction (from the case of only the endoscopic image Ia) B) it is easier to grasp, and therefore diagnosis and the like can be carried out efficiently.

上述の説明では、図7に示すような処理により2次元の内視鏡画像Iaから幾何学的な変換により、展開図Ibを生成した場合で説明したが、図12(A)に示す内視鏡画像Iaから図12(B)に示すように診断対象となる食道の胃食道接合部周辺部の内壁面の立体形状を推定する等して、図12(C)に示す展開図Ibを生成するようにしても良い。 なお、図12(B)のように立体形状を推定した場合、さらにこの立体形状の中心線を推定してその中心線方向に座標軸Zとした3次元座標系(X,Y,Z)に内視鏡画像Iaの各点を変換する。
さらにこの3次元座標系(X,Y,Z)における立体形状の各点を、この立体形状に近い同じZを中心とした円柱体の表面に投影する。この円柱体の表面の座標系をθ―Zとする。そして、3次元座標系(X,Y,Z)の各点或いは円柱体の表面に投影された各点をθ―Zの座標系に変換する。
In the above description, the development view Ib is generated from the two-dimensional endoscopic image Ia by the geometric transformation by the process shown in FIG. 7, but the endoscopic view shown in FIG. A developed view Ib shown in FIG. 12C is generated from the mirror image Ia by estimating the three-dimensional shape of the inner wall surface around the gastroesophageal junction as shown in FIG. 12B. You may make it do. When the solid shape is estimated as shown in FIG. 12B, a three-dimensional coordinate system (X L , Y L , Z) in which the center line of the solid shape is further estimated and the coordinate axis Z L is set in the direction of the center line. L ), each point of the endoscopic image Ia is converted.
Further, each point of the three-dimensional shape in the three-dimensional coordinate system (X L , Y L , Z L ) is projected onto the surface of a cylindrical body centered on the same Z L close to this three-dimensional shape. The coordinate system of the surface of this cylinder is defined as θ L -Z L. Then, each point of the three-dimensional coordinate system (X L , Y L , Z L ) or each point projected on the surface of the cylindrical body is converted into a coordinate system of θ L -Z L.

図12(B)では、上皮境界A上での点P′を示し、この上皮境界A上での点P′はY軸となす角がθで示されている。
図12(B)に示すように円柱体の表面に投影された各点をθ―Zの座標系に変換後、θを0とした値で切り開き、図12(C)に示す展開図Ibにより、内視鏡画像Iaの各位置を表示する。この処理は、その詳細が特願2005−1842号の明細書に記載されている。
また、この明細書に記載されている他の展開図生成手段を採用して展開図を生成しても良い(また、2次元的な変換により展開図を生成する場合にも、特願2004−378011号の明細書に記載されている展開図生成手段を採用して展開図を生成し、その展開図を利用して上述した処理を行うようにしても良い)。
In FIG. 12B, a point P ′ on the epithelial boundary A is shown, and the point P ′ on the epithelial boundary A is indicated by an angle θ L with the Y L axis.
As shown in FIG. 12 (B), each point projected on the surface of the cylinder is converted into a coordinate system of θ L -Z L , and then opened by a value where θ L is 0, and the development shown in FIG. 12 (C). Each position of the endoscopic image Ia is displayed according to FIG. Ib. The details of this processing are described in the specification of Japanese Patent Application No. 2005-1842.
Further, another development drawing generation means described in this specification may be adopted to generate a development drawing (also in the case of generating a development drawing by two-dimensional conversion, Japanese Patent Application No. 2004-2004). It is also possible to adopt a development drawing generation means described in the specification of No. 378011 to generate a development drawing and perform the above-described processing using the development drawing.

図12(C)に示すようにこの場合においては、Zが大きい値側が撮像手段から遠方の位置となるため、遠方位置に対応する胃食道接合部Bの下側(内側)に上皮境界Aの形状が表示される。
このように図12(C)に示した展開図Ibの場合にも、図5のステップS4以降の処理を行うことによって、上皮境界AのZ方向(図12(C)ではZL方向)の平均値<Z>、分散値σを算出して、この分散値σを基準値σthと比較することにより上皮境界であるか或いは性状が変化したバレット食道であるかを判定することができる。なお、図12(C)の展開図の分解能は、診断対象の立体形状を推定する場合の画像の分解能によって決定される。
Figure 12 In this case, as shown in (C), Z L because is a position distant from the large value side imaging means, epidermal boundary A below the gastroesophageal junction B corresponding to the distant position (inside) The shape of is displayed.
As described above, also in the development view Ib shown in FIG. 12C, the average of the epithelial boundary A in the Z direction (ZL direction in FIG. 12C) is obtained by performing the processing after step S4 in FIG. The value <Z A > and the variance value σ A are calculated, and the variance value σ A is compared with the reference value σ th to determine whether it is an epithelial boundary or a Barrett esophagus whose properties have changed. it can. Note that the resolution of the developed view of FIG. 12C is determined by the resolution of the image when the three-dimensional shape to be diagnosed is estimated.

このように本実施例では、直視型の内視鏡6によって撮像された食道の内視鏡画像の展開図Ibを生成し、展開図Ibの上皮境界Aの形状をばらつき等を定量的に判定することによりバレット食道か否かを容易かつ客観的に判定することができる。
従って、術者は、この判定結果を利用することにより、バレット食道か否かの診断を効率良く行うことができる。
また、本実施例では、展開図Ibを生成するようにしているので、内視鏡画像Iaのみの場合よりも管腔方向或いは管腔と直交する周方向における上皮境界の形状分布等の把握がし易くなり、従ってより診断も行い易くなる。
As described above, in this embodiment, the development view Ib of the endoscopic image of the esophagus imaged by the direct-view type endoscope 6 is generated, and the shape of the epithelial boundary A in the development view Ib is quantitatively determined. By doing so, it can be easily and objectively determined whether or not it is Barrett's esophagus.
Therefore, the surgeon can efficiently diagnose whether or not it is Barrett's esophagus by using this determination result.
Further, in the present embodiment, the development view Ib is generated, so that the shape distribution of the epithelial boundary in the lumen direction or the circumferential direction orthogonal to the lumen can be grasped more than in the case of only the endoscopic image Ia. Therefore, diagnosis is also easier to perform.

次に図13及び図14を参照して本発明の実施例2を説明する。バレット食道は、実施例1で説明したように上皮境界が複雑な形状をしたものに適用した場合であるが、円柱上皮(バレット粘膜)が舌状に広がり、このため上皮境界の形状も舌状に形成される場合がある。
この場合には、実施例1では、この形状に対して適切な解析結果を出力することが困難になる可能性がある。このため、本実施例では、円柱上皮が舌状に広がったような場合にも、それに対して適切な解析結果(判定結果)を出力することができるようにすることを目的とする。
このため、本実施例では、以下に説明するように実施例1における上皮境界AのZ方向の平均値<Z>を算出して、上皮境界AのZ方向のばらつき(複雑さ)に対応する分散値σを算出する代わりに、上皮境界AのZ方向の最大値と最小値を求め、これらの差分値の絶対値を基準値と比較することにより、上皮境界Aが上皮境界かバレット食道かの判定を行う。
Next, a second embodiment of the present invention will be described with reference to FIGS. The Barrett's esophagus is a case where the epithelial boundary is applied to a complicated shape as described in Example 1, but the columnar epithelium (Barrett mucosa) spreads in a tongue shape. May be formed.
In this case, in the first embodiment, it may be difficult to output an appropriate analysis result for this shape. Therefore, an object of the present embodiment is to output an appropriate analysis result (determination result) even when the columnar epithelium spreads in a tongue shape.
Therefore, in this embodiment, as described below, the average value <Z A > in the Z direction of the epithelial boundary A in the first embodiment is calculated to deal with the variation (complexity) of the epithelial boundary A in the Z direction. Instead of calculating the variance value σ A to be calculated, the maximum value and the minimum value in the Z direction of the epithelial boundary A are obtained, and the absolute value of these difference values is compared with the reference value. Determine if it is an esophagus.

図13は、胃食道接合部付近を撮像した内視鏡画像Iaと、この内視鏡画像Iaから2次元的或いは3次元的に生成した展開図Ibを示す。
本実施例では、図14に示すような処理を行う。図14の処理は、ステップS1からステップS4までは図5の処理と同様である。ステップS4により上皮境界Aを検出した後、本実施例ではステップS41に示すように上皮境界AのZ方向の最大値Zmaxと最小値Zminを算出する。
そして、次のステップS42において、これら最大値Zmaxと最小値Zminの差分値の絶対値Dを求める。
次のステップS43において、この差分値の絶対値Dを基準値Dthと比較して、差分値の絶対値Dが基準値Dthより小さいか否かを判定する。
FIG. 13 shows an endoscopic image Ia obtained by imaging the vicinity of the gastroesophageal junction, and a developed view Ib generated two-dimensionally or three-dimensionally from the endoscopic image Ia.
In this embodiment, a process as shown in FIG. 14 is performed. The processing in FIG. 14 is the same as the processing in FIG. 5 from step S1 to step S4. After detecting the epithelial boundary A in step S4, in this embodiment, the maximum value Zmax and the minimum value Zmin in the Z direction of the epithelial boundary A are calculated as shown in step S41.
Then, at the next step S42, the absolute value D A of the difference values of the maximum value Zmax and the minimum value Zmin.
Determines at next step S43, the absolute value D A of the difference value is compared with a reference value D th, the absolute value D A of the difference value or reference value D th is smaller than or not.

この基準値Dthは、予め診断が確定している正常なサンプル及び上皮境界Aが舌状に広がっているバレット食道のサンプルにおけるそれぞれ差分値の絶対値のヒストグラムを求めたものから、両者の判定を行うのに適した閾値として算出されたものである。
差分値の絶対値Dが基準値Dthより小さい場合にはステップS8に示すように上皮境界と判定し、逆に差分値の絶対値Dが基準値Dth以上の場合にはステップS9に示すようにバレット食道と判定する。そして、ステップS8或いはステップS9による判定した結果をステップS10においてモニタ4等の表示装置で表示する等して、判定結果を出力してこの処理を終了する。
本実施例によれば、上皮境界Aが舌状に広がったような場合のバレット食道の場合にもその特徴を適切に解析して、的確な判定を行うことができる。
This reference value D th is obtained by obtaining a histogram of absolute values of difference values in a normal sample whose diagnosis has been confirmed in advance and a Barrett's esophagus sample in which the epithelial boundary A extends in a tongue shape. It is calculated as a threshold suitable for performing.
When the absolute value D A of the difference value is the reference value D th smaller than determines that the epithelium boundary as shown in step S8, step S9. If the absolute value D A of the difference value in the opposite is equal to or larger than the reference value D th It is determined as Barrett's esophagus as shown in. Then, the result of determination in step S8 or step S9 is displayed on a display device such as the monitor 4 in step S10, and the determination result is output, and this process is terminated.
According to the present embodiment, even in the case of Barrett's esophagus where the epithelial boundary A spreads out in a tongue shape, it is possible to appropriately analyze the characteristics and make an accurate determination.

次に図15及び図16を参照して本発明の実施例3を説明する。本実施例は、食道の管腔の形状が例えば円管形状から変形したような場合にも、上皮境界の特徴的な形状からバレット食道か否か適切に判定することを目的とする。
実施例1の判定方法では、食道を円管形状に近いことを想定して、上皮境界AのZ方向の平均値<Z>を算出し、上皮境界AのZ方向の各位置をこの平均値<Z>からのばらつき(分散値)を算出して、バレット食道か否かの判定を行っていた。この方法では、食道の管腔の形状が、例えば心臓の拍動等の影響その他の影響で円管形状から変形したような場合には、判定結果がその影響を受けやすくなる。
本実施例においては、その影響を軽減するべく、図15に示す内視鏡画像Iaから展開図Ibを生成し、この展開図Ib上において例えば胃食道接合部Bを検出し、この胃食道接合部Bから上皮境界Aまでの距離の分散値からバレット食道か否かを判定する。
Next, Embodiment 3 of the present invention will be described with reference to FIGS. The object of the present embodiment is to appropriately determine whether or not it is a Barrett esophagus from the characteristic shape of the epithelial boundary even when the shape of the lumen of the esophagus is deformed from, for example, a circular tube shape.
In the determination method of Example 1, assuming that the esophagus is close to a circular tube shape, an average value <Z A > of the epithelial boundary A in the Z direction is calculated, and each position of the epithelial boundary A in the Z direction is calculated as the average. A variation (dispersion value) from the value <Z A > was calculated to determine whether or not it was Barrett's esophagus. In this method, when the shape of the lumen of the esophagus is deformed from the circular tube shape due to, for example, the influence of the pulsation of the heart or the like, the determination result is easily affected.
In the present embodiment, in order to reduce the influence, a development view Ib is generated from the endoscopic image Ia shown in FIG. 15, and for example, the gastroesophageal junction B is detected on the development view Ib. It is determined from the dispersion value of the distance from the part B to the epithelial boundary A whether or not it is a Barrett esophagus.

つまり、食道の管腔形状が変形した場合、胃食道接合部Bもほぼ同様に変形することが考えられるため、胃食道接合部Bから上皮境界までの距離情報を利用することにより、食道の管腔形状に殆ど影響されないで判定を行うようにするものである。この場合、胃食道接合部Bの代わりに胃に通じる暗部或いは噴門部を検出し、それを利用しても良い。
胃食道接合部Bの検出方法としては、例えば食道粘膜の管腔方向(つまりZ方向)に走行する柵状血管の端点を検出し、その端点を連結することにより胃食道接合部Bを検出することができる。
本実施例の処理方法は、図16のようになる。図16において、ステップS1からS4までは、図5或いは図14と同じである。ステップS4の次にステップS51の胃食道接合部Bを検出する処理を行い、胃食道接合部Bを検出する。
That is, when the lumen shape of the esophagus is deformed, the gastroesophageal junction B may be deformed in substantially the same manner. Therefore, by using the distance information from the gastroesophageal junction B to the epithelial boundary, The determination is made almost without being influenced by the cavity shape. In this case, instead of the gastroesophageal junction B, a dark part or a cardia part leading to the stomach may be detected and used.
As a method for detecting the gastroesophageal junction B, for example, the end point of the fence-like blood vessel running in the lumen direction (that is, the Z direction) of the esophageal mucosa is detected, and the end point is connected to detect the gastroesophageal junction B. be able to.
The processing method of this embodiment is as shown in FIG. In FIG. 16, steps S1 to S4 are the same as those in FIG. 5 or FIG. Following step S4, the process of detecting the gastroesophageal junction B in step S51 is performed to detect the gastroesophageal junction B.

次のステップS52において、上皮境界Aと胃食道接合部ZとのZ方向の距離ZAθi−ZBθiの平均値<ZAB>と分散値σABを算出する。
ここで、平均値<ZAB>及び分散値σABは、以下の式で求めることができる。

Figure 0004668624
In the next step S52, an average value <Z AB > and a variance value σ AB of the distance Z Aθi -Z Bθi in the Z direction between the epithelial boundary A and the gastroesophageal junction Z are calculated.
Here, the average value <Z AB > and the variance value σ AB can be obtained by the following equations.
Figure 0004668624

そして、次のステップS53において、この分散値σABが予め求めた判定に用いる基準の分散値σABthと比較することにより上皮境界であるか或いは性状が変化したバレット食道であるかを判定する。
つまり、ステップS53により分散値σABの値が基準の分散値σABthより小さい場合には、ステップS8に示すように上皮境界と判定し、逆に分散値σABの値が基準の分散値σABth以上の場合には、ステップS9に示すようにバレット食道であると判定する。
Then, in the next step S53, it is determined whether the variance value σ AB is the epithelial boundary or the Barrett's esophagus whose properties have changed by comparing with the reference variance value σ ABth used for the previously obtained determination.
That is, if the variance value σ AB is smaller than the reference variance value σ ABth in step S53, it is determined as an epithelial boundary as shown in step S8. Conversely, the variance value σ AB is the reference variance value σ. If it is greater than or equal to ABth, it is determined to be Barrett's esophagus as shown in step S9.

そして、ステップS10に示すように、ステップS8或いはステップS9の判定結果をモニタ4に表示する等して判定結果を出力してこの処理を終了する。
本実施例によれば、胃食道接合部Bを基準に上皮境界Aまでの距離ZAθi−ZBθiの平均値<ZAB>を算出して、その距離ZAθi−ZBθiのばらつきを評価することにより、上皮境界Aが上皮境界かバレット食道かを判定するようにしているので、食道の管腔が変形した場合でも適切に判定することができる。
なお、上述したように胃食道接合部Bを基準にする代わりに胃に通じる暗部や噴門部を基準に用いて判定するようにしても良い。例えば暗部(最暗部)を検出するには、暗部を検出するために設定した閾値で2値化し、エッジ抽出によりその境界を検出し、さらに細線化する等して暗部の境界を検出することができる。
この場合には胃食道接合部Bを検出する場合よりも簡単な処理で算出することができる。
Then, as shown in step S10, the determination result is output by, for example, displaying the determination result in step S8 or step S9 on the monitor 4, and the process is terminated.
According to the present embodiment, the average value <Z AB > of the distance Z Aθi −Z Bθi to the epithelial boundary A is calculated based on the gastroesophageal junction B, and the variation of the distance Z Aθi −Z Bθi is evaluated. Thus, since it is determined whether the epithelial boundary A is the epithelial boundary or Barrett's esophagus, it can be appropriately determined even when the lumen of the esophagus is deformed.
As described above, instead of using the gastroesophageal joint B as a reference, the determination may be made using a dark part or a cardia part leading to the stomach as a reference. For example, in order to detect a dark part (darkest part), binarization is performed with a threshold value set for detecting the dark part, the boundary is detected by edge extraction, and the boundary of the dark part is detected by further thinning the line. it can.
In this case, the calculation can be performed by a simpler process than when the gastroesophageal junction B is detected.

次に図17及び図18を参照して本発明の実施例4を説明する。本実施例は、バレット食道の場合には、上皮境界Aが複雑な形状を伴う特徴に着目して、その特徴を上皮境界Aの線長を算出して、上皮境界かバレット食道かの判定を行う。
図17は上述した各実施例のように内視鏡画像から生成した展開図Ibを示す。この展開図Ibは、離散的な画像であるため、実際には上皮境界Aの曲線は、折れ線で表される。従って、隣接する2点Ai−1(θi−1、Zi−1)、A(θ、Z)間の距離Li−1を算出し、その距離Li−1の総和値を求めることにより、上皮境界Aの長さLを求める。 つまり、

Figure 0004668624
Next, a fourth embodiment of the present invention will be described with reference to FIGS. In this embodiment, in the case of Barrett's esophagus, paying attention to the feature that the epithelial boundary A has a complicated shape, the line length of the epithelial boundary A is calculated to determine whether the feature is the epithelial boundary or Barrett's esophagus. Do.
FIG. 17 shows a developed view Ib generated from an endoscopic image as in the above-described embodiments. Since this development view Ib is a discrete image, the curve of the epithelial boundary A is actually represented by a broken line. Accordingly, distances L i-1 and i between two adjacent points A i-1i-1 , Z i-1 ) and A ii , Z i ) are calculated, and the distance L i-1 is calculated. , by obtaining the sum of i, determine the length L a of the epithelium boundary a. That means
Figure 0004668624

ここで、iは、360度(2π)をN等分した場合の1からNまでの値とする。   Here, i is a value from 1 to N when 360 degrees (2π) is divided into N equal parts.

このように算出した上皮境界Aの長さLを用いて図18に示す手順により上皮境界かバレット食道かの判定を行う。図18におけるステップS1からS3は、図5と同じであるため省略している。
図18に示すようにステップS4により上皮境界Aの検出を行った後、ステップS61に示すように上皮境界Aの長さLを算出する。
次のステップS62において、算出した上皮境界Aの長さLを、予め診断が確定している多数のサンプルを用いて判定に使用する基準とする上皮境界の長さLthと比較する。そして、上皮境界Aの長さLが基準の上皮境界の長さLthより小さい場合には、ステップS8に示すように上皮境界と判定し、逆に上皮境界Aの長さLが基準の上皮境界の長さLth以上の場合には、ステップS9に示すようにバレット食道であると判定する。
It is determined whether the epithelium boundary or Barrett's esophagus by the procedure shown in FIG. 18 by using the length L A of the thus calculated epithelium boundary A. Steps S1 to S3 in FIG. 18 are omitted because they are the same as those in FIG.
After detecting the epithelial boundary A in step S4 as shown in FIG. 18, the length LA of the epithelial boundary A is calculated as shown in step S61.
In the next step S62, the length L A of the calculated epithelial boundary A, compared with the length L th epithelial border as a reference to be used for determining using a number of samples beforehand diagnosis is confirmed. When the length L A is the reference length L th smaller epithelial border epithelial border A determines that the epithelium boundary as shown in step S8, the length L A reference epithelial boundary A in the opposite in the case of more than the length L th epithelial boundary determines that a Barrett's esophagus as shown in step S9.

そして、ステップS10に示すように、ステップS8或いはステップS9の判定結果をモニタ4に表示する等して判定結果を出力してこの処理を終了する。
本実施例によれば、バレット食道の場合には、上皮境界Aが複雑な形状となる症例が多く見受けられ、そのような症例の場合に対して的確な判定を行うことができる。
なお、上皮境界Aの長さLを算出する場合、上皮境界Aの曲線を近似式で表すようにし、その近似式により線長を求めるようにしても良い。このようにすると、より精度の良い線長を算出でき、線長による判定をより精度良く行うこともできる。
なお、隣接する2点Ai−1(θi−1、Zi−1)、A(θ、Z)間の距離Li−1を周方向に全周(360度)分の総和値から上皮境界Aの長さLを算出しているが、必ずしも全周に限定されるものでない。これは他の実施例においても同様である。
Then, as shown in step S10, the determination result is output by, for example, displaying the determination result in step S8 or step S9 on the monitor 4, and the process is terminated.
According to the present example, in the case of Barrett's esophagus, there are many cases where the epithelial boundary A has a complicated shape, and an accurate determination can be made for such cases.
In the case of calculating the length L A of the epithelium boundary A, so as to represent the curve of the epithelium boundary A in approximate expression may be calculated line length by the approximate expression. In this way, a more accurate line length can be calculated, and determination based on the line length can also be performed with higher accuracy.
Note that the distance L i-1 , i between two adjacent points A i-1i-1 , Z i-1 ), A ii , Z i ) is the entire circumference (360 degrees) in the circumferential direction. minute and from the sum value to calculate the length L a of the epithelial border a but not necessarily limited to the entire circumference. The same applies to other embodiments.

次に図19及び図20を参照して本発明の実施例5を説明する。本実施例では上皮境界の曲線における隣接するベクトルのなす角の絶対値の周方向における総和値を求め、この総和値により上皮境界かバレット食道かの判定を行う。
本実施例においても、図19(A)に示すように内視鏡画像Iaから展開図Ibを生成する。そして、展開図Ibから上皮境界Aを検出する。展開図Ibは離散的な画像であるため、上皮境界Aは折れ線で表される。
この上皮境界A上における隣接する3点を抽出し、隣接する2点をそれぞれ結んだ2つの線分がなす角、或いは2つのベクトルのなす角を求める。
例えば図19における円Cの部分の拡大図を図19(B)に示し、この図中の3点Ai−1、A、Ai+1におけるベクトルV、Vi+1を拡大して図19(C)に示す。
Next, Embodiment 5 of the present invention will be described with reference to FIGS. In this embodiment, the sum of the absolute values of the angles formed by adjacent vectors in the curve of the epithelial boundary in the circumferential direction is obtained, and it is determined whether the epithelial boundary or Barrett's esophagus is based on this sum.
Also in the present embodiment, a development view Ib is generated from the endoscopic image Ia as shown in FIG. Then, the epithelial boundary A is detected from the developed view Ib. Since the developed view Ib is a discrete image, the epithelial boundary A is represented by a polygonal line.
Three adjacent points on the epithelial boundary A are extracted, and an angle formed by two line segments each connecting the two adjacent points or an angle formed by two vectors is obtained.
For example, an enlarged view of a circle C in FIG. 19 is shown in FIG. 19B. Vectors V i and V i + 1 at three points A i−1 , A i , and A i + 1 in this figure are enlarged and shown in FIG. C).

そして、両ベクトルV、Vi+1のなす角φθiを算出する。
そして、iを0から1つづつ大きくするようにして、3点Ai−1、A、Ai+1を左側に移動しつつ、その場合の角φθiの絶対値の総和φを算出する。
この場合、

Figure 0004668624
Then, an angle φ θi formed by both vectors V i and V i + 1 is calculated.
Then, the total value φ A of the absolute value of the angle φ θi in that case is calculated while moving the three points A i−1 , A i , A i + 1 to the left side so that i is increased one by one from 0 . .
in this case,
Figure 0004668624

となる。
本実施例における上皮境界かバレット食道かの判定方法は図20のようになる。図20においても最初のステップS1からステップS3までは図5の場合と同様であるので、そのステップを省略している。
It becomes.
The method for determining whether the epithelial boundary or Barrett's esophagus in this embodiment is as shown in FIG. Also in FIG. 20, since the first step S1 to step S3 are the same as those in FIG. 5, the steps are omitted.

ステップS4に示すように上皮境界Aを検出した後、次のステップS71において、図19で説明したように展開図Ib上における隣接する3点から順次2つのベクトルV、Vi+1を設定して、それらのなす角φθiを算出する。そして、次のステップS72において、これらの角φθiの絶対値の総和φを算出する。
次のステップS73において、算出した総和φを、予め診断が確定した多数のサンプルを用いて求めた基準とする上皮境界の場合の総和値φthと比較する。そして、算出した総和φが基準の総和値φthより小さい場合には、ステップS8に示すように上皮境界と判定し、逆に総和φが基準の総和値φth以上の場合には、ステップS9に示すようにバレット食道であると判定する。
After detecting the epithelial boundary A as shown in step S4, in the next step S71, as described in FIG. 19, two vectors V i and V i + 1 are sequentially set from three adjacent points on the development view Ib. Then, an angle φ θi formed by them is calculated. Then, at the next step S72, the calculating a sum phi A of the absolute values of these corners phi .theta.i.
In the next step S73, the calculated sum total φ A is compared with the sum value φ th for the reference epithelial boundary obtained using a number of samples whose diagnosis has been confirmed in advance. If the calculated total sum φ A is smaller than the reference total value φ th, it is determined as an epithelial boundary as shown in step S8. Conversely, if the total sum φ A is greater than or equal to the reference total value φ th , It determines with it being a Barrett esophagus as shown to step S9.

そして、ステップS10に示すように、ステップS8或いはステップS9の判定結果をモニタ4に表示する等して判定結果を出力してこの処理を終了する。
本実施例によれば、バレット食道の場合には、上皮境界Aが複雑な形状となる症例が多く見受けられ、そのような症例の場合に対して的確な判定を行うことができる。
Then, as shown in step S10, the determination result is output by, for example, displaying the determination result in step S8 or step S9 on the monitor 4, and the process is terminated.
According to the present example, in the case of Barrett's esophagus, there are many cases where the epithelial boundary A has a complicated shape, and an accurate determination can be made for such cases.

次に図21を参照して本発明の実施例6を説明する。本実施例では上皮境界の屈曲点の数を算出し、その数の大小により上皮境界かバレット食道かの判定を行う。上述したようにバレット食道の症例の場合には、ぎざぎざ形状等、複雑な形状を伴う場合が多い。 例えば図19(A)に示すように上皮境界Aは、バレット食道の症例においては、凹凸形状になる場合が多い。
本実施例では、屈曲点の数を算出(評価)する具体例として、例えば展開図における上皮境界Aの極大値と極小値に相当する変曲点の数を算出する。或いは展開図における上皮境界A上の隣接する2点を結ぶ線分或いはベクトルが水平方向となす角が0度を超える状態から0度以下(正から負)になる状態或いは0度未満から0度以上(負から正)になる点の数を計測する。この様子を図21に示す。
Next, Embodiment 6 of the present invention will be described with reference to FIG. In this embodiment, the number of inflection points of the epithelial boundary is calculated, and it is determined whether the epithelial boundary or Barrett's esophagus is large or small. As described above, in the case of Barrett's esophagus, a complicated shape such as a jagged shape is often accompanied. For example, as shown in FIG. 19A, the epithelial boundary A often has an uneven shape in the case of Barrett's esophagus.
In this embodiment, as a specific example of calculating (evaluating) the number of bending points, for example, the number of inflection points corresponding to the maximum value and the minimum value of the epithelial boundary A in the development view is calculated. Alternatively, a line segment or vector connecting two adjacent points on the epithelial boundary A in the developed view is in a state where the angle between the horizontal direction and the vector is more than 0 degrees, or less than 0 degrees (positive to negative), or less than 0 degrees to 0 degrees Count the number of points above (from negative to positive). This is shown in FIG.

図21に示すように上皮境界A上における2点Ai−1、AのベクトルVの傾きΔZ/Δθ=Ψが正から負になる点と、負から正になる変曲点の数を算出する。図21ではベクトルVi+2の傾きが負になるため、点Ai+2が変曲点と判定される。
そして、このように変曲点の検出をθをi=1からNまで行い、変曲点の総和を算出する。そして、変曲点の総和の値の大小から上皮境界かバレット食道かの判定を行う。
本実施例における上皮境界かバレット食道かの判定方法は図22のようになる。図22においても最初のステップS1からステップS3までは図5の場合と同様であるので、そのステップを省略している。
As shown in FIG. 21, the slope ΔZ i / Δθ i = Ψ i of the vector V i of the two points A i-1 and A i on the epithelial boundary A changes from positive to negative, and the inflection changes from negative to positive. Calculate the number of points. In FIG. 21, since the slope of the vector V i + 2 becomes negative, the point A i + 2 is determined as the inflection point.
Then, the inflection points are detected in this way from θ i to i = 1 to N, and the sum of the inflection points is calculated. Then, it is determined whether the epithelial boundary or Barrett's esophagus is based on the sum of the inflection points.
The method for determining whether the epithelial boundary or Barrett's esophagus in this embodiment is as shown in FIG. Also in FIG. 22, since the first step S1 to step S3 are the same as those in FIG. 5, the steps are omitted.

ステップS4に示すように上皮境界Aを検出した後、次のステップS81において、θの変数パラメータi、屈曲点の数Fを初期化する。つまり、i=1及びF=0とする。 次のステップS82において、図21に示すようにベクトルVの傾きΨを算出する。そして、次のステップS83において、この傾きΨが変曲点に該当するかの判定を行う。この判定により、変曲点に該当する場合には、ステップS84に示すように数Fの値を1つ増大した後、次のステップS85に進む。
また、逆に変曲点に該当しない場合には、ステップS85に移る。ステップS85においては、変数パラメータiがθの分割数Nかの判定を行い、Nに等しくない場合にはステップS86に示すように変数パラメータiの数を1つ増大してステップS82に戻る。
After detecting the epithelium boundary A, as shown in step S4, in the next step S81, the variable parameter i of theta, it initializes the number F A bending point. That is, i = 1 and F A = 0. In the next step S82, the calculated inclination [psi i the vector V i as shown in FIG. 21. Then, in the next step S83, it is determined whether this slope Ψ i corresponds to an inflection point. This determination, in the case corresponding to the inflection point, after increasing one value of the number F A, as shown in step S84, the process proceeds to the next step S85.
On the other hand, if it does not correspond to the inflection point, the process proceeds to step S85. In step S85, it is determined whether the variable parameter i is equal to the division number N of θ. If the variable parameter i is not equal to N, the number of variable parameters i is increased by one as shown in step S86, and the process returns to step S82.

このようにして、ステップS82からステップS86までの処理をi=Nになるまで繰り返す。
そして、i=Nになった場合にはステップS87に示すように数Fが基準となる数Fthより小さいかの判定を行う。この基準となる数Fthは、診断が確定した多数のサンプルから算出される。
そして、数Fが基準となる数Fthより小さい場合には、ステップS8に示すように上皮境界と判定し、逆に数Fが基準の数Fth以上の場合には、ステップS9に示すようにバレット食道であると判定する。
そして、ステップS10に示すように、ステップS8或いはステップS9の判定結果をモニタ4に表示する等して判定結果を出力してこの処理を終了する。
In this way, the processing from step S82 to step S86 is repeated until i = N.
When i = N, it is determined whether the number F A is smaller than the reference number F th as shown in step S87. The reference number F th is calculated from a large number of samples whose diagnosis is confirmed.
If the number F A is smaller than the reference number F th , the epithelial boundary is determined as shown in step S8. Conversely, if the number F A is greater than or equal to the reference number F th , the process proceeds to step S9. As shown, it is determined to be Barrett's esophagus.
Then, as shown in step S10, the determination result is output by, for example, displaying the determination result in step S8 or step S9 on the monitor 4, and the process is terminated.

本実施例によれば、バレット食道の場合には、上皮境界Aが複雑な形状となる症例が多く見受けられ、そのような症例の場合に対して的確な判定を行うことができる。
なお、本実施例においては、変曲点の数Fを算出して、算出した数を比較することにより上皮境界かバレット食道であるかの判定を行う例を説明したが、例えば特願2004−360319号に記載されているように屈曲点の数を算出してその数を比較することにより、上皮境界かバレット食道であるかの判定を行うようにしても良い。
この判定方法は、この特願2004−360319号の図4におけるステップS4からS14の処理に沿った処理を行えば良い。なお、この場合には、内視鏡画像により得られる画像データに対して行っている。
According to the present example, in the case of Barrett's esophagus, there are many cases where the epithelial boundary A has a complicated shape, and an accurate determination can be made for such cases.
In the present embodiment, an example has been described in which the number of inflection points F A is calculated, and the calculated number is compared to determine whether it is an epithelial boundary or Barrett's esophagus. As described in JP-A-360319, the number of inflection points may be calculated and compared to determine whether it is an epithelial boundary or Barrett's esophagus.
This determination method may be performed in accordance with the processing of steps S4 to S14 in FIG. 4 of Japanese Patent Application No. 2004-360319. In this case, it is performed on image data obtained from an endoscopic image.

また、上述の説明では変曲点の数F或いは屈曲点の数を算出してその数を基準値と比較して上皮境界かバレット食道であるかの判定を行う例を説明したが、隣接する2つの傾きΨ、Ψi+1の値を比較してその値が変化する点(例えば減算値が変化する点)の数を計数して、その総和の値を基準値と比較して判定を行うようにしても良い。
なお、例えば図5の処理手順では、ステップS3において展開図を生成した後、次のステップS4において上皮境界を検出するようにしているが、先に上皮境界を検出した後、展開図を生成するようにしても良い。
また、上述した各実施例においては、上部消化管としての食道内における胃食道接合部周辺部の疾患としてのバレット食道か否かを定量的に判定する場合を説明したが、下部消化管の場合に対しても適用することができる。
In the above description, the number of inflection points F A or the number of inflection points is calculated and compared with a reference value to determine whether the epithelial boundary or Barrett's esophagus is used. The two slopes Ψ i and Ψ i + 1 are compared, the number of points at which the value changes (for example, the point at which the subtraction value changes) is counted, and the sum is compared with the reference value to make a determination. You may make it do.
For example, in the processing procedure of FIG. 5, after the development view is generated in step S3, the epithelial boundary is detected in the next step S4. However, after the epithelial boundary is detected first, the development view is generated. You may do it.
Further, in each of the above-described embodiments, a case has been described in which it is quantitatively determined whether or not it is Barrett's esophagus as a disease around the gastroesophageal junction in the esophagus as the upper gastrointestinal tract. It can also be applied to.

例えば大腸内に内視鏡6を挿入して撮像した画像から展開図を生成し、その展開図から色調などが正常部位と異なる病変部粘膜の境界を検出し、その検出した境界に対して、例えば境界の形状等に対する解析を行い、解析結果を得るようにしても良い。要するに体内の管状部位を撮像した内視鏡画像から展開図を生成して、その展開図から病変部などに対する解析を行う場合の装置及び方法として広く適用できる。この場合、解析結果を展開図と併用することにより、病変部等の把握がし易く、診断等を効率良く行うことができる。 なお、上述した各実施例を部分的に組み合わせる等して構成される実施例等も本発明に属する。   For example, a developed view is generated from an image captured by inserting the endoscope 6 into the large intestine, and the boundary of the lesioned mucous membrane having a color tone different from that of the normal site is detected from the developed view. For example, an analysis result may be obtained by analyzing the shape of the boundary. In short, the present invention can be widely applied as an apparatus and method for generating a development view from an endoscopic image obtained by imaging a tubular part inside the body and analyzing a lesioned part or the like from the development view. In this case, by using the analysis result together with the development view, it is easy to grasp the lesioned part and the like, and diagnosis and the like can be performed efficiently. Note that embodiments configured by partially combining the above-described embodiments also belong to the present invention.

[付記]
1.請求項1において、前記解析手段は、前記上皮境界における前記食道の管腔方向に対する最大値と最小値との差分値を算出して所定の値との比較結果を解析結果とする。
2.請求項1において、前記解析手段は、胃と食道の接合部等の基準部位から前記上皮境界までの距離のばらつき量を算出し、算出したばらつき量を基準値と比較して解析結果とする。
3.請求項1において、前記解析手段は、前記上皮境界上の隣接する2点間の距離の総和値を算出し、算出した総和値を基準値と比較した比較結果を解析結果とする。
[Appendix]
1. In Claim 1, the said analysis means calculates the difference value of the maximum value with respect to the luminal direction of the said esophagus in the said epithelial boundary, and makes a comparison result with a predetermined value an analysis result.
2. 2. The analysis unit according to claim 1, wherein the analysis unit calculates a variation amount of a distance from a reference site such as a joint between the stomach and the esophagus to the epithelial boundary, and compares the calculated variation amount with a reference value to obtain an analysis result.
3. In Claim 1, the said analysis means calculates the sum total value of the distance between the two adjacent points on the said epithelial boundary, and makes the comparison result which compared the calculated sum total value with a reference value an analysis result.

4.請求項1において、前記解析手段は、前記上皮境界上の隣接する3点における隣接する2点を結ぶ2つのベクトル(線分)のなす角の絶対値の総和値を算出し、算出した総和値を基準値と比較した比較結果を解析結果とする。
5.請求項1において、前記解析手段は、前記上皮境界上における各点の形状が前記食道の管腔方向に関して凹凸となる場合の屈曲点の数を算出し、算出した屈曲点の数を基準値と比較した比較結果を解析結果とする。
6.請求項1において、前記解析手段は、前記上皮境界の形状が前記食道の管腔方向に関して極大と極小となる極値の数を算出し、算出した極値の数を基準値と比較した比較結果を解析結果とする。
4). In Claim 1, the said analysis means calculates the sum total value of the absolute value of the angle | corner which two vectors (line segment) which ties two adjacent points in the three adjacent points on the said epithelial boundary, and calculated the total value The comparison result of comparing with the reference value is taken as the analysis result.
5. 2. The analysis unit according to claim 1, wherein the analysis means calculates the number of bending points when the shape of each point on the epithelial boundary is uneven with respect to the luminal direction of the esophagus, and uses the calculated number of bending points as a reference value. The comparison result compared is taken as the analysis result.
6). 2. The comparison result according to claim 1, wherein the analysis means calculates the number of extreme values at which the shape of the epithelial boundary is maximum and minimum with respect to the luminal direction of the esophagus, and compares the calculated number of extreme values with a reference value. Is the analysis result.

7.食道内を撮像した画像に対して、展開図を生成する展開図生成ステップと、
前記展開図より食道側粘膜としての扁平上皮と、前記扁平上皮が胃側粘膜に変性した円柱上皮との境界としての上皮境界を検出する上皮境界検出ステップと、
検出された前記上皮境界に対して、所定の特徴量に対応する解析結果を算出する解析ステップと、
を有することを特徴とする食道粘膜用画像処理方法。
8.付記7において、前記解析ステップは、前記所定の特徴量としてバレット食道の場合における上皮境界の特徴量の評価値を算出し、前記評価値を基準となる基準値と比較して解析結果を算出することを特徴とする。
7). A development view generation step for generating a development view for an image of the inside of the esophagus;
An epithelial boundary detection step for detecting an epithelial boundary as a boundary between the squamous epithelium as the esophageal mucosa from the developed view and the columnar epithelium in which the squamous epithelium is denatured into the gastric mucosa,
An analysis step for calculating an analysis result corresponding to a predetermined feature amount for the detected epithelial boundary;
An image processing method for esophageal mucosa, comprising:
8). In Supplementary Note 7, the analysis step calculates an evaluation value of a feature value of an epithelial boundary in the case of Barrett's esophagus as the predetermined feature value, and compares the evaluation value with a reference value serving as a reference to calculate an analysis result It is characterized by that.

9.付記7において、前記解析ステップは、前記上皮境界の平均値を算出する平均値算出ステップと、前記上皮境界の平均値からのばらつき量を算出するばらつき量算出ステップとを有する。 9. In Supplementary Note 7, the analyzing step includes an average value calculating step for calculating an average value of the epithelial boundary and a variation amount calculating step for calculating a variation amount from the average value of the epithelial boundary.

10.付記7において、前記解析ステップは、前記上皮境界における前記食道の管腔方向に対する最大値と最小値との差分値を算出するステップを有する。
11.付記7において、前記解析ステップは、胃と食道の接合部等の基準部位から前記上皮境界までの距離のばらつき量を算出するステップを有する。
12.付記7において、前記解析ステップは、前記上皮境界上の隣接する2点間の距離の総和値を算出するステップを有する。
10. In Supplementary Note 7, the analysis step includes a step of calculating a difference value between a maximum value and a minimum value with respect to a lumen direction of the esophagus at the epithelial boundary.
11. In Supplementary Note 7, the analysis step includes a step of calculating a variation amount of a distance from a reference site such as a junction between the stomach and the esophagus to the epithelial boundary.
12 In Supplementary Note 7, the analysis step includes a step of calculating a total value of distances between two adjacent points on the epithelial boundary.

13.付記7において、前記解析ステップは、前記上皮境界上の隣接する3点における隣接する2点を結ぶ2つのベクトル(線分))のなす角の絶対値の総和値を算出するステップを有する。
14.付記7において、前記解析ステップは、前記上皮境界上における各点の形状が前記食道の管腔方向に関して凹凸となる場合の屈曲点の数を算出するステップを有する。
13. In Supplementary Note 7, the analysis step includes a step of calculating a sum of absolute values of angles formed by two vectors (line segments) connecting two adjacent points on three adjacent points on the epithelial boundary.
14 In Supplementary Note 7, the analysis step includes a step of calculating the number of bending points when the shape of each point on the epithelial boundary becomes uneven with respect to the luminal direction of the esophagus.

15.付記7において、前記解析ステップは、前記上皮境界の形状が前記食道の管腔方向に関して極大と極小となる極値の数を算出するステップを有する。
16.体腔内の管状器官の画像を撮像する撮像手段を備えた内視鏡と、
前記撮像された少なくとも1枚の画像を用いて管状器官の展開図を生成する展開図生成手段と、
前記展開図より上皮境界を検出する上皮境界検出手段と、
前記上皮境界検出手段によって検出された境界の形状を解析し、解析結果を出力する解析手段と、
を有することを特徴とする内視鏡装置。
15. In Supplementary Note 7, the analysis step includes a step of calculating the number of extreme values at which the shape of the epithelial boundary becomes maximum and minimum with respect to the luminal direction of the esophagus.
16. An endoscope provided with imaging means for imaging an image of a tubular organ in a body cavity;
A developed view generating means for generating a developed view of the tubular organ using the captured at least one image;
An epithelial boundary detecting means for detecting an epithelial boundary from the developed view;
Analyzing the shape of the boundary detected by the epithelial boundary detection means, and an analysis means for outputting an analysis result;
An endoscope apparatus characterized by comprising:

17.食道内を撮像した画像に対して、展開図を生成する展開図生成手段と、
前記画像又は展開図より食道側粘膜としての扁平上皮と、前記扁平上皮が胃側粘膜に変性した円柱上皮との境界としての上皮境界を検出する上皮境界検出手段と、
検出された前記上皮境界に対して、所定の特徴量に対応する解析結果を算出する解析手段と、
を有することを特徴とする食道粘膜用画像処理装置。
18.生体内の管状部位を撮像した内視鏡画像から展開図を生成する展開図生成手段と、
前記展開図より判定対象となる粘膜組織が持つ特徴量を評価(解析)してその結果を出力する解析手段と、
を具備することを特徴とする医用画像処理装置。
17. Development view generating means for generating a development view for an image of the inside of the esophagus;
An epithelial boundary detecting means for detecting an epithelial boundary as a boundary between the squamous epithelium as the esophageal mucosa from the image or the developed view and the columnar epithelium in which the squamous epithelium is denatured into the gastric mucosa,
An analysis means for calculating an analysis result corresponding to a predetermined feature amount with respect to the detected epithelial boundary;
An image processing apparatus for esophageal mucosa, comprising:
18. A development view generating means for generating a development view from an endoscopic image obtained by imaging a tubular part in a living body;
Analysis means for evaluating (analyzing) the characteristic amount of the mucosal tissue to be determined from the developed view and outputting the result;
A medical image processing apparatus comprising:

食道内を内視鏡により撮像した内視鏡画像から展開図を生成して食道側粘膜としての扁平上皮とそれが変性した円柱上皮との境界の上皮境界を検出し、その上皮境界におけるバレット食道の疾患が示す特徴量を解析して特徴量に対する解析評価値を算出し、その解析評価値を基準値と比較することにより客観的な解析結果を得ることができ、この解析結果をさらに上皮境界の形状の把握がし易い展開図と併用することにより、診断等を効率的に進められる。   A development view is generated from an endoscopic image obtained by imaging the inside of the esophagus to detect the epithelial boundary between the squamous epithelium as the esophageal mucosa and the degenerated columnar epithelium, and the Barrett esophagus at the epithelial boundary By analyzing the feature value of each disease and calculating the analysis evaluation value for the feature value, and comparing the analysis evaluation value with the reference value, an objective analysis result can be obtained. Diagnosis and the like can be carried out efficiently by using together with a development view in which the shape of the shape can be easily grasped.

図1は本発明の実施例1を備えた内視鏡システムの構成を示すブロック図。FIG. 1 is a block diagram illustrating a configuration of an endoscope system including the first embodiment of the present invention. 図2は食道のような管状器官(管状部位)に挿入された内視鏡により撮像する様子を示す図。FIG. 2 is a view showing a state where an image is taken by an endoscope inserted into a tubular organ (tubular portion) such as an esophagus. 図3は図2の内視鏡の撮像装置により撮像された内視鏡画像を示す図。FIG. 3 is a diagram illustrating an endoscopic image captured by the endoscope imaging apparatus of FIG. 2. 図4はCPUによる画像処理機能を示す図。FIG. 4 is a diagram showing an image processing function by the CPU. 図5は展開図を生成する処理を経てバレット食道か否かの判定を行う処理手順を示すフローチャート図。FIG. 5 is a flowchart showing a processing procedure for determining whether or not it is a Barrett esophagus through processing for generating a development view. 図6は内視鏡画像と生成された展開図の関係を示す図。FIG. 6 is a diagram illustrating a relationship between an endoscopic image and a generated development view. 図7は内視鏡画像から展開図生成の処理手順のフローチャート図。FIG. 7 is a flowchart of a processing procedure for generating a development view from an endoscopic image. 図8は図5における上皮境界を検出する処理手順のフローチャート図。FIG. 8 is a flowchart of a processing procedure for detecting an epithelial boundary in FIG. 図9は算出した上皮境界のZ方向の平均値を表示した展開図を示す図。FIG. 9 is a development view showing the average value of the calculated epithelial boundary in the Z direction. 図10は予め診断が確定した上皮境界の場合とバレット食道の場合のサンプルの分散値のヒストグラムにより判定基準となる基準値を算出したヒストグラム例を示す図。FIG. 10 is a diagram illustrating an example of a histogram in which a reference value serving as a determination reference is calculated based on a histogram of variance values of samples in the case of an epithelial boundary whose diagnosis has been confirmed in advance and in the case of Barrett's esophagus. 図11は内視鏡画像、展開図及び判定結果を表示したモニタでの表示例を示す図。FIG. 11 is a diagram illustrating a display example on a monitor displaying an endoscopic image, a development view, and a determination result. 図12は内視鏡画像、この内視鏡画像から推定された食道と胃の胃食道接合部周辺部の内壁の立体形状、及びその立体形状から生成した展開図を示す図。FIG. 12 is a diagram showing an endoscopic image, a three-dimensional shape of the inner wall of the peripheral portion of the gastroesophageal junction estimated from the endoscopic image, and a development view generated from the three-dimensional shape. 図13は本発明の実施例2における内視鏡画像と展開図を示す図。FIG. 13 is a diagram showing an endoscopic image and a development view according to the second embodiment of the present invention. 図14は展開図を生成する処理を経てバレット食道か否かの判定を行う処理手順を示すフローチャート図。FIG. 14 is a flowchart showing a processing procedure for determining whether or not a Barrett's esophagus is passed through processing for generating a development view. 図15は本発明の実施例3における内視鏡画像と展開図を示す図。FIG. 15 is a diagram illustrating an endoscopic image and a development view according to the third embodiment of the present invention. 図16は展開図を生成する処理を経てバレット食道か否かの判定を行う処理手順を示すフローチャート図。FIG. 16 is a flowchart showing a processing procedure for determining whether or not it is a Barrett esophagus through processing for generating a development view. 図17は展開図における上皮境界上の隣接する2点間の距離を算出する場合の説明図。FIG. 17 is an explanatory diagram for calculating the distance between two adjacent points on the epithelial boundary in the developed view. 図18は上皮境界の隣接する2点間の距離の総和を算出してバレット食道か否かの判定を行う処理手順を示すフローチャート図。FIG. 18 is a flowchart showing a processing procedure for calculating the sum of the distances between two adjacent points of the epithelial boundary and determining whether or not it is Barrett's esophagus. 図19は内視鏡画像から生成された展開図の上皮境界上の隣接する3点から生成される隣接する2つのベクトルのなす角を求める様子を示す説明図。FIG. 19 is an explanatory diagram showing a state in which an angle formed by two adjacent vectors generated from three adjacent points on the epithelial boundary of a developed view generated from an endoscopic image is obtained. 図20は隣接する2つのベクトルのなす角の総和を求めてバレット食道か否かの判定を行う処理手順を示すフローチャート図。FIG. 20 is a flowchart showing a processing procedure for determining whether or not a Barrett's esophagus is obtained by calculating a sum of angles formed by two adjacent vectors. 図21は展開図の上皮境界上の隣接する2点を結ぶベクトルの傾きを算出する様子を示す説明図。FIG. 21 is an explanatory diagram showing a state in which the inclination of a vector connecting two adjacent points on the epithelial boundary of the development view is calculated. 図22はベクトルの傾きが正から負、負から正に変化する変曲点の総数を算出してその総数からバレット食道か否かの判定を行う処理手順を示すフローチャート図。FIG. 22 is a flowchart showing a processing procedure for calculating the total number of inflection points at which the vector inclination changes from positive to negative and from negative to positive, and determining whether the vector is a Barrett esophagus from the total number.

符号の説明Explanation of symbols

1…内視鏡システム
2…内視鏡観察装置
3…画像処理装置
4…モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
14…先端部
16…CCD
17…撮像装置
21…画像入力部
22…CPU
22a…幾何学的画像変換手段
22b…展開図出力手段
22c…上皮境界検出手段
22d…上皮境界解析手段
23…処理プログラム記憶部
24…画像記憶部
25…解析情報記憶部
27…ハードディスク
28…表示処理部
29…入力操作部
31…食道
A…上皮境界
B…胃食道接合部
代理人 弁理士 伊藤 進
DESCRIPTION OF SYMBOLS 1 ... Endoscope system 2 ... Endoscope observation apparatus 3 ... Image processing apparatus 4 ... Monitor 6 ... Endoscope 7 ... Light source device 8 ... CCU
11 ... Insertion part 14 ... Tip part 16 ... CCD
17 ... Imaging device 21 ... Image input unit 22 ... CPU
22a ... Geometric image conversion means 22b ... Development view output means 22c ... Epithelial boundary detection means 22d ... Epithelial boundary analysis means 23 ... Processing program storage section 24 ... Image storage section 25 ... Analysis information storage section 27 ... Hard disk 28 ... Display processing 29: Input operation unit 31 ... Esophageal A ... Epithelial boundary B ... Gastroesophageal junction Agent Attorney Susumu Ito

Claims (11)

食道内を撮像した画像に対して、展開図を生成する展開図生成手段と、
前記展開図上の画素値の色調変化または当該画像のエッジ状態に基づいて、食道側粘膜としての扁平上皮と、胃側粘膜の円柱上皮との境界としての上皮境界を検出する上皮境界検出手段と、
前記上皮境界検出手段により検出された前記上皮境界を構成する各画素の位置情報に関する特徴量を算出する特徴量算出手段と、
前記特徴量算出手段が算出した特徴量に基づいて解析結果を出力する解析手段と、
を具備したことを特徴とする食道粘膜用画像処理装置。
Development view generating means for generating a development view for an image of the inside of the esophagus;
Epithelial boundary detection means for detecting an epithelial boundary as a boundary between the squamous epithelium as the esophageal mucosa and the columnar epithelium of the gastric mucosa based on the color tone change of the pixel value on the developed view or the edge state of the image ,
Feature amount calculating means for calculating feature amounts relating to position information of each pixel constituting the epithelial boundary detected by the epithelial boundary detecting means ;
Analysis means for outputting an analysis result based on the feature quantity calculated by the feature quantity calculation means ;
An image processing apparatus for esophageal mucosa, comprising:
食道の管腔方向における前記上皮境界を構成する画素の位置の平均値を算出する上皮境界位置平均値算出手段と、  Epithelial boundary position average value calculating means for calculating an average value of the positions of pixels constituting the epithelial boundary in the luminal direction of the esophagus;
前記上皮境界位置平均値算出手段により算出された前記上皮境界を構成する画素の位置の平均値に対して食道の管腔方向における当該上皮境界を構成する画素の位置の分散値を算出する上皮境界位置分散値算出手段と、  An epithelial boundary for calculating a variance value of the positions of the pixels constituting the epithelial boundary in the luminal direction of the esophagus with respect to the average value of the positions of the pixels constituting the epithelial boundary calculated by the epithelial boundary position average value calculating means Position variance calculation means;
をさらに備え、  Further comprising
前記特徴量算出手段は、前記上皮境界位置分散値算出手段により算出された前記分散値に基づいて前記特徴量を算出する  The feature amount calculating unit calculates the feature amount based on the variance value calculated by the epithelial boundary position variance value calculating unit.
ことを特徴とする請求項1に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 1.
食道の管腔方向における前記上皮境界を構成する画素の位置の標準偏差値を算出する上皮境界位置標準偏差値算出手段をさらに備え、  Further comprising an epithelial boundary position standard deviation value calculating means for calculating a standard deviation value of a position of a pixel constituting the epithelial boundary in the lumen direction of the esophagus
前記特徴量算出手段は、前記上皮境界位置標準偏差値算出手段により算出された前記標準偏差値に基づいて前記特徴量を算出する  The feature amount calculating means calculates the feature amount based on the standard deviation value calculated by the epithelial boundary position standard deviation value calculating means.
ことを特徴とする請求項1に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 1.
前記特徴量算出手段は、前記上皮境界検出手段により検出された前記上皮境界の線長を算出し、当該算出した線長に基づいて前記特徴量を算出する  The feature amount calculating unit calculates a line length of the epithelial boundary detected by the epithelial boundary detecting unit, and calculates the feature amount based on the calculated line length.
ことを特徴とする請求項1に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 1.
前記特徴量算出手段は、前記上皮境界検出手段により検出された前記上皮境界曲線における隣接するベクトルのなす角の絶対値の周方向における総和値を算出し、当該算出した総和値に基づいて前記特徴量を算出する  The feature amount calculating means calculates a sum value in the circumferential direction of an absolute value of an angle formed by adjacent vectors in the epithelial boundary curve detected by the epithelial boundary detecting means, and based on the calculated sum value, the feature Calculate quantity
ことを特徴とする請求項1に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 1.
前記特徴量算出手段は、前記上皮境界検出手段により検出された前記上皮境界における屈曲点の数を算出し、当該算出した屈曲点の数に基づいて前記特徴量を算出する  The feature amount calculating means calculates the number of inflection points at the epithelial boundary detected by the epithelial boundary detection means, and calculates the feature amount based on the calculated number of inflection points.
ことを特徴とする請求項1に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 1.
前記特徴量算出手段は、前記上皮境界検出手段により検出された前記上皮境界における極大または極小となる極値の数を算出し、当該算出した極値の数に基づいて前記特徴量を算出する  The feature amount calculation means calculates the number of extreme values that are maximum or minimum at the epithelial boundary detected by the epithelial boundary detection means, and calculates the feature amount based on the calculated number of extreme values.
ことを特徴とする請求項1に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 1.
食道内を撮像した画像に対して、展開図を生成する展開図生成手段と、  Development view generating means for generating a development view for an image of the inside of the esophagus;
前記展開図上の画素値の色調変化または当該画像のエッジ状態に基づいて、食道側粘膜としての扁平上皮と、胃側粘膜の円柱上皮との境界としての上皮境界を検出する上皮境界検出手段と、  Epithelial boundary detection means for detecting an epithelial boundary as a boundary between the squamous epithelium as the esophageal mucosa and the columnar epithelium of the gastric mucosa based on the color tone change of the pixel value on the developed view or the edge state of the image ,
前記上皮境界検出手段により検出された前記上皮境界を構成する各画素の管腔方向に対する座標に関する特徴量を算出する特徴量算出手段と、  A feature amount calculating means for calculating a feature amount relating to a coordinate with respect to a lumen direction of each pixel constituting the epithelial boundary detected by the epithelial boundary detecting means;
前記特徴量算出手段が算出した特徴量に基づいて解析結果を出力する解析手段と、  Analysis means for outputting an analysis result based on the feature quantity calculated by the feature quantity calculation means;
を具備したことを特徴とする食道粘膜用画像処理装置。  An image processing apparatus for esophageal mucosa, comprising:
前記特徴量算出手段は、前記上皮境界を構成する画素の食道の管腔方向における最大値と最小値との差分値に関する前記特徴量を算出する  The feature amount calculating means calculates the feature amount relating to a difference value between a maximum value and a minimum value in the lumen direction of the esophagus of pixels constituting the epithelial boundary.
ことを特徴とする請求項8に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 8.
食道内を撮像した画像に対して、展開図を生成する展開図生成手段と、  Development view generating means for generating a development view for an image of the inside of the esophagus;
前記展開図上の画素値の色調変化または当該画像のエッジ状態に基づいて、食道側粘膜としての扁平上皮と、胃側粘膜の円柱上皮との境界としての上皮境界を検出する上皮境界検出手段と、  Epithelial boundary detection means for detecting an epithelial boundary as a boundary between the squamous epithelium as the esophageal mucosa and the columnar epithelium of the gastric mucosa based on the color tone change of the pixel value on the developed view or the edge state of the image ,
前記展開図上の基準部を設定する基準部設定手段と、  A reference part setting means for setting a reference part on the development view;
前記上皮境界検出手段により検出された前記上皮境界を構成する画素と、前記基準部設定手段により設定された前記基準部を構成する画素の座標間の距離に関する特徴量を算出する特徴量算出手段と、  A feature amount calculating means for calculating a feature amount relating to a distance between the coordinates of the pixels constituting the epithelial boundary detected by the epithelial boundary detecting means and the pixels constituting the reference portion set by the reference portion setting means; ,
前記特徴量算出手段が算出した特徴量に基づいて解析結果を出力する解析手段と、  Analysis means for outputting an analysis result based on the feature quantity calculated by the feature quantity calculation means;
を具備しことを特徴とする食道粘膜用画像処理装置。  An image processing device for esophageal mucosa, comprising:
前記基準部は、前記食道内の胃食道接合部であり、  The reference portion is a gastroesophageal junction in the esophagus;
前記特徴量算出手段は、前記上皮境界を構成する画素と、前記胃食道接合部を構成する画素の座標間の距離に関する特徴量を算出する  The feature amount calculating means calculates a feature amount relating to a distance between coordinates of a pixel constituting the epithelial boundary and a pixel constituting the gastroesophageal junction.
ことを特徴とする請求項10に記載の食道粘膜用画像処理装置。  The image processing apparatus for esophageal mucosa according to claim 10.
JP2005003200A 2004-12-27 2005-01-07 Image processing device for esophageal mucosa Expired - Fee Related JP4668624B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005003200A JP4668624B2 (en) 2005-01-07 2005-01-07 Image processing device for esophageal mucosa
KR1020077014516A KR100890102B1 (en) 2004-12-27 2005-12-21 Medical image processing apparatus, and medical image processing method
CN2005800406014A CN101065052B (en) 2004-12-27 2005-12-21 Medical image processing device and method
PCT/JP2005/023493 WO2006070669A1 (en) 2004-12-27 2005-12-21 Medical image processing apparatus, and medical image processing method
EP05820108.8A EP1832223B1 (en) 2004-12-27 2005-12-21 Medical image processing apparatus, and medical image processing method
US11/821,898 US7857752B2 (en) 2004-12-27 2007-06-26 Medical image processing apparatus and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005003200A JP4668624B2 (en) 2005-01-07 2005-01-07 Image processing device for esophageal mucosa

Publications (2)

Publication Number Publication Date
JP2006187551A JP2006187551A (en) 2006-07-20
JP4668624B2 true JP4668624B2 (en) 2011-04-13

Family

ID=36795264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005003200A Expired - Fee Related JP4668624B2 (en) 2004-12-27 2005-01-07 Image processing device for esophageal mucosa

Country Status (1)

Country Link
JP (1) JP4668624B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2030558B1 (en) 2006-05-31 2017-05-03 National University Corporation Chiba University Three-dimensional image forming device, three-dimensional image forming method and program
GB202015356D0 (en) * 2020-09-29 2020-11-11 Univ Oxford Innovation Ltd Quantification of barrett's oesophagus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000515407A (en) * 1996-08-02 2000-11-21 ボード オブ リージェンツ,ザ ユニバーシティ オブ テキサス システム Method and apparatus for characterization of epithelial covering visceral tissue
JP2003527916A (en) * 2000-03-28 2003-09-24 ボード・オブ・リージェンツ,ザ・ユニヴァーシティ・オヴ・テキサス・システム Method and apparatus for diagnostic multispectral digital imaging
JP2004518124A (en) * 2001-01-19 2004-06-17 マサチユセツツ・インスチチユート・オブ・テクノロジイ Fluorescence, reflectance and light scattering spectroscopic systems and methods for measuring tissue characteristics
JP2005515473A (en) * 2002-01-18 2005-05-26 ニユートン・ラボラトリーズ・インコーポレーテツド Spectroscopic diagnosis method and system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000515407A (en) * 1996-08-02 2000-11-21 ボード オブ リージェンツ,ザ ユニバーシティ オブ テキサス システム Method and apparatus for characterization of epithelial covering visceral tissue
JP2003527916A (en) * 2000-03-28 2003-09-24 ボード・オブ・リージェンツ,ザ・ユニヴァーシティ・オヴ・テキサス・システム Method and apparatus for diagnostic multispectral digital imaging
JP2004518124A (en) * 2001-01-19 2004-06-17 マサチユセツツ・インスチチユート・オブ・テクノロジイ Fluorescence, reflectance and light scattering spectroscopic systems and methods for measuring tissue characteristics
JP2005515473A (en) * 2002-01-18 2005-05-26 ニユートン・ラボラトリーズ・インコーポレーテツド Spectroscopic diagnosis method and system

Also Published As

Publication number Publication date
JP2006187551A (en) 2006-07-20

Similar Documents

Publication Publication Date Title
KR100890102B1 (en) Medical image processing apparatus, and medical image processing method
CN110049709B (en) Image processing apparatus
JP5676058B1 (en) Endoscope system and method for operating endoscope system
WO2007119297A1 (en) Image processing device for medical use and image processing method for medical use
JP4832927B2 (en) Medical image processing apparatus and medical image processing method
CN101384211B (en) Image analyzing device and image analyzing method
JP5276225B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
JP4749732B2 (en) Medical image processing device
JP2017534322A (en) Diagnostic mapping method and system for bladder
WO2008012968A1 (en) Medical image processing device and medical image processing method
US11423318B2 (en) System and methods for aggregating features in video frames to improve accuracy of AI detection algorithms
JP5078486B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
WO2021171465A1 (en) Endoscope system and method for scanning lumen using endoscope system
JP4855673B2 (en) Medical image processing device
JP4668624B2 (en) Image processing device for esophageal mucosa
WO2023126999A1 (en) Image processing device, image processing method, and storage medium
CN111936030A (en) Landmark estimation method and endoscope device
JP7335157B2 (en) LEARNING DATA GENERATION DEVICE, OPERATION METHOD OF LEARNING DATA GENERATION DEVICE, LEARNING DATA GENERATION PROGRAM, AND MEDICAL IMAGE RECOGNITION DEVICE
JP4776919B2 (en) Medical image processing device
US20230410304A1 (en) Medical image processing apparatus, medical image processing method, and program
US20240000299A1 (en) Image processing apparatus, image processing method, and program
WO2022044642A1 (en) Learning device, learning method, program, learned model, and endoscope system
JP5315376B2 (en) Fence-like blood vessel detection device and method of operating the fence-like blood vessel detection device
WO2021241735A1 (en) Endoscope processor device
JP4856275B2 (en) Medical image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4668624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees