JP4749732B2 - Medical image processing device - Google Patents

Medical image processing device Download PDF

Info

Publication number
JP4749732B2
JP4749732B2 JP2005038116A JP2005038116A JP4749732B2 JP 4749732 B2 JP4749732 B2 JP 4749732B2 JP 2005038116 A JP2005038116 A JP 2005038116A JP 2005038116 A JP2005038116 A JP 2005038116A JP 4749732 B2 JP4749732 B2 JP 4749732B2
Authority
JP
Japan
Prior art keywords
image
esophagus
barrett
processing
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005038116A
Other languages
Japanese (ja)
Other versions
JP2006223376A (en
JP2006223376A5 (en
Inventor
博一 西村
潤 長谷川
秀樹 田中
涼子 井上
徹緒 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2005038116A priority Critical patent/JP4749732B2/en
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to CNB2006800044681A priority patent/CN100563550C/en
Priority to PCT/JP2006/302381 priority patent/WO2006087981A1/en
Priority to US11/884,515 priority patent/US8055033B2/en
Priority to EP06713523.6A priority patent/EP1849402B1/en
Publication of JP2006223376A publication Critical patent/JP2006223376A/en
Publication of JP2006223376A5 publication Critical patent/JP2006223376A5/ja
Priority to US13/209,792 priority patent/US20110299748A1/en
Application granted granted Critical
Publication of JP4749732B2 publication Critical patent/JP4749732B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、生体に対する多量の画像データから注目する性状の判定を効率良く行う医用画像処理装置に関する。 The present invention relates to determination of properties of interest from the large amount of image data to an organism to efficiently perform medical image processing equipment.

従来より、内視鏡を用いた内視鏡検査においては、内視鏡装置或いは内視鏡観察装置により撮像された生体内の画像データは、CRTなどの表示装置上に即時表示されるとともに、外部に動画像データとして蓄積され、医師は検査中または検査後に動画像または動画像内のフレーム画像を静止画像として閲覧して診断を行う場合が一般的に行われる。
また近年、飲み込み型のカプセル内視鏡が使用される状況にある。
例えば、特開2004−645号公報に開示されているように、カプセル内視鏡によって体内で撮像された画像データは、順次無線通信により外部に動画像データとして蓄積され、医師は動画または動画像内のフレーム画像を静止画像として閲覧して診断を行う。
Conventionally, in endoscopy using an endoscope, in-vivo image data captured by an endoscope device or an endoscope observation device is immediately displayed on a display device such as a CRT, It is generally stored externally as moving image data, and a doctor performs a diagnosis by viewing a moving image or a frame image in the moving image as a still image during or after an examination.
In recent years, a swallowable capsule endoscope has been used.
For example, as disclosed in Japanese Patent Application Laid-Open No. 2004-645, image data captured in the body by a capsule endoscope is sequentially accumulated as moving image data by wireless communication, and a doctor moves a moving image or moving image. The frame image inside is viewed as a still image and diagnosed.

また、特開2004−188026号公報に開示されているように、静止画像に対して画像解析処理を適用し、その解析結果を内視鏡画像上または別の表示領域上に表示する装置がある。
この画像解析結果を利用することにより、医師は主観によらない、IHb、血管解析などの画像解析値という客観的な判定基準の下に診断を下すことが可能となる。
特開2004−645号公報 特開2004−188026号公報
Also, as disclosed in Japanese Patent Application Laid-Open No. 2004-188026, there is an apparatus that applies image analysis processing to a still image and displays the analysis result on an endoscopic image or another display area. .
By using this image analysis result, a doctor can make a diagnosis based on an objective determination criterion such as an image analysis value such as IHb or blood vessel analysis, which is not subjective.
JP 2004-645 A JP 2004-188026 A

しかし医師による内視鏡検査後の動画像の閲覧またはカプセル内視鏡による動画像の閲覧において、動画像に含まれるフレーム画像の枚数は膨大であるため、病変として疑わしき部位の撮像個所を動画像の中から見つけ出すとともに、その個所のフレーム画像を1枚1枚抽出して画像解析処理を適用し、各々の画像解析結果を下にして診断を下すことは、非常に労力を必要とする作業となる。
このような問題に対して、前記の静止画像に対する画像解析装置を応用し、動画像に含まれる全てのフレーム画像に対して、一括して同一の画像解析処理を適用し、その結果を記憶するシステムを実現することは可能である。
しかし、全てのフレーム画像に対して一括して同一の画像解析処理を適用するため、処理時間が増大し、処理結果を得るまでに長時間待たなければならない。また、パラメータを変更して画像解析処理を適用するような場合にも、適切な処理結果を得るまでに長時間かかる。また、適切な解析処理結果を得るまでに記憶することが必要となるデータ量も増大する欠点がある。
However, when viewing a moving image after an endoscopy by a doctor or viewing a moving image using a capsule endoscope, the number of frame images included in the moving image is enormous. It is a very labor-intensive work to find out from among the images, extract the frame images of each part one by one, apply image analysis processing, and make a diagnosis based on each image analysis result. Become.
For such a problem, the image analysis apparatus for the still image is applied, the same image analysis processing is applied to all the frame images included in the moving image, and the result is stored. It is possible to realize the system.
However, since the same image analysis processing is applied to all the frame images at once, the processing time increases, and it is necessary to wait for a long time until the processing result is obtained. Also, when applying image analysis processing by changing parameters, it takes a long time to obtain an appropriate processing result. In addition, there is a drawback that the amount of data that needs to be stored before obtaining an appropriate analysis processing result also increases.

また、内視鏡装置による食道検査のスクリーニングにおいては、バレット粘膜或いはバレット食道の有無などが調べられる。バレット粘膜は、食道と胃の接続部としての胃食道接合部において、逆流性食道炎等の影響により食道を形成する扁平上皮が胃の粘膜に置換されたもので、円柱上皮とも呼ばれる。このバレット粘膜が正常な粘膜境界から3cm以上、食道管腔断面に対して全周性に生じた場合にバレット食道という疾患として診断される。
バレット食道は、特に欧米人において増加しており、高い確率で腺癌が発生することから大きな問題となっているため、バレット粘膜の早期発見が非常に重要なものとなっている。
このため、バレット食道やバレット粘膜等の生体特徴量を客観的に判定して、術者にその判定結果を提供できる医用画像処理装置が望まれる状況にある。
In screening for esophageal examination using an endoscopic device, the presence or absence of Barrett mucosa or Barrett's esophagus is examined. The Barrett mucosa is a gastric esophageal junction as a connection between the esophagus and the stomach where the squamous epithelium forming the esophagus is replaced by the gastric mucosa due to the influence of reflux esophagitis or the like, and is also called a columnar epithelium. A diagnosis of Barrett's esophagus is made when this Barrett mucosa occurs 3 cm or more from the normal mucosal boundary and circumferentially with respect to the cross section of the esophageal lumen.
Barrett's esophagus is increasing, especially in Westerners, and is a major problem because adenocarcinoma occurs with a high probability, so early detection of Barrett's mucosa is very important.
Therefore, there is a demand for a medical image processing apparatus that can objectively determine biometric features such as Barrett's esophagus and Barret's mucosa and provide the determination result to the operator.

(発明の目的)
本発明は、上述した点に鑑みてなされたもので、動画データ等の多量の画像データからバレット食道等の注目する性状の判定を効率良く行うことができる医用画像処理装置を提供することを目的とする。
(Object of invention)
The present invention has been made in view of the above, to provide a medical image processing equipment that can be efficiently determined from a large amount of image data such as moving image data of the attention to characteristics such as Barrett's esophagus Objective.

本発明の医用画像処理装置は、体内撮像装置によって撮像された体内の動画像データ又は連続的に撮像された複数枚の静止画像データからフレーム画像データを抽出する画像抽出手段と、
前記画像抽出手段により抽出したフレーム画像データを画像解析し、画像解析結果を出力する画像解析手段と、
を備え、
前記画像解析手段は、
第1の生体特徴を検出する第1の生体特徴検出手段と、
前記第1の生体特徴検出手段の検出結果に基づき、前記第1の生体特徴検出手段が検出に使用した画像よりも時間的に前方または後方に撮像されたフレーム画像に対して、第2の生体特徴を検出する第2の生体特徴検出手段と、
前記第2の生体特徴検出手段の検出結果に基づき、生体の性状を判定して判定結果を出力する性状判定手段と、
を備えることを特徴とする。
上記構成により、生体の性状を判定する場合、第1の生体特徴が検出されてから、第2の生体特徴の検出を行うようにすることができるため、多量の画像データからバレット食道等の注目する性状の判定を効率良く行うことができるようにしている。つまり、第1の生体特徴が検出されない場合には、第2の生体特徴の検出を省くようにして効率的な画像解析処理を行えるようにしている。
The medical image processing apparatus of the present invention includes image extracting means for extracting frame image data from in-vivo moving image data captured by an in-vivo imaging device or a plurality of still image data captured continuously,
Image analysis means for analyzing the frame image data extracted by the image extraction means, and outputting an image analysis result;
With
The image analysis means includes
First biological feature detection means for detecting a first biological feature;
Based on the detection result of the first biometric feature detection means, a second biometric feature is obtained with respect to a frame image captured forward or backward in time from the image used for detection by the first biometric feature detection means. Second biological feature detection means for detecting features;
Based on the detection result of the second biological feature detection means, a property determination means for determining the properties of the living body and outputting the determination result;
It is characterized by providing.
With the above configuration, when determining the properties of the living body, the second biological feature can be detected after the first biological feature is detected. Therefore, attention is paid to the Barrett's esophagus from a large amount of image data. This makes it possible to determine the property to be performed efficiently. That is, when the first biometric feature is not detected, the detection of the second biometric feature is omitted so that efficient image analysis processing can be performed.

本発明によれば、多量の画像データの場合にもバレット食道等の注目する性状の判定を効率良く行うことができる。   According to the present invention, it is possible to efficiently determine the property of interest such as Barrett's esophagus even in the case of a large amount of image data.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図16は本発明の実施例1に係り、図1は本発明の実施例1を備えた内視鏡システムの全体構成を示し、図2は内視鏡の経口的な挿入により内視鏡検査される上部消化管の各部を模式的に示し、図3は食道と胃の境界付近を撮像した内視鏡画像の例を示し、図4は本実施例における画像処理装置の機能的な構成を示し、図5は画像記憶部に記憶される動画像データがそれぞれ静止画像データの集まりとして記憶されていることを示す。 図6は解析情報記憶部に格納される解析結果や処理プログラム記憶部に格納される情報等を示し、図7は、内視鏡画像と共に解析結果を表示したモニタ表示例を示し、図8は本実施例によるバレット食道の性状判定を行う処理手順のフローチャートを示し、図9は胃食道接合部の検出処理を行う処理手順を使用或いは生成される画像等の情報とともに示す。   1 to 16 relate to a first embodiment of the present invention, FIG. 1 shows an overall configuration of an endoscope system including the first embodiment of the present invention, and FIG. 2 shows an internal configuration by oral insertion of an endoscope. FIG. 3 shows an example of an endoscopic image obtained by imaging the vicinity of the boundary between the esophagus and the stomach, and FIG. 4 shows a functional view of the image processing apparatus in this embodiment. FIG. 5 shows that moving image data stored in the image storage unit is stored as a collection of still image data. FIG. 6 shows analysis results stored in the analysis information storage unit, information stored in the processing program storage unit, and the like. FIG. 7 shows a monitor display example in which the analysis result is displayed together with the endoscopic image. The flowchart of the process sequence which performs the property determination of Barrett's esophagus by a present Example is shown, FIG. 9 shows the process sequence which performs the detection process of a gastroesophageal junction part with information, such as an image used or produced | generated.

図10は柵状血管端点境界等を示し、図11は図9における柵状血管抽出処理のフローチャートを示し、図12は図11の処理を行う際の動作説明用の画像例を示し、図13は図10におけるバレット粘膜判定処理のフローチャートを示し、図14は図9の変形例のフローチャートを示し、図15は図14等の動作説明に用いる画像例を示し、図16は図14におけるバレット粘膜判定処理のフローチャートを示す。
図1に示す内視鏡システム1は、内視鏡観察装置2と、この内視鏡観察装置2により得られた画像に対して画像処理を行うパーソナルコンピュータ等により構成される医用画像処理装置(以下、単に画像処理装置と略記)3と、この画像処理装置3により画像処理された画像を表示するモニタ4とから構成される。
10 shows a fence-like blood vessel end point boundary and the like, FIG. 11 shows a flowchart of the fence-like blood vessel extraction process in FIG. 9, FIG. 12 shows an image example for explaining the operation when performing the process of FIG. 10 shows a flowchart of the bullet mucous membrane determination processing in FIG. 10, FIG. 14 shows a flowchart of a modified example of FIG. 9, FIG. 15 shows an example of an image used for explaining the operation of FIG. The flowchart of a determination process is shown.
An endoscope system 1 shown in FIG. 1 includes a medical image processing apparatus (comprising an endoscope observation apparatus 2 and a personal computer that performs image processing on an image obtained by the endoscope observation apparatus 2). Hereinafter, the image processing apparatus is simply abbreviated as 3) and a monitor 4 that displays an image processed by the image processing apparatus 3.

内視鏡観察装置2は、体腔内に挿入され、体内を撮像する体内撮像装置を形成する内視鏡6と、この内視鏡6に照明光を供給する光源装置7と、内視鏡6の撮像手段に対する信号処理を行うカメラコントロールユニット(CCUと略記)8と、このCCU8から出力される映像信号が入力されることにより、撮像素子で撮像した内視鏡画像を表示するモニタ9とを有する。
内視鏡6は、体腔内に挿入される挿入部11とこの挿入部11の後端に設けられた操作部12とを有する。また挿入部11内には照明光を伝送するライトガイド13が挿通されている。
The endoscope observation device 2 is inserted into a body cavity and forms an endoscope 6 that forms an in-vivo imaging device that images the inside of the body, a light source device 7 that supplies illumination light to the endoscope 6, and the endoscope 6. A camera control unit (abbreviated as CCU) 8 that performs signal processing on the image pickup means, and a monitor 9 that displays an endoscopic image picked up by the image pickup device when a video signal output from the CCU 8 is input. Have.
The endoscope 6 includes an insertion portion 11 that is inserted into a body cavity and an operation portion 12 that is provided at the rear end of the insertion portion 11. A light guide 13 that transmits illumination light is inserted into the insertion portion 11.

このライトガイド13の後端は、光源装置7に接続される。そして、この光源装置7から供給される照明光をライトガイド13により伝送し、挿入部11の先端部14に設けた照明窓に取り付けられた先端面から(伝送した照明光を)出射し、患部等の被写体を照明する。
照明窓に隣接する観察窓に取り付けた対物レンズ15と、この対物レンズ15の結像位置に配置された固体撮像素子しての例えば電荷結合素子(CCDと略記)16とにより撮像装置17が設けてある。そして、このCCD16の撮像面に結像された光学像は、このCCD16により光電変換される。
このCCD16は、信号線を介してCCU8と接続され、このCCU8からのCCD駆動信号が印加されることにより、CCD16は光電変換した画像信号を出力する。この画像信号は、CCU8内の映像処理回路により信号処理され、映像信号に変換される。この映像信号はモニタ9に出力され、モニタ9の表示面には、内視鏡画像が表示される。この映像信号は、画像処理装置3にも入力される。
The rear end of the light guide 13 is connected to the light source device 7. Then, the illumination light supplied from the light source device 7 is transmitted by the light guide 13 and emitted from the distal end surface attached to the illumination window provided at the distal end portion 14 of the insertion portion 11 (transmitted illumination light), and the affected part Illuminate the subject.
An imaging device 17 is provided by an objective lens 15 attached to an observation window adjacent to the illumination window and, for example, a charge coupled device (abbreviated as CCD) 16 serving as a solid-state imaging device disposed at an imaging position of the objective lens 15. It is. The optical image formed on the imaging surface of the CCD 16 is photoelectrically converted by the CCD 16.
The CCD 16 is connected to the CCU 8 via a signal line, and the CCD 16 outputs a photoelectrically converted image signal when a CCD drive signal from the CCU 8 is applied. This image signal is signal-processed by a video processing circuit in the CCU 8 and converted into a video signal. This video signal is output to the monitor 9, and an endoscopic image is displayed on the display surface of the monitor 9. This video signal is also input to the image processing device 3.

本実施例では、内視鏡6は、口部からその挿入部11の先端部14が挿入され、食道から胃の境界付近まで挿入されて、その境界付近に検出対象粘膜となる食道の通常の粘膜(具体的には扁平上皮)が変性して胃の粘膜部分の性状を呈するようになった粘膜としてのバレット粘膜が存在するか否かの内視鏡検査を行うような場合に使用される。
この場合、体内の生体粘膜表面を撮像した内視鏡画像に対応する映像信号は、画像処理装置3にも入力され、その映像信号に対して以下に説明するような画像処理方法により、バレット粘膜の存在或いはバレット食道という疾患に達した状態であるか否かの検出(判定)処理を行う。
In this embodiment, the endoscope 6 is inserted from the mouth portion into the distal end portion 14 of the insertion portion 11 and inserted from the esophagus to the vicinity of the boundary of the stomach, and the normal portion of the esophagus that becomes the detection mucosa near the boundary. Used when performing endoscopy to check for the presence of Barrett mucosa as a mucous membrane (specifically squamous epithelium) that has become denatured and presents the properties of the gastric mucosa. .
In this case, a video signal corresponding to an endoscopic image obtained by imaging the surface of a living body mucosa in the body is also input to the image processing device 3, and the Barret mucosa is processed by the image processing method described below for the video signal. Detection (determination) processing is performed to determine whether or not the disease has reached the disease of Barrett's esophagus.

この画像処理装置3は、内視鏡観察装置2から入力される内視鏡画像に対応する映像信号が入力される画像入力部21と、この画像入力部21から入力された画像データに対する画像処理を行う中央演算処理装置としてのCPU22と、このCPU22により画像処理を実行させる処理プログラム(制御プログラム)を記憶する処理プログラム記憶部23とを有する。
また、この画像処理装置3は、画像入力部21から入力される画像データ等を記憶する画像記憶部24と、CPU22により処理された解析情報等を記憶する解析情報記憶部25と、CPU22により処理された画像データ及び解析情報等を記憶装置インタフェース26を介して記憶する記憶装置としてのハードディスク27と、CPU22により処理された画像データ等を表示するための表示処理を行う表示処理部28と、ユーザが画像処理のパラメータ等のデータ入力や指示操作を行うキーボードなどからなる入力操作部29とを有する。
The image processing device 3 includes an image input unit 21 to which a video signal corresponding to an endoscopic image input from the endoscope observation device 2 is input, and image processing for image data input from the image input unit 21. CPU 22 as a central processing unit for performing the processing, and a processing program storage unit 23 for storing a processing program (control program) that causes the CPU 22 to execute image processing.
In addition, the image processing apparatus 3 includes an image storage unit 24 that stores image data input from the image input unit 21, an analysis information storage unit 25 that stores analysis information processed by the CPU 22, and a process performed by the CPU 22. A hard disk 27 serving as a storage device for storing the image data and analysis information, etc., stored via the storage device interface 26, a display processing unit 28 for performing display processing for displaying the image data and the like processed by the CPU 22, and a user Includes an input operation unit 29 including a keyboard for inputting data such as image processing parameters and performing an instruction operation.

そして、この表示処理部28により生成された映像信号は、表示モニタ4に出力され、この表示モニタ4の表示面には画像処理された処理画像が表示される。なお、画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、解析情報記憶部25、記憶装置インタフェース26、表示処理部28、入力操作部29は、データバス30を介して互いに接続されている。
本実施例では検査あるいは診断対象部位として、食道と胃の接合部周辺部であり、内視鏡6により得られた画像に対して画像解析を行うことにより、この周辺部にバレット食道の可能性の部位が存在するかの性状判定を行う。
The video signal generated by the display processing unit 28 is output to the display monitor 4, and a processed image subjected to image processing is displayed on the display surface of the display monitor 4. The image input unit 21, CPU 22, processing program storage unit 23, image storage unit 24, analysis information storage unit 25, storage device interface 26, display processing unit 28, and input operation unit 29 are connected to each other via a data bus 30. Has been.
In this embodiment, the region to be examined or diagnosed is the periphery of the junction between the esophagus and the stomach, and by performing image analysis on the image obtained by the endoscope 6, there is a possibility of the Barrett esophagus in the periphery. It is determined whether or not there is a site.

このため、内視鏡6の挿入部11をその先端側から患者の口内に挿入して撮像を行う。図2は、内視鏡6を患者の体腔内に経口的に挿入した際に、内視鏡先端が位置する体腔部位を表す図である。内視鏡6の先端部14は、口31内に挿入されることにより、食道入口32から食道33内に進入し、その途中で上皮境界34、胃食道接合部35を経て胃36側に進み、さらに噴門37を経て胃36内部に至る。
内視鏡6を挿入する操作を行うことにより、上記の順に撮像された動画像データが取得される。このようにして取得された動画像データは、画像記憶部24に記憶され、その動画像データを構成する静止画像のフレーム画像に対して画像解析を行う。
図3は、食道33と胃36の境界近辺において撮像される内視鏡画像の概略図である。この内視鏡画像において、噴門37は、胃内部への入口であって開閉する。
この噴門37の外側に略放射状に走行する柵状血管38は、食道33側のみに存在し、食道33の管腔に沿って縦に伸びる血管である。
For this reason, the insertion part 11 of the endoscope 6 is inserted into the patient's mouth from the distal end side to perform imaging. FIG. 2 is a diagram showing a body cavity site where the endoscope tip is located when the endoscope 6 is orally inserted into the body cavity of a patient. The distal end portion 14 of the endoscope 6 enters the esophagus 33 from the esophageal entrance 32 by being inserted into the mouth 31, and proceeds to the stomach 36 side through the epithelial boundary 34 and the gastroesophageal junction 35 along the way. Further, it passes through the cardia 37 and reaches the inside of the stomach 36.
By performing an operation of inserting the endoscope 6, moving image data captured in the above order is acquired. The moving image data acquired in this way is stored in the image storage unit 24, and image analysis is performed on the frame image of the still image constituting the moving image data.
FIG. 3 is a schematic view of an endoscopic image captured in the vicinity of the boundary between the esophagus 33 and the stomach 36. In this endoscopic image, the cardia 37 is an entrance into the stomach and opens and closes.
The fence-like blood vessels 38 that run substantially radially outside the cardia 37 are blood vessels that exist only on the esophagus 33 side and extend vertically along the lumen of the esophagus 33.

また、食道33側の粘膜組織と胃36側の粘膜組織の境界としての上皮境界(一点鎖線で図示)39から噴門へは赤みの強い粘膜色調であり(分布する上皮は円柱上皮と呼ばれる)、その逆方向は白味のかった粘膜色調である(分布する上皮は扁平上皮と呼ばれる)ことから、内視鏡観察によって上皮境界を判別することが可能である。
柵状血管38の端点を結んだ線(破線で図示)は、内視鏡観察では容易には識別しにくい境界線であり(実際に線が存在するわけではない)、これは胃食道接合部35と呼ばれ、胃36と食道33の組織上の境界となる。
正常な場合には、上皮境界39は胃食道接合部35付近にあるが、逆流性食道炎等の影響により食道33を形成する扁平上皮が胃36の粘膜(円柱上皮或いはバレット粘膜)に置換されると、この上皮境界39が食道33側にせり上がる。
In addition, the epithelial boundary (illustrated by the alternate long and short dash line) 39 from the mucosal tissue on the esophagus 33 side and the mucosal tissue side on the stomach 36 has a strong reddish mucosal tone from the cardia (the distributed epithelium is called columnar epithelium), The opposite direction is a whitish mucosal color tone (the distributed epithelium is called squamous epithelium), so that the epithelial boundary can be determined by endoscopic observation.
A line connecting the end points of the fence-like blood vessel 38 (shown by a broken line) is a boundary line that is difficult to identify easily by endoscopic observation (there is no actual line), and this is a gastroesophageal junction. 35, which is the tissue boundary between the stomach 36 and the esophagus 33.
In normal cases, the epithelial boundary 39 is near the gastroesophageal junction 35, but the squamous epithelium forming the esophagus 33 is replaced by the mucosa of the stomach 36 (columnar epithelium or Barrett mucosa) due to the influence of reflux esophagitis or the like. Then, this epithelial boundary 39 rises to the esophagus 33 side.

そして、このバレット粘膜が正常な粘膜境界から3cm以上、食道管腔断面に対して全周性に生じた場合にバレット食道という疾患と診断される。
図4は、画像処理装置3の主要部における機能的な構成を示す。
内視鏡6により撮像されて画像処理装置3に入力された動画の画像データは、画像記憶(画像記録)手段としての画像記憶部24に動画像データVm1,Vm2、…等のようにして記憶される。
この場合、動画像データVm1、Vm2、…は、静止画像を経時的に蓄積したデータ構造である。このため、各動画像データVm1、Vm2、…は、例えば図5に示すようにフレーム番号が0、1、…、MAX_COUNTの静止画像データVs0、Vs1、…、VsM(ここで、M=MAX_COUNT)のように割り当てられて画像記憶部24に記憶されている。
A disease called Barrett's esophagus is diagnosed when this Barrett's mucosa occurs 3 cm or more from the normal mucosal boundary and is omnidirectional with respect to the esophageal lumen cross section.
FIG. 4 shows a functional configuration of the main part of the image processing apparatus 3.
The moving image data captured by the endoscope 6 and input to the image processing device 3 is stored as moving image data Vm1, Vm2,... In an image storage unit 24 as an image storage (image recording) means. Is done.
In this case, the moving image data Vm1, Vm2,... Has a data structure in which still images are accumulated over time. Therefore, each moving image data Vm1, Vm2,... Is, for example, as shown in FIG. 5, still image data Vs0, Vs1,..., VsM with frame numbers 0, 1,..., MAX_COUNT (where M = MAX_COUNT). And stored in the image storage unit 24.

また、同時に画像記憶部24に記憶されたフレーム時間も記憶される。なお、静止画像データは、JPG等による圧縮した画像データで記憶しても良い。
そして、画像処理が開始すると、画像記憶部24から読み出された例えば動画像データVm1における指定されたフレーム番号の範囲の静止画像データが、CPU22及び処理プログラムにより、ソフトウェアで構成される画像抽出ブロック41に抽出される。
そして、抽出された各静止画像データが順次、画像解析ブロック42と表示処理ブロック43とに送られる。
画像解析ブロック42は、上皮境界を検出する上皮境界検出ブロック44と、胃食道接合部を検出する胃食道接合部検出ブロック45と、バレット食道か否かを判定するバレット食道判定ブロック46とを備えている。
At the same time, the frame time stored in the image storage unit 24 is also stored. The still image data may be stored as image data compressed by JPG or the like.
When image processing is started, still image data in the range of the specified frame number in the moving image data Vm1, for example, read from the image storage unit 24, is an image extraction block configured by software by the CPU 22 and the processing program. 41 is extracted.
The extracted still image data is sequentially sent to the image analysis block 42 and the display processing block 43.
The image analysis block 42 includes an epithelial boundary detection block 44 that detects an epithelial boundary, a gastroesophageal junction detection block 45 that detects a gastroesophageal junction, and a Barrett esophagus determination block 46 that determines whether or not it is a Barrett esophagus. ing.

上皮境界検出ブロック44は、例えば、画像中の粘膜色調の相違をエッジとして検出することにより、画像内に存在する上皮境界線を点列として検出する。
胃食道接合部検出ブロック45は、例えば、柵状血管の端点を結んだ線を点列として検出する(その検出方法の詳細は、後述する)。
バレット食道判定ブロック46は、上皮境界の形状、扁平上皮の縞状残存、上皮境界の胃食道接合部との距離、距離の標準偏差、距離の最大値・最小値などの特徴量を算出し、撮像された対象部位がバレット食道であるか否かを判定する。
このバレット食道判定ブロック46により判定された判定結果の情報は、解析情報記憶部25に記憶されると共に、表示処理ブロック43に送られ、画像抽出ブロック41を経てモニタ4に表示される静止画像中に、画像解析ブロック42による解析による判定結果の情報が表示される。
The epithelial boundary detection block 44 detects an epithelial boundary line existing in the image as a point sequence by detecting, for example, a difference in mucosal color tone in the image as an edge.
The gastroesophageal junction detection block 45 detects, for example, a line connecting the end points of the fence-like blood vessel as a point sequence (details of the detection method will be described later).
The Barrett's esophageal determination block 46 calculates features such as the shape of the epithelial boundary, the striped residual of the squamous epithelium, the distance from the epithelial boundary to the gastroesophageal junction, the standard deviation of the distance, the maximum value / minimum value of the distance, It is determined whether or not the imaged target site is Barrett's esophagus.
Information on the determination result determined by the Barrett's esophageal determination block 46 is stored in the analysis information storage unit 25 and is also sent to the display processing block 43 and displayed on the monitor 4 via the image extraction block 41. The information of the determination result by the analysis by the image analysis block 42 is displayed.

図6(A)は、解析情報記憶部25に記憶される解析結果の例を示し、図6(B)は、処理プログラム記憶部23により解析処理を行う際に使用されたり、或いは設定される情報例を示す。
また、図7は、モニタ4に判定結果の情報を、その解析が行われた静止画像中に表示した表示例を示す。
本実施例では、図8を参照して説明するように、動画像データからバレット食道を含む静止画像データがあるか否かの性状判定する場合、バレット食道の性状判定を行おうとする判定対象部位を撮像した画像よりも時間的に前或いは後(略同時の場合もある)に撮像された第1の特徴(量)を備えた基準部位(本実施例では胃食道接合部)を撮像しているか否かの判定処理を行う。
6A shows an example of an analysis result stored in the analysis information storage unit 25, and FIG. 6B is used or set when the analysis processing is performed by the processing program storage unit 23. An example of information is shown.
FIG. 7 shows a display example in which the determination result information is displayed on the monitor 4 in the analyzed still image.
In this embodiment, as will be described with reference to FIG. 8, when determining whether or not there is still image data including Barrett's esophagus from moving image data, a determination target region for performing Barrett's esophageal property determination The reference region (gastroesophageal junction in this embodiment) having the first feature (amount) imaged before or after (may be substantially simultaneous) with respect to the image obtained by imaging Whether or not there is a determination process is performed.

そして、その判定処理によりその基準部位を撮像していると判定した場合に、そのフレームより後方側或いは前方側のフレームの静止画像に対して第2の特徴(量)(本実施例では上皮境界の特徴)を検出し、第2の特徴の検出結果に基づき、バレット食道の判定を行うような画像処理手錠とすることにより、性状判定対象となるバレット食道の性状判定を効率良く行うようにしていることが特徴となっている。
このような画像解析処理を行うことにより、第1の特徴を備えていない画像に対しては、第2の特徴を検出する処理等を省くことができるようにして、目的とする性状判定対象に対する性状判定結果を短時間に効率良く得られるようにして、多量の画像データの場合にも対応できるようにしている。
次に本実施例の画像処理装置3による動作を図8のフローチャートを参照して説明する。
Then, when it is determined that the reference region is imaged by the determination process, the second feature (quantity) (in this embodiment, the epithelial boundary in the frame behind or ahead of the frame) The image processing handcuffs that detect the Barrett's esophagus based on the detection result of the second feature are used to efficiently determine the property of the Barrett's esophagus that is the target of property determination. It is a feature.
By performing such image analysis processing, the processing for detecting the second feature can be omitted for an image that does not have the first feature, and the target property determination target can be omitted. The property determination result can be obtained efficiently in a short time so that a large amount of image data can be handled.
Next, the operation of the image processing apparatus 3 of the present embodiment will be described with reference to the flowchart of FIG.

処理プログラムに沿った処理を行うCPU22に対して、ユーザは入力操作部29から動画像データのファイル名を指定すると、CPU22は、指定された動画像データの最大フレーム数を画像記憶部24から読み出して、図6(B)に示すように最大フレーム数を表すパラメータMAX_COUNTに代入し、処理プログラムに沿った処理をスタートする。
最初のステップS1において、CPU22は、フレーム番号変数COUNTの初期設定、つまりCOUNT=0に設定する。
次のステップS2においてCPU22は、フレーム番号変数COUNTとMAX_COUNTとを比較し、COUNT> MAX_COUNTであればこの処理を終了する。
When the user designates a file name of moving image data from the input operation unit 29 to the CPU 22 that performs processing in accordance with the processing program, the CPU 22 reads the maximum number of frames of the designated moving image data from the image storage unit 24. Then, as shown in FIG. 6B, the value is substituted into a parameter MAX_COUNT that represents the maximum number of frames, and processing according to the processing program is started.
In the first step S1, the CPU 22 initializes the frame number variable COUNT, that is, sets COUNT = 0.
In the next step S2, the CPU 22 compares the frame number variable COUNT with MAX_COUNT. If COUNT> MAX_COUNT, this process is terminated.

このステップS2の判定が逆の場合、つまり、COUNT≦ MAX_COUNTの場合には、ステップS3に進み、このステップS3において画像抽出ブロック41は、フレーム番号=COUNTの画像を抽出する。
そして次のステップS4において胃食道接合部検出ブロック45は、そのフレーム番号の画像から第1の特徴を検出する処理として、本実施例では胃食道接合部検出の処理を行う。
検出処理の結果、胃食道接合部35を示す線の点列が得られるか否かにより、ステップS5に示すように胃食道接合部35が存在するか否かの判定を行う。
そして、このステップS5において、胃食道接合部35が存在しないと判定した場合には、次のステップS6に進み、フレーム番号変数COUNTの値を1つ加算してステップS2に戻り、ステップS2からステップS6の処理を繰り返す。
If the determination in step S2 is reversed, that is, if COUNT ≦ MAX_COUNT, the process proceeds to step S3. In this step S3, the image extraction block 41 extracts an image with frame number = COUNT.
In the next step S4, the gastroesophageal junction detection block 45 performs gastroesophageal junction detection processing in this embodiment as processing for detecting the first feature from the image of the frame number.
As a result of the detection processing, it is determined whether or not the gastroesophageal junction 35 exists as shown in step S5 depending on whether or not a point sequence of lines indicating the gastroesophageal junction 35 is obtained.
If it is determined in step S5 that the gastroesophageal junction 35 does not exist, the process proceeds to the next step S6, the value of the frame number variable COUNT is incremented by one, and the process returns to step S2, from step S2 to step S2. The process of S6 is repeated.

一方、ステップS5において、胃食道接合部35が存在すると判定した場合には、ステップS7の第2の特徴を検出して、その検出結果に基づいて性状判定対象となるバレット食道か否かの性状判定処理側の処理に移る。
このステップS7において、バレット食道の判定処理を開始するために、変数Nの設定、具体的には変数N=0の設定をする。
そして次のステップS8において、所定の定数MAX_N、より具体的にはバレット食道か否かの判定処理を行おうとする最大のフレーム番号とを比較する。そして、比較結果がN>MAX_Nであれば、この処理を終了する。本実施例では、このように予め設定された最大のフレーム番号より後のフレーム番号のものに対してはバレット食道か否かの判定を行わないようにしている。
On the other hand, if it is determined in step S5 that the gastroesophageal junction 35 is present, the second feature of step S7 is detected, and whether or not it is a Barrett's esophagus that is a property determination target based on the detection result. The process proceeds to the determination processing side.
In step S7, in order to start the Barrett's esophagus determination process, a variable N is set, specifically, a variable N = 0 is set.
In the next step S8, a predetermined constant MAX_N, more specifically, the maximum frame number to be subjected to the determination process as to whether or not it is Barrett's esophagus is compared. If the comparison result is N> MAX_N, this process ends. In the present embodiment, whether the frame number is after the maximum frame number set in advance as described above is not determined as to whether it is a Barrett esophagus.

一方、ステップS8の比較結果が逆の場合、つまり、N≦MAX_Nの場合には、ステップS9に進み、このステップS9において画像抽出ブロック41は、フレーム番号=COUNT+Nの画像を抽出する。すなわち、胃食道接合部35を検出した画像から時間的にNフレーム経過した画像を抽出する(この時点では、Nは初期設定された0の状態であるため、最初は胃食道接合部35が検出された画像からバレット食道の判定処理を行うようになり、以後の処理から分かるように時間的に後に撮像された画像に対して順次バレット食道か否かの判定処理が行われることになる)。
そして、ステップS10において胃食道接合部検出ブロック45は、そのフレーム番号の画像から胃食道接合部35の検出処理を行う。
On the other hand, if the comparison result in step S8 is opposite, that is, if N ≦ MAX_N, the process proceeds to step S9, and in this step S9, the image extraction block 41 extracts an image of frame number = COUNT + N. That is, an image in which N frames have elapsed in time is extracted from the image in which the gastroesophageal joint 35 is detected (at this time, since N is in an initially set state of 0, the gastroesophageal joint 35 is initially detected. From this image, Barrett's esophagus determination processing is performed, and as will be understood from the subsequent processing, an image captured later in time is sequentially subjected to determination processing whether or not it is Barrett's esophagus).
In step S10, the gastroesophageal junction detection block 45 performs a process for detecting the gastroesophageal junction 35 from the image of the frame number.

そして次のステップS11において、上皮境界検出ブロック44は、そのフレーム番号の画像から第2の特徴の検出処理としての上皮境界34の検出処理を行う。なお、上皮境界34を検出する処理は、例えば特願2004−360319号における図4のステップS1からS4までの処理により上皮境界34を検出する。食道側の扁平上皮と胃側の円柱上皮とは、上述したように色調が異なるので、内視鏡画像データに対してエッジ処理、細線化処理を行った後、生成された境界の点列を結ぶことにより、上皮境界34を算出(検出)することができる。
次のステップS12においてバレット食道判定ブロック46は、ステップS10において検出した胃食道接合部35を示す線の点列と、ステップS11において検出した上皮境界34を示す線の点列とを使用して、撮像された画像中の性状判定対象となる部位がバレット食道であるか否かを判定する。
In the next step S11, the epithelial boundary detection block 44 performs a detection process of the epithelial boundary 34 as a second feature detection process from the image of the frame number. In addition, the process which detects the epithelial boundary 34 detects the epithelial boundary 34 by the process from step S1 to S4 of FIG. 4 in Japanese Patent Application No. 2004-360319, for example. As described above, the squamous epithelium on the esophagus side and the columnar epithelium on the stomach side have different color tones, so after performing edge processing and thinning processing on the endoscopic image data, By connecting, the epithelial boundary 34 can be calculated (detected).
In the next step S12, the Barrett's esophageal determination block 46 uses the line point sequence indicating the gastroesophageal junction 35 detected in step S10 and the line point sequence indicating the epithelial boundary 34 detected in step S11. It is determined whether or not the site for property determination in the captured image is the Barrett esophagus.

具体的には、後述する図13のバレット粘膜の判定処理の所で説明する処理により、バレット食道か否かを判定することができる。
そして、このバレット食道判定ブロック46は、ステップS13においてバレット食道か否かの判定結果とフレーム番号を表示処理ブロック43に渡す。表示処理ブロック43は、指定されたフレーム番号の示す画像データを、その内部の図示しないバッファ内から抽出し、その画像データ上に判定結果を重畳する。そして、その画像データは、モニタ4に送られ、表示面にその画像が判定結果と共に表示される。
例えばバレット食道と判定した場合には、図6(B)に示すように、この判定対象の画像中に、例えば”バレット食道の疑いあり”と表示する。
このステップS13の処理の後、次のステップS14において変数Nが、1つ増大された後、ステップS8に戻る。そして、ステップS8からステップS14までの処理が繰り返される。このようにして、変数Nがその最大値MAX_Nを超えるとこの処理を終了する。
Specifically, it can be determined whether or not it is a Barrett's esophagus by a process described in the Barret mucosa determination process of FIG. 13 described later.
The bullet esophageal determination block 46 passes the determination result on whether or not it is a bullet esophagus and the frame number to the display processing block 43 in step S13. The display processing block 43 extracts the image data indicated by the designated frame number from a buffer (not shown) therein, and superimposes the determination result on the image data. Then, the image data is sent to the monitor 4 and the image is displayed on the display surface together with the determination result.
For example, when it is determined that it is Barrett's esophagus, as shown in FIG. 6B, for example, “suspected Barrett's esophagus” is displayed in this determination target image.
After the process of step S13, the variable N is increased by 1 in the next step S14, and then the process returns to step S8. Then, the processing from step S8 to step S14 is repeated. In this way, when the variable N exceeds the maximum value MAX_N, this process ends.

このような構成及び処理を行う本実施例によれば、撮像された内視鏡画像の動画データを構成する解析対象となる静止画データに対して、バレット食道か否かの画像解析を行う場合、バレット食道の判定を行う部位の周辺部に存在する柵状血管の端点となる胃食道接合部35の特徴を有する画像を検出する処理を撮像順に行う。そして、その処理によりその特徴を有する画像以降の画像に対してバレット食道の性状判定に必要となる上皮境界34の特徴の検出処理及びその検出結果と胃食道接合部35との位置関係等からバレット食道か否かを判定するようにしているので、効率良くバレット食道等か否かを判定することができる。
また、以下で説明するようにバレット食道とそのバレット食道の疾患に至る前症状としてのバレット粘膜(バレット上皮)の判定も行うことができるので、早期治療等に適した判定を行うことができる。
According to the present embodiment performing such a configuration and processing, when performing image analysis of whether or not it is Barrett's esophagus for still image data to be analyzed that constitutes moving image data of a captured endoscopic image Then, a process for detecting an image having a feature of the gastroesophageal joint 35 serving as an end point of the fence-like blood vessel existing in the periphery of the site where the Barrett's esophagus is determined is performed in the order of imaging. Then, the bullets are detected based on the detection process of the features of the epithelial boundary 34 and the positional relationship between the detection result and the gastroesophageal joint 35, which are necessary for determining the characteristics of the bullet esophagus for the images after the image having the characteristics. Since it is judged whether it is an esophagus, it can be judged efficiently whether it is a Barrett's esophagus.
In addition, as described below, Barrett's esophagus and Barret's mucosa (Barrett's epithelium) as pre-symptoms leading to the disease of the Barrett's esophagus can also be determined, so that determination suitable for early treatment and the like can be performed.

また、本実施例では、バレット食道か否かの性状判定を行う最大フレーム番号を予め設定して、その最大フレーム番号より後のフレーム番号の画像に対しては、バレット食道か否かの性状判定を行わないようにしているので、バレット食道か否かの性状判定を行う必要のない画像に対して時間を費やすことを防止することもできる。
つまり、図2に示すように食道33内を口31側から順次撮像し、胃36の内部、つまり噴門37の内部まで撮像したような場合には、胃内部側の画像に対してはバレット食道か否かの性状判定を行う必要のない画像となる。このような場合には、その画像のフレーム番号をMAX_Nと設定しておくことにより、バレット食道か否かの性状判定を行わないようにすることができる。
Also, in this embodiment, a maximum frame number for determining whether or not it is a Barrett's esophagus is set in advance, and it is determined whether or not it is a Barrett's esophagus for an image having a frame number after the maximum frame number. Therefore, it is possible to prevent time from being spent on an image that does not need to be subjected to property determination as to whether or not it is Barrett's esophagus.
That is, as shown in FIG. 2, when the inside of the esophagus 33 is sequentially imaged from the mouth 31 side and the inside of the stomach 36, that is, the inside of the cardia 37, the Barrett esophagus is applied to the image inside the stomach. The image does not need to be subjected to property determination. In such a case, by setting the frame number of the image as MAX_N, it is possible not to perform the property determination as to whether or not it is Barrett's esophagus.

次に胃食道接合部35の検出処理を図9から図13を参照して説明する。なお、以下では、胃食道接合部35を検出した後、さらに上皮境界34の検出及びバレット粘膜判定処理まで行う画像解析処理の場合で説明する。この画像解析処理は、バレット粘膜か否かを適切に判定する装置及び方法を提供することを目的とし、このような画像解析処理を行うことにより、バレット粘膜か否かを適切に判定することができる。
この場合の処理手順及び生成されるデータなどを図9に示す。図9における左側が処理内容を示し、その右側の枠内が使用されたり、生成される画像等の情報を示す。
Next, the detection process of the gastroesophageal junction 35 will be described with reference to FIGS. In the following, a description will be given of an image analysis process in which the detection of the gastroesophageal joint 35 is followed by the detection of the epithelial boundary 34 and the Barrett mucosa determination process. The purpose of this image analysis processing is to provide an apparatus and method for appropriately determining whether or not it is a Barrett mucosa. By performing such an image analysis process, it is possible to appropriately determine whether or not it is a Barrett mucosa. it can.
The processing procedure and generated data in this case are shown in FIG. The left side in FIG. 9 shows the processing contents, and the inside of the right side of the frame shows information such as images used or generated.

画像解析の処理がスタートすると、最初のステップS21において、処理対象画像に対してエッジ抽出処理が行われる。このエッジ抽出処理は、例えばRGB画像におけるGの色成分画像に対してバンドパスフィルタを適用することによりエッジ画像を生成する。 バンドパスフィルタによるエッジ抽出手法は公知の技術である。また、処理対象画像より、輝度成分を用いてエッジ画像を生成しても良い。血管のエッジだけでなく他の形状(輪郭)のエッジが抽出される場合、処理対象画像のR成分に対してバンドパスフィルタを適用して抽出される形状のエッジを除外すると、血管のエッジのみを抽出することができる。
なお、図8のステップS4の胃食道検出処理に該当する処理部分は、図9におけるステップS21からステップS26までを用いる。
When the image analysis process starts, edge extraction processing is performed on the processing target image in the first step S21. In this edge extraction process, for example, an edge image is generated by applying a band pass filter to a G color component image in an RGB image. An edge extraction method using a bandpass filter is a known technique. Further, an edge image may be generated from the processing target image using a luminance component. When not only the edge of the blood vessel but also the edge of another shape (contour) is extracted, if the edge of the shape extracted by applying the bandpass filter to the R component of the processing target image is excluded, only the edge of the blood vessel Can be extracted.
In addition, the process part applicable to the gastroesophageal detection process of step S4 of FIG. 8 uses step S21 to step S26 in FIG.

図9における次のステップS22において、エッジ画像に対して2値化処理を行い、2値化画像を生成する。本実施例における2値化処理は、エッジ画像の各画素の画素値と規定の閾値との大小比較により、2値化画像の各画素を0または1に決定する。
次のステップS23において、2値化画像に対して公知の細線化手法を適用して、細線化処理して細線化画像を生成する。
次のステップS24において、この細線化画像に対して、食道33に特有な柵状血管を抽出する柵状血管抽出処理を行い、抽出した柵状血管情報を保存する。この処理のフローチャートを図11に示す(この説明は後述)。
In the next step S22 in FIG. 9, the edge image is binarized to generate a binarized image. In the binarization processing in this embodiment, each pixel of the binarized image is determined to be 0 or 1 by comparing the pixel value of each pixel of the edge image with a specified threshold value.
In the next step S23, a known thinning method is applied to the binarized image to generate a thinned image by thinning processing.
In the next step S24, a fence-like blood vessel extraction process for extracting a fence-like blood vessel peculiar to the esophagus 33 is performed on the thinned image, and the extracted fence-like blood vessel information is stored. A flowchart of this process is shown in FIG. 11 (this description will be described later).

次のステップS25において、上記柵状血管抽出処理において保存した柵状血管の端点座標を取得し、端点座標点列を線分で結ぶ境界線生成処理を行い、境界線情報を生成(取得)する。この処理により生成される境界線情報、より具体的には柵状血管端点境界を図10(A)に示す。
次のステップS26において、上記境界線画像生成処理により取得した境界線情報(柵状血管端点境界)と、あらかじめ取得しておいた暗部と上皮境界34とを含む画像を生成する。この画像を図10(B)に示す。
次のステップS27において、あらかじめ取得しておいた扁平上皮と円柱上皮の上皮境界34との位置関係から、バレット食道ないしはバレット粘膜であるか否かを判定するバレット食道判定処理を行う。その処理の詳細は、図13を参照して後述する。
In the next step S25, the end point coordinates of the fence-like blood vessel stored in the fence-like blood vessel extraction process are acquired, the boundary line generation process for connecting the end point coordinate point sequence with the line segment is performed, and the boundary line information is generated (acquired). . FIG. 10A shows boundary line information generated by this processing, more specifically, a fence-like blood vessel end point boundary.
In the next step S26, an image including the boundary line information (fence-like blood vessel end point boundary) acquired by the boundary line image generation process, and the previously acquired dark part and epithelial boundary 34 is generated. This image is shown in FIG.
In the next step S27, Barrett's esophagus determination processing is performed to determine whether or not it is Barrett's esophagus or Barrett's mucosa from the positional relationship between the previously acquired squamous epithelium and columnar epithelial boundary 34. Details of the processing will be described later with reference to FIG.

このようにして、バレット食道ないしはバレット粘膜の判定を行い、その判定結果を表示してこの処理を終了する。
次に図11を参照して、図9のステップS24の柵状血管抽出処理を説明する。
この柵状血管抽出処理がスタートすると、最初のステップS31において、細線化画像から未処理の線分を取得する。その場合の画像例を図12(A)に示す。
次のステップS32において、線分の画素数を線分長Lとして算出する。そして、次のステップS33において、算出した線分長Lを所定の閾値thre1と比較してその大小を判定する。この判定処理において、L>ther1であれば次のステップS34に進み、L≦ther1であればその線分は柵状血管ではないと判定してステップS41に移る。本実施例においては、例えばther1=50としている。
In this way, the Barrett's esophagus or Barrett mucosa is determined, the determination result is displayed, and the process is terminated.
Next, with reference to FIG. 11, the fence-like blood vessel extraction process in step S24 of FIG. 9 will be described.
When the fence-like blood vessel extraction process starts, an unprocessed line segment is acquired from the thinned image in the first step S31. An image example in that case is shown in FIG.
In the next step S32, the number of pixels of the line segment is calculated as a line segment length L. Then, in the next step S33, the calculated line segment length L is compared with a predetermined threshold value thre1 to determine its magnitude. In this determination process, if L> ther1, the process proceeds to the next step S34, and if L ≦ ther1, it is determined that the line segment is not a fence-like blood vessel, and the process proceeds to step S41. In this embodiment, for example, ther1 = 50.

ステップS34において線分の分岐・交差点数C、屈折点数Bを算出し、ステップS35において所定の閾値εとの大小を判定する。C≦CthかつB<εであれば次のステップS36に進み、C>CthまたはB≧εであればその線分は、抽出対象とする柵状血管ではなく、樹枝状血管と判定してステップS41に移る。本実施例においてはCth=0,ε=3とした。   In step S34, the number of branches / intersections C and the number of refraction points B are calculated, and in step S35, the magnitude of the predetermined threshold value ε is determined. If C ≦ Cth and B <ε, the process proceeds to the next step S36, and if C> Cth or B ≧ ε, the line segment is not a fence-like blood vessel to be extracted, but a dendritic blood vessel, and the step The process moves to S41. In this embodiment, Cth = 0 and ε = 3.

ステップS36において線分の2端点のうち、あらかじめ取得しておいた画像暗部により近い方の端点を取得し、ステップS37において端点と暗部中心を結ぶベクトルvを算出する。
次のステップS38においてベクトルvと、線分終点及び始点とを結んだ直線の成す角θを算出する。そして次のステップS39において、算出した角θと所定の閾値thre2との大小を判定する。
Of the two end points of the line segment in step S36, an end point closer to the previously acquired image dark part is acquired, and in step S37, a vector v connecting the end point and the dark part center is calculated.
In the next step S38, an angle θ formed by a straight line connecting the vector v and the line segment end point and start point is calculated. Then, in the next step S39, the magnitude of the calculated angle θ and the predetermined threshold value thre2 is determined.

そしてステップS39の判定処理において、θ<thre2(例えば図12(B)におけるθ1)であれば次のステップS40に進み、逆にθ≧thre2(例えば図12(B)におけるθ2)であればその線分は、柵状血管ではないと判定してステップS41に移る。本実施例においてはthre2=45°とした。
ステップS40においてステップS31にて抽出した線分に対して、ステップS39の判定条件を満たすものを柵状血管と判定し、柵状血管情報としてその線分に関する情報(前述の線分長L、線分の分岐・交差点数C、屈折点数B、線分の座標点列、端点の座標、角θ)を保存する。このようにして、図12(C)に示すように柵状血管を抽出することができる。
In the determination process in step S39, if θ <thre2 (for example, θ1 in FIG. 12B), the process proceeds to the next step S40, and conversely if θ ≧ thre2 (for example, θ2 in FIG. 12B), It is determined that the line segment is not a fence-like blood vessel, and the process proceeds to step S41. In this embodiment, thre2 = 45 °.
In step S40, the line segment extracted in step S31 is determined as a fence-like blood vessel that satisfies the determination condition in step S39, and information about the line segment as the fence-like blood vessel information (the above-described line segment length L, line) is determined. Minute branch / intersection number C, refraction point number B, line segment coordinate point sequence, end point coordinate, angle θ) are stored. In this way, a fence-like blood vessel can be extracted as shown in FIG.

なお、ステップS41において、未処理の線分の有無を判定し、未処理線分があればステップS31へのループ処理を実施し、未処理の線分がなければこの処理を終了する。 なお、ステップS36〜ステップS39において、マッチドフィルタを用いて暗部方向に伸びる血管のみを抽出しても良い。
次に図13を参照して、図9のステップS28のバレット粘膜判定処理を説明する。 ステップS51において、前述の境界線画像生成処理により生成した境界線画像を取得する。これは図10(B)となる。
次のステップS52において、この画像全体を所定の本数、つまりN本の放射線で分割する。例えばN=8として分割した場合を図10(C)で示している。
次のステップS53において、i本目の放射線[i]を示す変数iを初期値1に設定する。
In step S41, the presence / absence of an unprocessed line segment is determined. If there is an unprocessed line segment, a loop process to step S31 is performed, and if there is no unprocessed line segment, this process ends. In steps S36 to S39, only a blood vessel extending in the dark part direction may be extracted using a matched filter.
Next, referring to FIG. 13, the bullet mucous membrane determination process in step S28 of FIG. 9 will be described. In step S51, the boundary line image generated by the above-described boundary line image generation process is acquired. This is shown in FIG.
In the next step S52, the entire image is divided by a predetermined number, that is, N rays. For example, FIG. 10C shows the case of division with N = 8.
In the next step S53, a variable i indicating the i-th radiation [i] is set to an initial value 1.

そして、次のステップS54において、i本目の放射線[i]と上皮境界34が交わる点P1、i本目の放射線[i]と形成した境界が交わる点P2を算出する。点P1及び点P2を算出した画像を図10(C)上に示している。
次のステップS55において、点P1、及びP2間の距離Q[i]を算出する。
次のステップS56において、すべての放射線について処理を行ったか否かを判定する。つまり、iが放射線数Nか否かを判定し、Nに達しない場合にはステップS57においてiを1つ増大した後、ステップS54に戻り、同様の処理を実施し、すべての放射線について実施済みであればステップS58に進む。
このようにして、全ての放射線、つまりN個において点P1−P2間の距離Q[i]を算出したら、ステップS58において、そのN個の距離Q[i]を用いて分散σを算出する。
In the next step S54, a point P1 where the i-th radiation [i] and the epithelial boundary 34 intersect and a point P2 where the i-th radiation [i] and the formed boundary intersect are calculated. An image obtained by calculating the points P1 and P2 is shown in FIG.
In the next step S55, a distance Q [i] between the points P1 and P2 is calculated.
In the next step S56, it is determined whether or not all the radiation has been processed. That is, it is determined whether or not i is the number of radiations N. If N is not reached, i is incremented by 1 in step S57, and then the process returns to step S54 and the same processing is performed for all radiations. If so, the process proceeds to step S58.
When the distance Q [i] between the points P1 and P2 is calculated for all the radiations, that is, N in this way, the variance σ is calculated using the N distances Q [i] in step S58.

次のステップS59において、分散σと所定の閾値thre3との大小を判定する。そして、σ>thre3であればステップS60に進み、逆にσ≦thre3であれば、その画像はバレット粘膜の所見ではないと判定してこの処理を終了する。本実施例においてはthre3=5とした。
ステップS60において、ステップS51において取得した画像に対して、ステップS59の判定条件を満たす場合には、バレット粘膜の所見の画像であると判定し、その判定結果を表示や告知及び保存等してこの処理を終了する。
図9から図13に示した処理に従ってバレット粘膜(バレット上皮)か否かを判定することにより、精度のよい判定を行うことができる。
In the next step S59, the magnitude of the variance σ and a predetermined threshold value thre3 is determined. If σ> thre3, the process proceeds to step S60. Conversely, if σ ≦ thre3, it is determined that the image is not a finding of Barrett's mucosa, and the process is terminated. In this embodiment, thre3 = 5.
In step S60, if the image acquired in step S51 satisfies the determination condition of step S59, it is determined that the image is a Barrett mucosal finding image, and the determination result is displayed, notified, saved, etc. The process ends.
By determining whether or not it is a Barrett mucosa (Barrett epithelium) according to the processing shown in FIGS. 9 to 13, it is possible to make a highly accurate determination.

つまり、このような処理においては、胃食道接合部35と上皮境界34とをそれぞれ検出して、その検出結果からバレット粘膜か否かを判定するようにしているので、適切かつ精度の良い判定を行うことができる。
なお、図13の処理の一部を以下のように変更して、画像中における食道33の半径(或いは直径)を算出(推定)し、その半径の値として既知の統計値を採用することにより、バレット粘膜からバレット食道を含めた定量的に近い判定を行うようにしても良い。 図13における例えばステップS55とS56との間に暗部中央O−点P1(或いは暗部中央O−点P2)との距離(説明を明確にするためにR[i]とする)も算出する処理を行う。
In other words, in such a process, the gastroesophageal junction 35 and the epithelial boundary 34 are detected, and whether or not it is a Barrett mucosa is determined from the detection result. It can be carried out.
By changing a part of the processing of FIG. 13 as follows, the radius (or diameter) of the esophagus 33 in the image is calculated (estimated), and a known statistical value is adopted as the value of the radius. Alternatively, a determination that is quantitatively close to the Barrett mucosa including the Barrett esophagus may be performed. In FIG. 13, for example, a process of calculating a distance (referred to as R [i] for the sake of clarity) between the dark center O-point P1 (or the dark center O-point P2) between steps S55 and S56. Do.

そして、ステップS56の判定処理を経て全ての放射線[i]に対して、点P1−P2間の距離Q[i]と共に、距離R[i]も算出する。その後、図13のステップS58の距離Q[i]の分散σを算出する代わりに、上記距離R[i]の平均値Ravを算出して、その平均値Raveを食道33における上皮境界34付近における半径の評価値(推定値)とする。
通常の成人或いは患者と体型が類似した人の場合の食道33の統計上の半径値Rs(cm)を予めメモリ等に格納しておき、上記平均値Ravとして半径値Rsを用いて上記点P1−P2間の距離Q[i]の平均値を評価する。
そして、その距離Q[i]の平均値が3.0cm以上か否かを判定して、3.0cm以上の場合にはバレット食道と判定する。
Then, the distance R [i] is calculated together with the distance Q [i] between the points P1 and P2 for all the radiation [i] through the determination process in step S56. Thereafter, instead of calculating the variance σ of the distance Q [i] in step S58 of FIG. 13, the average value Rav of the distance R [i] is calculated, and the average value Rave is calculated in the vicinity of the epithelial boundary 34 in the esophagus 33. The evaluation value (estimated value) of the radius is used.
The statistical radius value Rs (cm) of the esophagus 33 in the case of a normal adult or a person similar in shape to the patient is stored in advance in a memory or the like, and the point P1 using the radius value Rs as the average value Rav. -Evaluate the average value of the distance Q [i] between P2.
And it determines whether the average value of the distance Q [i] is 3.0 cm or more, and when it is 3.0 cm or more, it determines with Barrett's esophagus.

また、距離Q[i]の平均値が、例えば1.5cm程度の場合にはバレット粘膜がかなり進行した状態と判定する。また、距離Q[i]の平均値が、例えば0.5cm程度の場合のようにバレット粘膜化した初期症状が現れている等の判定を行うようにすることもできる。
このように本変形例によれば、定量的に近い状態でバレット食道か否かを判定できると共に、バレット粘膜の場合にもその症状の進行の程度を定量的に判定することができ、その判定結果を表示などすることにより、早期の治療を行い易くできるる。
また、図9によるバレット粘膜判定処理の代わりに、図14に示す変形例のフローチャートのように行っても良い。
Further, when the average value of the distance Q [i] is about 1.5 cm, for example, it is determined that the Barrett mucosa has progressed considerably. Further, it may be determined that an initial symptom of Barrett mucosa appears as in the case where the average value of the distance Q [i] is about 0.5 cm, for example.
Thus, according to this modification, it is possible to determine whether or not the Barrett's esophagus is in a quantitatively close state, and it is possible to quantitatively determine the degree of progression of the symptom even in the case of Barrett's mucosa. By displaying the results, it is possible to facilitate early treatment.
Further, instead of the bullet mucous membrane determination processing shown in FIG. 9, it may be performed as shown in the flowchart of the modification shown in FIG. 14.

本変形例における前述の処理のフローチャートとの変更点は、図9におけるステップS25の血管端点抽出処理、ステップS26の境界線生成処理、ステップS27の境界線画象生成処理に替わって、図14に示すようにステップS61の上皮境界柵状血管画像生成処理を行う。この処理により生成した上皮境界柵状血管画像を用いてステップS62のバレット粘膜判定処理を行うようにしている。
ステップS61の上皮境界柵状血管画像生成処理においては、上述した柵状血管抽出処理において取得した柵状血管と、あらかじめ取得しておいた暗部と上皮境界線を含む上皮境界柵状血管画像を図15(A)に示すように生成する。
そして次のステップ62において、前のステップS61で生成した上皮境界柵状血管画像を用いてバレット粘膜判定処理を行う。このバレット粘膜判定処理のフローチャートを図16に示す。
The changes from the flowchart of the above-described process in this modification are shown in FIG. 14 instead of the blood vessel end point extraction process in step S25, the boundary line generation process in step S26, and the boundary line image generation process in step S27 in FIG. In this way, the epithelial boundary fence-like blood vessel image generation process of step S61 is performed. The bullet mucous membrane determination process of step S62 is performed using the epithelial boundary fence-like blood vessel image generated by this process.
In the epithelial boundary fence-like blood vessel image generation processing in step S61, the fence-like blood vessel image acquired in the above-described fence-like blood vessel extraction process and the epithelial boundary fence-like blood vessel image including the dark part and the epithelial boundary line acquired in advance are displayed. It is generated as shown in FIG.
In the next step 62, Barrett mucosa determination processing is performed using the epithelial boundary fence-like blood vessel image generated in the previous step S61. A flowchart of this bullet mucous membrane determination processing is shown in FIG.

図16に示すように最初のステップS63において、あらかじめ取得しておいた上皮境界34、柵状血管を含む画像を取得する。
次のステップS64において、上皮境界線と交差する柵状血管数Jを初期化、つまりJ=0に設定しておく。
次のステップS65においてQ本の柵状血管から処理対象血管を取得する。さらに次のステップS66において、処理対象血管が上皮境界34と交わるか否かを判定する。交わる場合は、次のステップS67に進んで柵状血管数Jに1を加算し、交わらない場合はステップS65の処理に戻り、次の処理対象血管を取得して同じ処理を繰り返す。
ステップS67を行った後、次のステップS68においてすべての柵状血管について処理を行ったか否かを判定し、未処理の柵状血管があればステップS65に戻り、同じ処理を繰り返し、逆に全ての柵状血管について実施済みであれば、次のステップS69に進む。
As shown in FIG. 16, in the first step S63, an image including the previously acquired epithelial boundary 34 and the fence-like blood vessel is acquired.
In the next step S64, the number of fence-like blood vessels J that intersect with the epithelial boundary line is initialized, that is, J = 0 is set.
In the next step S65, a blood vessel to be processed is acquired from Q fence-like blood vessels. In the next step S66, it is determined whether or not the blood vessel to be processed intersects with the epithelial boundary 34. When intersecting, it progresses to the following step S67, and 1 is added to the number J of fence-like blood vessels, and when not intersecting, it returns to the process of step S65, acquires the next process target blood vessel, and repeats the same process.
After performing step S67, it is determined whether or not all the fence-like blood vessels have been processed in the next step S68. If there is an unprocessed fence-like blood vessel, the process returns to step S65, and the same process is repeated. If it has already been carried out with respect to the fence-like blood vessel, the process proceeds to the next step S69.

このようにして、上皮境界34と交わる柵状血管数Jを算出した画像例を図15(B)に示す。この図15(B)の場合には、柵状血管の数Qが7で、その内6(=J)本が上皮境界34と交わっている。
ステップS69において、J/Qと所定の閾値thre4との大小を判定する。そして、J/Q>thre4であれば次のステップS70に進み、逆にJ/Q≦thre4であれば、その画像はバレット粘膜の所見ではないと判定してこの処理を終了する。本実施例においてはthre4=0.5としている。
ステップS70において、ステップS63において取得した画像がステップS66及びステップS69の判定条件を満たす場合にはバレット粘膜の所見の画像であると判定し、モニタ4に表示する等して、この処理を終了する。
FIG. 15B shows an image example in which the number of fence-like blood vessels J intersecting with the epithelial boundary 34 is calculated in this way. In the case of FIG. 15B, the number Q of fence-like blood vessels is 7, and 6 (= J) of them intersect with the epithelial boundary 34.
In step S69, the magnitude of J / Q and a predetermined threshold value thre4 are determined. If J / Q> thre4, the process proceeds to the next step S70. Conversely, if J / Q ≦ thre4, it is determined that the image is not a finding of Barrett's mucosa, and this process ends. In this embodiment, thre4 = 0.5.
In step S70, when the image acquired in step S63 satisfies the determination conditions of step S66 and step S69, it is determined that the image is a Barrett mucosal finding image, and is displayed on the monitor 4, for example, and this process ends. .

本変形例では、上皮境界34の内側に柵状血管の端点がどの程度存在するかによりバレット粘膜か否かを判定できる。
以上説明したように本実施例によれば、内視鏡画像の動画データを構成する多量の静止画データに対して、バレット食道か否かの解析を行う場合、バレット食道の判定を行う部位の周辺部に存在する第1の特徴部位としての柵状血管の胃側端点となる胃食道接合部35の特徴を有する画像を検出する処理を行い、その処理により検出された画像の後の画像に対して、第2の特徴部位としての上皮境界34の検出処理等を行って、バレット食道か否かを判定するようにしているので、効率良くバレット食道等か否かの性状判定することができる。従って、手作業による抽出作業の労力を軽減することができる効果が得られる。
In this modification, it can be determined whether or not it is a Barrett mucosa depending on how many end points of the fence-like blood vessel exist inside the epithelial boundary 34.
As described above, according to the present embodiment, when analyzing whether or not the Barrett's esophagus is a large amount of still image data constituting the moving image data of the endoscopic image, the determination of the Barrett's esophagus is performed. A process for detecting an image having characteristics of the gastroesophageal junction 35 serving as the gastric end point of the fence-like blood vessel as the first characteristic part existing in the peripheral part is performed, and an image subsequent to the image detected by the process is displayed. On the other hand, since the detection process of the epithelial boundary 34 as the second characteristic part is performed to determine whether or not it is a Barrett esophagus, it is possible to efficiently determine whether or not it is a Barrett esophagus or the like. . Therefore, it is possible to reduce the labor of extraction work by manual work.

また、上記のように最初にその特徴を検出される第1の特徴部位として設定されている胃食道接合部35は、バレット食道の性状判定にも利用されるので、その特徴の検出が有効に利用できる。
また、バレット食道の疾患に至る前症状のバレット粘膜(バレット上皮)の判定も行うことができるので、早期治療等に適した判定を行うことができる。
また、バレット食道か否かの判定を行う必要のない画像に対してはその処理を行わないようにすることもできる。
なお、本実施例では動画データを使用して説明しているが、1検査において連続する複数の静止画データに対して適用してもよい(他の実施例等にも同様に適用できる)。
In addition, as described above, the gastroesophageal joint 35 set as the first feature part for which the feature is first detected is also used for property determination of Barrett's esophagus, so that the detection of the feature is effective. Available.
In addition, since the Barrett mucosa (Barrett epithelium) as a pre-symptom leading to Barrett's esophageal disease can also be determined, determination suitable for early treatment or the like can be performed.
It is also possible not to perform the process on an image that does not need to be determined whether or not it is a Barrett esophagus.
Although the present embodiment has been described using moving image data, the present invention may be applied to a plurality of continuous still image data in one examination (can be applied to other embodiments as well).

次に本発明の実施例2を図17から図26を参照して説明する。上述した実施例1においては、バレット食道か否かの判定を行うために、最初に胃食道接合部35の検出処理を行うことにより、胃食道接合部35を含む画像を検出するようにしていた。
胃食道接合部35の検出処理は、検出処理の負担が重いので、処理速度が遅くなり、処理速度の改善、検出速度の改善の余地がある。胃食道接合部35の検出よりも処理速度を速くでき、検出精度が高いと見込まれる生体部位の検出処理として、噴門検出処理が考えられる。
本実施例では、この点に着目して処理速度等を向上するものである。
本実施例の画像処理装置のハードウェアの構成は実施例1と同様に図1を採用できる。また、本実施例の処理プログラムによりCPU22により構成される機能的な構成を、図17に示す。図17に示す構成は、図4の構成にける画像解析ブロック42内に、さらに噴門検出ブロック47を備えた構成である。
Next, a second embodiment of the present invention will be described with reference to FIGS. In the first embodiment described above, in order to determine whether or not it is Barrett's esophagus, the gastric esophageal joint 35 is first detected to detect an image including the gastroesophageal joint 35. .
Since the detection processing of the gastroesophageal joint 35 is heavy in the detection processing, the processing speed is slow, and there is room for improvement in processing speed and detection speed. Cardiac detection processing can be considered as detection processing for a living body part that can be processed at a higher speed than the detection of the gastroesophageal joint 35 and is expected to have high detection accuracy.
In this embodiment, attention is paid to this point to improve the processing speed and the like.
As in the first embodiment, the hardware configuration of the image processing apparatus according to the present embodiment can be the same as that in the first embodiment. Moreover, the functional structure comprised by CPU22 by the processing program of a present Example is shown in FIG. The configuration shown in FIG. 17 is a configuration in which a cardia detection block 47 is further provided in the image analysis block 42 in the configuration of FIG.

本実施例による処理のフローチャートを図18に示す。このフローチャートによりバレット食道の判定を行い、判定結果を表示等する。
上記噴門検出ブロック47は、例えば、暗部の検出と、検出した暗部の形状及び暗部のエッジ近辺における明度変化の急峻の度合いから画像データ内に存在する噴門37を検出する。その詳細は、図19により後述する。
図18に示す処理手順は、図8のフローチャートの処理手順において、ステップS4の胃食道接合部35の検出処理の代わりに、ステップS4′の噴門37の検出処理を行い、かつステップS4の後のステップS5の胃食道接合部35の存在の判定処理の代わりにステップS5′の噴門37の存在の判定処理を行う変更となっている。
A flowchart of the process according to this embodiment is shown in FIG. The Barrett's esophagus is determined according to this flowchart, and the determination result is displayed.
The cardia detection block 47 detects, for example, the cardia 37 present in the image data from the detection of the dark part and the shape of the detected dark part and the sharpness of the brightness change in the vicinity of the edge of the dark part. Details thereof will be described later with reference to FIG.
The processing procedure shown in FIG. 18 performs the detection process of the cardia 37 in step S4 ′ instead of the detection processing of the gastroesophageal joint 35 in step S4 in the processing procedure of the flowchart in FIG. Instead of the determination process for the presence of the gastroesophageal joint 35 in step S5, the determination process for the presence of the cardia 37 in step S5 ′ is performed.

また、図8の処理手順において、ステップS9のフレーム番号=COUNT+Nの画像を抽出する代わりに、図18のステップS9′に示すようにフレーム画像=COUNT−Nの画像を抽出する。
すなわち、実施例1においては、胃食道接合部35は、バレット食道を判定する部位周辺部であるため、画像中にその部位が検出されるようになった状態から時間的に後の画像を調べることにより、その部位周辺部により接近した画像が得られるため、内視鏡6の先端部14を挿入しながら撮像を行う場合の撮像条件に対応するものとなっていた。
これに対して、図2から分かるように、噴門37は、胃食道接合部35や上皮境界34を通り過ぎ、胃内部に入る入り口となる部位であるため、この噴門検出がされた画像から時間的にNフレーム分遡ったフレーム画像を抽出することになる。そして、この画像からより以前に撮像した画像に遡る向きで順次バレット食道か否かの判定を行う。
In the processing procedure of FIG. 8, instead of extracting the image of frame number = COUNT + N in step S9, the image of frame image = COUNT-N is extracted as shown in step S9 ′ of FIG.
That is, in Example 1, since the gastroesophageal junction 35 is a peripheral part of the part for determining the Barrett's esophagus, an image temporally examined from a state in which the part is detected in the image is examined. As a result, an image closer to the peripheral portion of the part can be obtained, which corresponds to an imaging condition when imaging is performed while the distal end portion 14 of the endoscope 6 is inserted.
On the other hand, as can be seen from FIG. 2, the cardia 37 is a part that passes through the gastroesophageal junction 35 and the epithelial boundary 34 and becomes an entrance into the stomach. A frame image that is traced back by N frames is extracted. Then, it is sequentially determined whether or not it is Barrett's esophagus in a direction that goes back to the image captured earlier from this image.

本実施例によれば、胃食道接合部35の検出よりも検出処理の負担が軽い噴門37を検出した後、その噴門37が検出された画像に基づいてバレット食道の判定処理を行うようにしているので、バレット食道の判定をより短時間に行うことができるようになる。
従って、より効率良くバレット食道の判定処理側に移行でき、より短時間に実施例1と同様の効果を得ることができる。
According to the present embodiment, after detecting the cardia 37 that is lighter in the detection process than the detection of the gastroesophageal joint 35, the Barrett's esophagus determination process is performed based on the image in which the cardia 37 is detected. Therefore, the Barrett's esophagus can be determined in a shorter time.
Therefore, it can transfer to the Barrett's esophagus determination processing side more efficiently, and the effect similar to Example 1 can be acquired in a short time.

次に図19から図22を参照して噴門37の検出処理を説明する。図19は閉じた場合の閉口噴門検出を行う処理フロ−を使用するデータ或いは生成されるデータと共に示す。 噴門37の検出処理が開始すると、ステップS71に示すように処理対象画像に対してエッジ検出処理を行い、エッジ画像を生成する。
このエッジ抽出処理は、本実施例では、Rの色成分画像に対してバンドパスフィルタを適用することによりエッジ画像を生成する。
バンドパスフィルタによるエッジ抽出手法は公知の技術である。また、処理対象画像より、輝度成分を用いてエッジ画像を生成しても良い。
Next, the detection process of the cardia 37 will be described with reference to FIGS. FIG. 19 shows together with data using the processing flow for generating the closed cardia when closed or generated data. When the cardia 37 detection process starts, an edge detection process is performed on the processing target image to generate an edge image as shown in step S71.
In this embodiment, the edge extraction process generates an edge image by applying a bandpass filter to the R color component image.
An edge extraction method using a bandpass filter is a known technique. Further, an edge image may be generated from the processing target image using a luminance component.

次のステップS72において、エッジ画像に対して2値化処理を行い、2値化画像を生成する。本実施例における2値化処理は、エッジ画像の各画素の画素値と規定の閾値との大小比較により、2値化画像の各画素を0または1に決定する。
次のステップS73において、2値化画像に対して公知の細線化手法を適用して、細線化処理して細線化画像を生成する。生成された細線化画像例を図20(A)に示す。
次のステップS74において、この細線化画像における全ての細線における分岐・交差点を算出する分岐・交差点算出処理を行う。図20(B)は図20(A)の細線化画像に対して算出された分岐・交差点の例を示す。この図20(B)では、分岐・交差点の数Hcが5の場合を示している。
In the next step S72, the edge image is binarized to generate a binarized image. In the binarization processing in this embodiment, each pixel of the binarized image is determined to be 0 or 1 by comparing the pixel value of each pixel of the edge image with a specified threshold value.
In the next step S73, a known thinning method is applied to the binarized image to generate a thinned image by thinning processing. An example of the generated thinned image is shown in FIG.
In the next step S74, a branch / intersection calculation process for calculating branches / intersections in all thin lines in the thinned image is performed. FIG. 20B shows an example of the branch / intersection calculated for the thinned image of FIG. FIG. 20B shows a case where the number Hc of branches / intersections is 5.

このステップS74の分岐・交差点算出処理により算出された分岐・交差点の座標を分岐・交差点情報として保存する。
次のステップS75において、上記分岐・交差点の座標値から分岐・交差点の集中度を算出する集中度算出処理を行い、集中度情報を算出する。
The coordinates of the branch / intersection calculated by the branch / intersection calculation process in step S74 are stored as branch / intersection information.
In the next step S75, concentration degree calculation processing is performed to calculate the concentration level of the branch / intersection from the coordinate value of the branch / intersection, thereby calculating the concentration information.

この集中度算出処理を図21のフローチャートにより説明する。最初のステップS77において、上述したNc個の分岐・交差点の座標値を取得する。次のステップS78において、Nc個の分岐・交差点のx座標値の分散σx、y座標値の分散σyとして、両分散σx、σyを算出する。そして、次のステップS79において、算出した両分散σx、σyを集中度情報として保存してこの処理を終了する。
なお、この集中度算出処理における分散を求める代わりに、標準偏差、又は変動係数、又はNc個の分岐・交差点の重心からの距離の平均値等を求め、それを集中度情報としても良い。
図19に戻り、ステップS75による集中度算出処理により算出された集中度情報を用いて、次のステップS76において閉口噴門判定処理を行う。
This concentration degree calculation process will be described with reference to the flowchart of FIG. In the first step S77, the coordinate values of the Nc branch / intersection described above are acquired. In the next step S78, both variances σx and σy are calculated as the variance σx of the x coordinate values and the variance σy of the y coordinate values of the Nc branches / intersections. Then, in the next step S79, the calculated both variances σx and σy are stored as the concentration degree information, and this process is terminated.
Instead of obtaining the variance in the concentration degree calculation process, a standard deviation, a variation coefficient, or an average value of distances from the centers of gravity of Nc branches / intersections may be obtained and used as the degree of concentration information.
Returning to FIG. 19, using the concentration level information calculated by the concentration level calculation process in step S <b> 75, a closing cardia determination process is performed in the next step S <b> 76.

この閉口噴門判定処理は図22のステップS76aに示すように分岐・交差点数Ncと集中度情報(σx、σy)とがそれぞれ所定の閾値thre_Nとthre_x、thre_yとの大小関係をそれぞれ比較して判定を行う。
そして、ステップS76aにおけるNc>thre_N、かつσx<thre_x、かつσy<thre_yの条件を満たすと判定した場合には、ステップS76bに示すように閉口噴門37と判定する。一方、ステップS76aの条件を満たさないと判定した場合、つまりNc≦thre_N、或いはσx≧thre_x、或いはσy≧thre_yとなる場合には、ステップS76cに示すように閉口噴門37でないと判定する。
このようにして噴門判定処理を行った後、図19に示す噴門検出の処理を終了する。 このようにして噴門37を検出することができる。
In this closing cardia determination processing, as shown in step S76a of FIG. 22, the number of branches / intersections Nc and the degree of concentration information (σx, σy) are determined by comparing the magnitude relationship between predetermined threshold values thre_N and thre_x, thre_y, respectively. I do.
When it is determined in step S76a that the conditions of Nc> thre_N, σx <thre_x, and σy <thre_y are satisfied, the closed cardia 37 is determined as shown in step S76b. On the other hand, when it is determined that the condition of step S76a is not satisfied, that is, when Nc ≦ thre_N, or σx ≧ thre_x, or σy ≧ thre_y, it is determined that it is not the closed cardia 37 as shown in step S76c.
After performing the cardia determination process in this manner, the cardia detection process shown in FIG. 19 ends. In this way, the cardia 37 can be detected.

以上のべたように本実施例によれば、最初に噴門37を検出する処理を行い、噴門37が検出された場合には時間的にさかのぼる画像に対して判定対象となるバレット食道を判定する処理を行うようにしているので、多量の画像データの場合に対しても効率良くバレット食道の判定を行うことができる。
また、実施例1で説明したようにバレット食道の判定を行う場合、バレット粘膜の判定を行うこともでき、この判定により早期の治療を行うのに有効となる。
また、図23は変形例における噴門検出のフローチャート処理を示す。
本変形例は、図19に示した処理フローチャートにおいて、ステップS74の分岐・交差点算出処理、及び次のステップS75の集中度算出処理の代わりに開口噴門を検出することを目的としたステップS81のエッジ成分生成角度算出処理を行い、このエッジ成分生成角度算出処理により算出された生成角度情報を基にステップS82の開口噴門を検出(判定)する開口噴門判定処理を行うようにしている。
As described above, according to the present embodiment, the process for detecting the cardia 37 first is performed, and when the cardia 37 is detected, the process for determining the Barrett esophagus to be determined with respect to the image going back in time. Therefore, the Barrett's esophagus can be determined efficiently even for a large amount of image data.
Further, when the Barrett's esophagus is determined as described in Example 1, the Barrett mucosa can also be determined, and this determination is effective for early treatment.
FIG. 23 shows a flowchart of cardia detection in the modification.
In this modification, in the processing flowchart shown in FIG. 19, the edge of step S <b> 81 for the purpose of detecting an open cardia instead of the branch / intersection calculation processing in step S <b> 74 and the concentration calculation processing in the next step S <b> 75. The component generation angle calculation process is performed, and the opening cardia determination process of detecting (determining) the opening cardia in step S82 is performed based on the generation angle information calculated by the edge component generation angle calculation process.

図23に示す処理は、図19におけるステップS71からステップS73までは同じである。
ステップS71に示すように処理対象画像に対してエッジ抽出処理を行い、エッジ画像を生成し、さらにエッジ画像に対してステップS72の2値化処理を行い、2値化画像を生成し、さらにステップS73の細線化処理により図24(A)に示す細線化画像を生成する。
次に、暗部を含む画像に対して予め画像暗部を抽出するために暗部抽出の閾値を用いた暗部2値化処理を画像を、上記細線化処理で取得した細線化画像に重畳した図24(B)に示す画像に対して、ステップS81のエッジ成分生成角度算出処理を行い、大きなエッジ角度の生成角度情報を算出する。
The processing shown in FIG. 23 is the same from step S71 to step S73 in FIG.
As shown in step S71, edge extraction processing is performed on the processing target image to generate an edge image, and binarization processing in step S72 is performed on the edge image to generate a binarized image. The thinned image shown in FIG. 24A is generated by the thinning process in S73.
Next, FIG. 24 (FIG. 24) in which an image is superimposed on a thinned image obtained by the above thinning process by performing a dark part binarization process using a dark part extraction threshold to extract an image dark part in advance for an image including a dark part. The edge component generation angle calculation process of step S81 is performed on the image shown in B), and generation angle information of a large edge angle is calculated.

そして、ステップS82の開口噴門判定処理により開口噴門か否かの判定を行う。
図25は、図23のステップS81のエッジ成分生成角度算出処理の詳細を示すフローチャートである。
最初のステップS83において、画像中の暗部の特徴点を1点選択する。本実施例では、例えば暗部の重心点を算出している。
次のステップS84において、この算出した重心点或いは中心点等の特徴点を中心として画像を、放射状の線により周方向に複数個、例えばM個の領域に分割する。
次のステップS85において、上述した図24(A)に示す細線化画像における細線の内から、1本の線分iを抽出(取得)する。
And it is determined whether it is an opening cardia by the opening cardia determination process of step S82.
FIG. 25 is a flowchart showing details of the edge component generation angle calculation processing in step S81 of FIG.
In the first step S83, one feature point of the dark part in the image is selected. In this embodiment, for example, the barycentric point of the dark part is calculated.
In the next step S84, the image is divided into a plurality of, for example, M areas in the circumferential direction by radial lines around the calculated feature point such as the center of gravity or the center point.
In the next step S85, one line segment i is extracted (acquired) from the thin lines in the thinned image shown in FIG.

次のステップS86において、抽出した線分iが存在する角度θ[i]を算出する。つまり、線分iが存在する領域数Niをカウントし、そのカウントにより線分iが存在する角度θ[i]をθ[i]=Ni×(360/M)°より算出する。
このようにして算出した例を図24(C)に示す。図24(C)では線分iが0°の分割線の領域から270°の分割線の領域までの領域数Niが6の場合を示している。
次のステップS87において、未処理の線分の有無を判定し、未処理の線分があればステップS85に戻り、未処理の線分を取得して同様の処理を行う。
一方、未処理の線分が無い場合には、このエッジ成分生成角度算出の処理を終了する。 図23に戻り、ステップS81のエッジ成分生成角度算出処理により生成した角度θ[i]の角度情報を用いて次のステップS82の開口噴門判定処理により、開口する噴門か否かの判定を行う。
In the next step S86, an angle θ [i] at which the extracted line segment i exists is calculated. That is, the number Ni of regions where the line segment i exists is counted, and the angle θ [i] where the line segment i exists is calculated from the count by θ [i] = Ni × (360 / M) °.
An example calculated in this way is shown in FIG. FIG. 24C shows a case where the number of areas Ni from the dividing line area where the line segment i is 0 ° to the dividing line area where the line segment i is 270 ° is six.
In the next step S87, the presence / absence of an unprocessed line segment is determined. If there is an unprocessed line segment, the process returns to step S85 to acquire the unprocessed line segment and perform the same process.
On the other hand, if there is no unprocessed line segment, the edge component generation angle calculation process ends. Returning to FIG. 23, it is determined whether or not the opening is a cardia opening by the opening cardia determination process of the next step S82 using the angle information of the angle θ [i] generated by the edge component generation angle calculation process of step S81.

この開口噴門判定処理は、例えば図26のステップS82aに示すように角度θ[i]が所定の閾値thre5とで大小関係の判定をする。つまり、θ[i]>thre5の条件を満たすか否かの判定を行う。そして、θ[i]>thre5の条件を満たす場合には、ステップS82bに示すように開口噴門のエッジであると判定し、逆にこの条件を満たさない場合には、開口噴門のエッジでないと判定する。このようにして、噴門を検出する処理を終了する。
このようにして開口する噴門を検出することができる。
そして、噴門を検出した画像からバレット食道を検出する処理を行うことにより、効率良くバレット食道などの判定を行うことができる。
In the opening cardia determination process, for example, as shown in step S82a of FIG. 26, the magnitude θ [i] is determined based on the predetermined threshold value thre5. That is, it is determined whether or not the condition θ [i]> thre5 is satisfied. If the condition θ [i]> thre5 is satisfied, it is determined that the edge of the opening is as shown in step S82b. Conversely, if the condition is not satisfied, it is determined that the edge is not the edge of the opening. To do. In this way, the process for detecting the cardia ends.
In this way, the cardia opening can be detected.
And by performing the process which detects a Barrett's esophagus from the image which detected the cardia, a Barrett's esophagus etc. can be determined efficiently.

次に図27から図29を参照して本発明の実施例3を説明する。本実施例の画像処理装置のハードウェアの構成は実施例1と同様であり、図1を採用できる。また、本実施例における処理プログラムを実行するCPU22により構成される主要部の機能的な構成を図27に示す。図27に示す構成は、図4の構成における画像解析ブロック42内に、さらに処理継続判定ブロック48を備えた構成である。
この処理継続判定ブロック48は、上皮境界検出ブロック44が検出した上皮境界線の点列の有無を判定し、判定結果に応じて画像解析ブロック42の動作を制御する。
本実施例による処理手順のフローチャートを図28に示す。このフローチャートによりバレット食道の判定を行い、その判定結果を表示等する。
Next, Embodiment 3 of the present invention will be described with reference to FIGS. The hardware configuration of the image processing apparatus of the present embodiment is the same as that of the first embodiment, and FIG. 1 can be employed. Further, FIG. 27 shows a functional configuration of a main part constituted by the CPU 22 that executes the processing program in the present embodiment. The configuration shown in FIG. 27 is a configuration in which a processing continuation determination block 48 is further provided in the image analysis block 42 in the configuration of FIG.
The processing continuation determination block 48 determines whether or not there is a point sequence of the epithelial boundary detected by the epithelial boundary detection block 44, and controls the operation of the image analysis block 42 according to the determination result.
A flowchart of a processing procedure according to the present embodiment is shown in FIG. The Barrett's esophagus is determined according to this flowchart, and the determination result is displayed.

図28に示すフローチャートによる処理方法は、実施例1における図8の処理手順において、胃食道接合部35を検出する処理の代わりに、より簡単な処理で検出することができる上皮境界34を検出する処理を行う。
まず、上皮境界34が検出される画像を検索し、上皮境界34が検出される画像を検索できたらバレット食道の判定を行う処理側に移る。
以下、図28のフローチャートを参照してその処理手順を説明する。なお、最初のステップS1からS3までは、図8のフローチャートの場合と同じ処理であるため、その説明を省略する。
The processing method according to the flowchart shown in FIG. 28 detects the epithelial boundary 34 that can be detected by a simpler process instead of the process of detecting the gastroesophageal junction 35 in the processing procedure of FIG. 8 in the first embodiment. Process.
First, an image in which the epithelial boundary 34 is detected is retrieved, and if an image in which the epithelial boundary 34 is detected is retrieved, the process proceeds to the processing side for determining Barrett's esophagus.
The processing procedure will be described below with reference to the flowchart of FIG. Since the first steps S1 to S3 are the same as those in the flowchart of FIG. 8, the description thereof is omitted.

ステップS3のフレーム番号がCOUNTの画像を抽出して、次のステップS91の上皮境界34の検出処理を行う。
そして、検出処理された上皮境界34に対して、次のステップS92において処理継続判定ブロック48は、ステップS91により上皮境界34を示す線の点列が得られるか否かの判定により、上皮境界34の存在の有無の判定を行う。
このステップS92の判定により、上皮境界34が存在しないと判定した場合には、ステップS6に進み、フレーム番号変数COUNTの値を1つ増分してステップS2に戻り、ステップS2からステップS92までの処理、つまり上皮境界34を検出する解析動作を継続する。
An image whose frame number is COUNT in step S3 is extracted, and the detection process of the epithelial boundary 34 in the next step S91 is performed.
Then, for the detected epithelial boundary 34, the processing continuation determination block 48 in the next step S92 determines whether or not a sequence of lines indicating the epithelial boundary 34 is obtained in step S91, thereby determining the epithelial boundary 34. The presence / absence of the presence or absence is determined.
If it is determined in step S92 that the epithelial boundary 34 does not exist, the process proceeds to step S6, the value of the frame number variable COUNT is incremented by one, and the process returns to step S2, and the processes from step S2 to step S92 are performed. That is, the analysis operation for detecting the epithelial boundary 34 is continued.

一方、ステップS92の判定により、上皮境界34が存在すると判定した場合には、上皮境界34を検出する解析動作から、ステップS93側に移り、バレット食道を判定する解析動作に移る。   On the other hand, if it is determined in step S92 that the epithelial boundary 34 is present, the analysis operation for detecting the epithelial boundary 34 is shifted to step S93, and the analysis operation for determining Barrett's esophagus is performed.

このステップS93において、胃食道接合部検出ブロック45は、そのフレーム番号の画像から胃食道接合部35の検出処理を行う。
この胃食道接合部35の検出処理を行った後、次のステップS94において、バレット食道判定ブロック46は、ステップS93において検出した胃食道接合部35を示す線の点列とステップS91において検出した上皮境界34を示す線の点列とを使用して、撮像された画像中の対象部位がバレット食道であるか否かを判定する。
そして、バレット食道であると判定した場合には、バレット食道判定ブロック46は、ステップS95においてその判定結果とフレーム番号を表示処理ブロック43に渡す。この表示処理ブロック43は、指定されたフレーム番号の画像をバッファ内から抽出し、その画像データ上に判定結果を重畳する。例えば、図7に示すように表示する。
In step S93, the gastroesophageal junction detection block 45 performs a process for detecting the gastroesophageal junction 35 from the image of the frame number.
After performing the detection process of the gastroesophageal joint 35, in the next step S94, the Barrett's esophageal determination block 46 includes a point sequence of lines indicating the gastroesophageal joint 35 detected in step S93 and the epithelium detected in step S91. It is determined whether or not the target site in the captured image is the Barrett esophagus using the point sequence of the line indicating the boundary 34.
If it is determined that the esophagus is a Barrett esophagus, the Barrett esophagus determination block 46 passes the determination result and the frame number to the display processing block 43 in step S95. This display processing block 43 extracts the image of the designated frame number from the buffer, and superimposes the determination result on the image data. For example, the display is as shown in FIG.

次のステップS96において、COUNTを1増分する。そして、次のステップS97において、次のフレーム番号(=COUNT)の画像を新規に取得する。そしてその画像に対して上皮境界34の検出処理を行う。
次のステップS98において、前の検出処理により上皮境界34が存在するか否かの判定を行う。
In the next step S96, COUNT is incremented by one. In the next step S97, an image of the next frame number (= COUNT) is newly acquired. And the detection process of the epithelial boundary 34 is performed with respect to the image.
In the next step S98, it is determined whether or not the epithelial boundary 34 is present by the previous detection process.

このステップS98において、処理継続判定ブロック48は、前のステップS97により上皮境界34を示す線の点列が得られるか否かの判定により、上皮境界34の存在の有無の判定を行う。
このステップS98の判定により、上皮境界34が存在しないと判定した場合には、ステップS93からステップS98の処理ループ、つまりバレット食道判定処理側の解析処理の動作から抜けて、この処理を終了する。
In step S98, the processing continuation determination block 48 determines whether or not the epithelial boundary 34 is present by determining whether or not a point sequence of lines indicating the epithelial boundary 34 is obtained in the previous step S97.
If it is determined in step S98 that the epithelial boundary 34 does not exist, the processing loop from step S93 to step S98, that is, the analysis processing operation on the Barrett's esophageal determination processing side is exited, and this processing ends.

一方、上皮境界34が存在すると判定した場合には、ステップS93に戻り、胃食道接合部35を検出する処理を行ってバレット食道の判定処理を継続して行う。このようにして、上皮境界34の存在が検出される場合には上記処理ループ内の処理を繰り返し、上皮境界34の存在が検出されなくなるとこの処理を終了することになる。
このように動作する本実施例によれば、最初に上皮境界34の検出処理を行い、この検出処理により上皮境界34が検出された画像からバレット食道の存在の有無を判定する処理側に移り、この処理側において再び上皮境界34の存在が検出されなくなると、この処理を終了するようにしているので、バレット食道の判定を効率良く行うことができる。
On the other hand, if it is determined that the epithelial boundary 34 exists, the process returns to step S93, and the process for detecting the gastroesophageal junction 35 is performed to continue the Barrett's esophageal determination process. In this way, when the presence of the epithelial boundary 34 is detected, the processing in the above processing loop is repeated, and when the presence of the epithelial boundary 34 is no longer detected, this processing is terminated.
According to this embodiment that operates in this manner, the epithelial boundary 34 is first detected, and the image from which the epithelial boundary 34 is detected by this detection processing moves to a processing side that determines the presence or absence of Barrett's esophagus. If the presence of the epithelial boundary 34 is no longer detected again on the processing side, this processing is terminated, so that the Barrett's esophagus can be determined efficiently.

つまり、本実施例によれば、処理継続判定手段を設け、バレット食道の性状判定に必要な上皮境界34の周辺部の画像のみを検出すると共に、その画像中に上皮境界34が検出されなくなると、バレット食道の判定処理を終了する制御を行うようにているので、手間をかけることを必要としないで、バレット食道の判定処理に必要な画像を抽出して、バレット食道の判定処理を行うことができる。
つまり、実施例1の場合よりもさらにバレット食道の判定処理を短時間かつ、手間をかけないで行うことができる。
That is, according to the present embodiment, when the processing continuation determining means is provided to detect only the peripheral portion of the epithelial boundary 34 necessary for determining the property of Barrett's esophagus, the epithelial boundary 34 is not detected in the image. Since the control for ending the Barrett's esophagus determination process is performed, the image required for the Barrett's esophagus determination process is extracted and the Barrett's esophagus determination process is performed without requiring time and effort. Can do.
That is, the Barrett's esophagus determination process can be performed in a shorter time and with less effort than in the first embodiment.

なお、本実施例では、フレーム画像から上皮境界34を検出後、フレーム画像が連続する時間的に後方のフレーム画像を、次の上皮境界検出の対象画像としているが、時間的に撮像する方向等に応じて時間的に前方に遡ってフレーム画像を取得して検出対象画像としてもよい。
また、連続するフレーム画像の取得間隔をN(ここで、Nは1、2、3、…の自然数)とし、ステップS97においてCOUNT←COUNT+Nに増分して、次の取得フレーム画像を指定するようにしてもよい。
次に本実施例の変形例を説明する。1枚1枚の画像毎にバレット食道であるか否かの判定をすると、画像データに含まれるノイズ、ハレーション、光量経時変化、シェーディング等の影響により、本来バレット食道を撮像しているにもかかわらず、バレット食道ではない、と誤った判定をしてしまう可能性がある。
In this embodiment, after detecting the epithelial boundary 34 from the frame image, the temporally rearward frame image in which the frame images are continuous is used as a target image for the next epithelial boundary detection. Accordingly, the frame image may be acquired retroactively in time to be a detection target image.
In addition, the acquisition interval of consecutive frame images is N (where N is a natural number of 1, 2, 3,...), And is incremented to COUNT ← COUNT + N in step S97 to designate the next acquisition frame image. May be.
Next, a modification of this embodiment will be described. When it is determined whether each image is a Barrett's esophagus, the image of the Barrett's esophagus is originally captured due to the effects of noise, halation, light quantity change over time, shading, etc. included in the image data. There is a possibility that it is erroneously determined that it is not Barrett's esophagus.

そこで本変形例では図29に示す処理手順により改善している。図29に示すフローチャートによる処理手順は、図28の処理手順において、ステップS1からステップS94までは同じ処理である(但し図29ではさらにフレーム番号の変数Nbを用いるため、この変数NbをステップS1で0に初期化している)。
図28ではステップS94の判定結果から次のステップS95において判定結果を表示するようにしていたが、本変形例ではステップS94の判定処理の後、次のフレーム番号に変えて上皮境界34の検出処理や胃食道接合部35の検出処理等を行ってバレット食道の判定処理を行う。
このようにして、上皮境界34が存在しない画像になった場合にはそれまでバレット食道か否かの判定を行った全ての判定結果からバレット食道か否かを総合的に判定し、その判定結果を表示するようにしたものである。
Therefore, this modification is improved by the processing procedure shown in FIG. The processing procedure according to the flowchart shown in FIG. 29 is the same processing from step S1 to step S94 in the processing procedure of FIG. 28 (however, since the variable Nb of the frame number is used in FIG. 29, this variable Nb is changed in step S1. Initialized to 0).
In FIG. 28, the determination result is displayed in the next step S95 from the determination result in step S94. However, in this modified example, after the determination process in step S94, the detection process of the epithelial boundary 34 is performed instead of the next frame number. In addition, the Barrett's esophagus determination process is performed by performing a detection process of the gastroesophageal joint 35 or the like.
In this way, when the image has no epithelial boundary 34, it is comprehensively determined whether or not it is Barrett's esophagus from all the determination results that have been determined whether or not it is Barrett's esophagus, and the determination result Is displayed.

以下、図29を参照して処理手順を説明する。なお、ステップS1からS94までは図28と同じ(但し、上記のようにステップS1において、もう1つのフレーム番号の変数Nbも0に初期化する)であるため、その説明を省略する。
ステップS94において、ステップS92による上皮境界34の存在する位置とステップS93による胃食道接合部35の検出処理とによりバレット食道か否かを判定する。そして、そのバレット食道の判定結果は一旦蓄積しておき、次のステップS101によりフレーム番号Nbの変数を1つ増分する。そして、次のステップS102において、このNbを1つ大きくしたフレーム番号COUNT+Nbの画像を抽出する。
Hereinafter, the processing procedure will be described with reference to FIG. Steps S1 to S94 are the same as those in FIG. 28 (however, as described above, in step S1, the variable Nb of another frame number is also initialized to 0), and thus the description thereof is omitted.
In step S94, it is determined whether or not it is Barrett's esophagus based on the position where the epithelial boundary 34 exists in step S92 and the detection process of the gastroesophageal junction 35 in step S93. Then, the determination result of the Barrett esophagus is temporarily accumulated, and the variable of the frame number Nb is incremented by one in the next step S101. In the next step S102, an image having a frame number COUNT + Nb in which Nb is increased by one is extracted.

次のステップS103において上皮境界34の検出処理を行う。この検出処理の後、次のステップS104において、上皮境界34が存在するか否かの判定を行い、存在する場合にはステップS93に戻り、胃食道接合部35の検出処理を行って同様にバレット食道か否かの判定等の処理を行う。
一方、上皮境界34が存在しないと判定した場合には、ステップS105に移り、ステップS93からステップS104までの処理により取得したバレット食道の判定結果を全て取得する。
そして、次のステップS106において、これら全てのバレット食道の判定結果から総合的にバレット食道か否かの判定を行う。そして、次のステップS107において、総合的な判定結果を画像に重畳して表示し、この処理を終了する。
In the next step S103, the epithelial boundary 34 is detected. After this detection process, in the next step S104, it is determined whether or not the epithelial boundary 34 exists. If it exists, the process returns to step S93, the detection process of the gastroesophageal junction 35 is performed, and the bullet is similarly processed. Processing such as determination of whether or not it is an esophagus is performed.
On the other hand, if it is determined that the epithelial boundary 34 does not exist, the process proceeds to step S105, and all the determination results of Barrett's esophagus acquired by the processing from step S93 to step S104 are acquired.
Then, in the next step S106, it is comprehensively determined whether or not it is a Barrett esophagus from the determination results of all these Barrett esophagus. Then, in the next step S107, the comprehensive determination result is displayed superimposed on the image, and this process ends.

バレット食道判定ブロック46は、ステップS106における総合的にバレット食道か否かの判定を以下のように行う。
例えばバレット食道と判定した画像の枚数Naと、バレット食道か否かの判定を行った画像枚数Nbとの比率Na/Nbを算出する。バレット食道判定ブロック46は、この比率Na/Nbが0.8よりも大きい場合には、撮像対象がバレット食道であると判定し、ステップS107にて、バレット食道判定に使用したNb枚すべての画像に対して”バレット食道の疑いあり”との情報を重畳するようにする。
このように処理動作を行う本変形例によれば、実施例3と同様の効果を有すると共に、さらに複数枚の画像それぞれにおいてバレット食道か否かの判定した結果の情報を用いてさらに総合的に判定するようにしているので、バレット食道か否かをより信頼性の高い状態で判定することができる。
The Barrett esophagus determination block 46 determines whether or not the Barrett's esophagus is comprehensive in Step S106 as follows.
For example, the ratio Na / Nb between the number Na of images determined to be Barrett's esophagus and the number Nb of images determined to be Barrett's esophagus is calculated. If the ratio Na / Nb is greater than 0.8, the Barrett esophageal determination block 46 determines that the imaging target is Barrett's esophagus, and in Step S107, all Nb images used for Barrett's esophageal determination. Is superimposed with the information “suspected of Barrett's esophagus”.
According to this modified example in which the processing operation is performed in this way, the same effect as that of the third embodiment is obtained, and further, the information on the result of determining whether or not it is Barrett's esophagus in each of the plurality of images is more comprehensively used. Since it determines, it can be determined in a more reliable state whether it is Barrett's esophagus.

なお、上述の説明では、細長の挿入部を有する内視鏡6を体内に挿入して撮像した内視鏡画像の場合に対して画像処理する場合で説明したが、口から飲み込むことにより体内を撮像するカプセル型内視鏡により撮像された内視鏡画像の場合にも同様に適用できる。 カプセル型内視鏡の場合には、通常一定間隔などで連続的に静止画像を撮像する体内撮像装置となる。また、この場合には、口から飲み込まれると後戻りすることなく食道33、胃、小腸、大腸へと移動しながら撮像を行う。このような場合にも、本発明は適用可能である。
また、本発明は上述した各実施例等を部分的等で組み合わせて構成される実施例の場合も含む。
In the above description, the endoscope 6 having an elongated insertion portion has been described in the case of performing image processing on the case of an endoscope image captured by being inserted into the body. The present invention can be similarly applied to the case of an endoscopic image captured by a capsule endoscope to be imaged. In the case of a capsule endoscope, it is usually an in-vivo imaging device that continuously captures still images at regular intervals. Further, in this case, imaging is performed while moving to the esophagus 33, stomach, small intestine, and large intestine without returning after swallowing from the mouth. Even in such a case, the present invention is applicable.
In addition, the present invention includes a case of an embodiment configured by partially combining the above-described embodiments.

[付記]
1.請求項1において、前記性状判定手段は、前記判定結果を行った画像上に前記判定結果を重畳して出力する。
2.請求項1において、前記性状判定手段は、前記第2の生体特徴検出手段による検出結果により前記判定結果を出力すると共に、前記判定結果が複数得られた場合には、複数の判定結果に基づいて総合的な判定結果を出力する。
3.請求項1において、前記性状判定手段は、食道内の疾患としてのバレット食道の性状判定を行うバレット食道判定手段である。
4.請求項1において、前記性状判定手段は、食道内の疾患としてのバレット食道の性状判定と、バレット食道の疾患に至る前のバレット粘膜の存在を判定するバレット判定手段である。
[Appendix]
1. In Claim 1, the said property determination means superimposes and outputs the said determination result on the image which performed the said determination result.
2. The property determination unit according to claim 1, wherein the property determination unit outputs the determination result based on the detection result of the second biological feature detection unit, and when a plurality of the determination results are obtained, based on the plurality of determination results. Output comprehensive judgment results.
3. In Claim 1, the said property determination means is a Barrett's esophagus determination means which performs the property determination of Barrett's esophagus as a disease in an esophagus.
4). In Claim 1, the said property determination means is a bullet determination means which determines the property determination of the Barrett esophagus as a disease in the esophagus and the presence of the Barrett mucosa before the disease of the Barrett esophagus.

5.請求項1において、前記性状判定手段は、食道内の胃食道接合部よりも食道側の粘膜が胃側粘膜としての円柱上皮に変性したバレット粘膜の存在を判定するバレット粘膜判定手段である。 5. In Claim 1, the said property determination means is a Barrett mucosa determination means for determining the presence of Barrett mucosa in which the mucosa on the esophagus side of the gastroesophageal junction in the esophagus has been degenerated into columnar epithelium as the gastric mucosa.

6.請求項1において、前記第1の生体特徴検出手段は、食道内における胃と食道の境界としての胃食道接合部、若しくは食道側の扁平上皮と胃側の円柱上皮との境界となる上皮境界、若しくは食道から胃の入り口となる噴門とのいずれかを検出する。
7.付記3又は4において、前記第1又は第2の生体特徴検出手段は、前記バレット食道の性状判定に利用する部位或いは粘膜境界を検出する。
8.付記7において、前記部位或いは粘膜境界は、胃食道接合部若しくは上皮境界である。
6). In Claim 1, the first biological feature detection means includes a gastroesophageal junction as a boundary between the stomach and the esophagus in the esophagus, or an epithelial boundary serving as a boundary between the squamous epithelium on the esophagus and the columnar epithelium on the stomach, Alternatively, either the cardia that becomes the entrance of the stomach from the esophagus is detected.
7). In Supplementary Note 3 or 4, the first or second biological feature detection means detects a site or mucosal boundary used for property determination of the Barrett esophagus.
8). In Appendix 7, the site or mucosal boundary is a gastroesophageal junction or epithelial boundary.

9.請求項1において、前記第2の生体特徴検出手段は、食道内における胃と食道の境界としての胃食道接合部、若しくは食道側の扁平上皮と胃側の円柱上皮との境界となる上皮境界を検出する。 9. 2. The gastroesophageal junction as a boundary between the stomach and the esophagus in the esophagus, or an epithelial boundary serving as a boundary between the squamous epithelium on the esophagus and the columnar epithelium on the stomach side. To detect.

10.付記3において、前記バレット食道判定手段は、胃食道接合部と上皮境界の検出結果に基づいてバレット食道の性状判定を行う。
11.付記4において、前記バレット判定手段は、胃食道接合部と上皮境界の検出結果に基づいてバレット食道ないしはバレット粘膜の性状判定を行う。
12.付記10又は11において、前記胃食道接合部を検出するために柵状血管を検出する柵状血管検出手段を有する。
13.付記6において、前記第1の生体特徴検出手段は、前記噴門として閉口する噴門又は開口する噴門を検出する。
14.請求項1において、前記動画像データ又は静止画像データは、挿入部を有する内視鏡又は口から飲み込まれるカプセル型内視鏡により生成される。
10. In Supplementary Note 3, the Barrett's esophageal determination means determines the property of Barrett's esophagus based on the detection result of the gastroesophageal junction and the epithelial boundary.
11. In Supplementary Note 4, the bullet determining means determines the property of the bullet esophagus or the bullet mucosa based on the detection result of the gastroesophageal junction and the epithelial boundary.
12 Additional remark 10 or 11 has a fence-like blood vessel detecting means for detecting a fence-like blood vessel in order to detect the gastroesophageal junction.
13. In Supplementary Note 6, the first biological feature detecting means detects a cardia closing as the cardia or a cardia opening.
14 The moving image data or still image data is generated by an endoscope having an insertion portion or a capsule endoscope swallowed from a mouth.

15.体内撮像装置によって撮像された体内の動画像データ又は連続的に撮像された複数枚の静止画像データからフレーム画像データを抽出処理する画像抽出処理ステップと、
前記画像抽出処理ステップにより抽出したフレーム画像データを画像解析し、画像解析結果を出力する処理を行う画像解析処理ステップと、
を備え、
前記画像解析処理ステップは、
第1の生体特徴を検出する処理を行う第1の生体特徴検出処理ステップと、
前記第1の生体特徴検出処理ステップの検出結果に基づき、前記第1の生体特徴検出処理ステップで検出に使用した画像よりも時間的に前方または後方に撮像されたフレーム画像に対して、第2の生体特徴を検出する処理を行う第2の生体特徴検出処理ステップと、 前記第2の生体特徴検出処理ステップの検出結果に基づき、生体の性状を判定して判定結果を出力する処理を行う性状判定処理ステップと、
を備えることを特徴とする医用画像処理方法。
15. An image extraction processing step for extracting frame image data from in-vivo moving image data captured by the in-vivo imaging device or a plurality of still image data continuously captured;
Image analysis processing step for performing image analysis of the frame image data extracted in the image extraction processing step and outputting an image analysis result;
With
The image analysis processing step includes
A first biometric feature detection processing step for performing a process of detecting a first biometric feature;
Based on the detection result of the first biometric feature detection processing step, the second is applied to the frame image captured forward or backward in time from the image used for detection in the first biometric feature detection processing step. A second biometric feature detection processing step for performing a process for detecting the biometric feature, and a process for performing a process for determining the properties of the living body based on the detection result of the second biometric feature detection processing step and outputting the determination result A determination processing step;
A medical image processing method comprising:

16.付記15において、前記第2の生体特徴検出処理ステップは、前記第1の生体特徴検出処理ステップの検出結果に基づき、所定枚数のフレーム画像を取得して、該フレーム画像に対して第2の生体特徴の検出処理を行う。
17.付記15において、前記第2の生体特徴検出処理ステップは、前記第1の生体特徴検出処理ステップの検出結果に基づき、
前記第1の生体特徴検出処理ステップが処理したフレーム画像よりも時間的に前方または後方に撮像されたフレーム画像を順次取得し、
取得したフレーム画像に対して前記第1の生体特徴検出処理ステップを適用したときの検出結果に基づきフレ−ム画像の取得を中断する。
16. In Additional Statement 15, in the second biological feature detection processing step, a predetermined number of frame images are acquired based on the detection result of the first biological feature detection processing step, and the second biological feature detection step is performed on the frame image. Performs feature detection processing.
17. In Supplementary Note 15, the second biological feature detection processing step is based on the detection result of the first biological feature detection processing step.
Sequentially acquiring frame images captured forward or backward in time from the frame image processed by the first biological feature detection processing step;
The acquisition of the frame image is interrupted based on the detection result when the first biological feature detection processing step is applied to the acquired frame image.

18.付記15において、前記性状判定処理ステップは、前記判定結果を行った画像上に前記判定結果を重畳して出力する。
19.付記15において、前記性状判定処理ステップは、前記第2の生体特徴検出処理ステップによる検出結果により前記判定結果を出力すると共に、前記判定結果が複数得られた場合には、複数の判定結果に基づいて総合的な判定結果を出力する。
20.付記15において、前記性状判定処理ステップは、食道内の疾患としてのバレット食道の性状判定を行うバレット食道判定処理ステップである。
21.付記15において、前記性状判定処理ステップは、食道内の疾患としてのバレット食道の性状判定と、バレット食道の疾患に至る前のバレット粘膜の存在を判定するバレット判定処理ステップである。
18. In Supplementary Note 15, the property determination processing step superimposes and outputs the determination result on the image on which the determination result has been performed.
19. In Supplementary Note 15, the property determination processing step outputs the determination result based on the detection result of the second biological feature detection processing step and, when a plurality of the determination results are obtained, based on the plurality of determination results. Output comprehensive judgment results.
20. In Supplementary Note 15, the property determination processing step is a Barrett esophagus determination processing step for determining the property of Barrett's esophagus as a disease in the esophagus.
21. In Supplementary Note 15, the property determination processing step is a Barret determination processing step that determines the property of Barrett's esophagus as a disease in the esophagus and the presence of Barrett mucous membrane before the disease of Barrett's esophagus.

22.付記15において、前記性状判定処理ステップは、食道内の胃食道接合部よりも食道側の粘膜が胃側粘膜としての円柱上皮に変性したバレット粘膜の存在を判定するバレット粘膜判定処理ステップである。
23.付記15において、前記第1の生体特徴検出処理ステップは、食道内における胃と食道の境界としての胃食道接合部、若しくは食道側の扁平上皮と胃側の円柱上皮との境界となる上皮境界、若しくは食道から胃の入り口となる噴門とのいずれかを検出する。
22. In Supplementary Note 15, the property determination processing step is a Barret mucosa determination processing step for determining the presence of Barret mucosa in which the mucosa on the esophagus side of the gastroesophageal junction in the esophagus has degenerated into a columnar epithelium as the gastric mucosa.
23. In Supplementary Note 15, the first biological feature detection processing step includes a gastroesophageal junction as a boundary between the stomach and the esophagus in the esophagus, or an epithelial boundary serving as a boundary between the squamous epithelium on the esophagus and the columnar epithelium on the stomach, Alternatively, either the cardia that becomes the entrance of the stomach from the esophagus is detected.

24.食道内の粘膜表面を撮像した医用画像から線構造を抽出する線構造抽出手段と、
前記線構造の持つ形状特徴量から胃側となる各終端を算出する終端算出手段と、
前記形状特徴量から抽出された線構造が柵状血管であるか否かを判定する柵状血管判定手段と、
を具備することを特徴とする柵状血管検出装置。
25.生体粘膜表面を撮像した医用画像を入力する第1のステップと、
前記医用画像から線構造を抽出する第2のステップと、
前記線構造の持つ形状特徴量を算出する第3のステップと、
前記形状特徴量から粘膜構造が柵状血管であるか否かを判定する第4のステップと、
を具備することを特徴とする柵状血管の検出方法。
26.付記24において、前記形状特徴量として分岐・交差点、生成角度としたことを特徴とする。
24. A line structure extraction means for extracting a line structure from a medical image obtained by imaging the mucosal surface in the esophagus;
Terminal calculation means for calculating each terminal on the stomach side from the shape feature amount of the line structure;
Fence-like blood vessel determining means for determining whether or not the line structure extracted from the shape feature amount is a fence-like blood vessel;
A fence-like blood vessel detection device comprising:
25. A first step of inputting a medical image obtained by imaging a biological mucosal surface;
A second step of extracting a line structure from the medical image;
A third step of calculating a shape feature amount of the line structure;
A fourth step of determining whether the mucosal structure is a fence-like blood vessel from the shape feature amount;
A method for detecting a fence-like blood vessel, comprising:
26. Appendix 24 is characterized in that the shape feature value is a branch / intersection or a generation angle.

(付記24〜26の背景)
従来、バレット食道或いはバレット粘膜の判定を行う有効な装置或いは方法が無かった。
このため、バレット食道或いはバレット粘膜の判定を行う有効な装置或いは方法を提供することを目的として、付記24〜26の構成にした。
(付記24〜26の効果)
胃と食道との境界の胃食道接合部となる柵状血管の胃側の終端を検出するようにしているので、上皮境界の検出結果とからバレット食道或いはバレット粘膜の判定を適切に行うことができる。
(Background of appendices 24-26)
Conventionally, there has been no effective apparatus or method for determining the Barrett esophagus or Barrett mucosa.
For this reason, in order to provide an effective apparatus or method for determining the Barrett's esophagus or Barrett's mucosa, the configurations of Supplementary notes 24 to 26 were adopted.
(Effects of Supplementary Notes 24-26)
Since the end of the gastric esophagus at the gastroesophageal junction at the boundary between the stomach and the esophagus is detected, it is possible to appropriately determine the Barrett esophagus or Barrett mucosa from the detection result of the epithelial boundary. it can.

27.食道内の粘膜表面を撮像した医用画像から上皮境界と胃食道接合部とを検出する上皮境界&胃食道接合部検出手段と、
検出された前記上皮境界及び胃食道接合部からバレット粘膜ないしはバレット食道の存在を判定するバレット判定手段と、
を備えたことを特徴とするバレット検出装置。
28.食道内の粘膜表面を撮像した医用画像から上皮境界と胃食道接合部とを検出する処理を行う上皮境界&胃食道接合部検出ステップと、
検出された前記上皮境界及び胃食道接合部からバレット粘膜ないしはバレット食道の存在の判定処理をするバレット判定処理ステップと、
を備えたことを特徴とするバレット検出方法。
27. An epithelial boundary and gastroesophageal junction detection means for detecting an epithelial boundary and a gastroesophageal junction from a medical image obtained by imaging the mucosal surface in the esophagus;
Barret determination means for determining the presence of Barrett mucosa or Barrett's esophagus from the detected epithelial boundary and gastroesophageal junction,
A bullet detection device comprising:
28. An epithelial boundary & gastroesophageal junction detection step for performing a process of detecting the epithelial boundary and the gastroesophageal junction from a medical image obtained by imaging the mucosal surface in the esophagus;
A bullet determination processing step for determining the presence of a bullet mucosa or a bullet esophagus from the detected epithelial boundary and gastroesophageal junction;
A bullet detection method comprising:

(付記27、28の背景)
従来、バレット食道或いはバレット粘膜の判定を行う有効な装置或いは方法が無かった。
このため、バレット食道或いはバレット粘膜の判定を行う有効な装置或いは方法を提供することを目的として、付記27、28の構成にした。
(付記27、28の効果)
胃と食道との境界の胃食道接合部と、上皮境界の検出を行い、これらの検出結果からバレット食道或いはバレット粘膜の判定を適切に行うことができる。
(Background to Appendix 27 and 28)
Conventionally, there has been no effective apparatus or method for determining the Barrett esophagus or Barrett mucosa.
For this reason, in order to provide an effective apparatus or method for determining the Barrett's esophagus or Barrett's mucosa, the configurations of Supplementary Notes 27 and 28 were adopted.
(Effects of Supplementary Notes 27 and 28)
It is possible to detect the gastroesophageal junction at the boundary between the stomach and the esophagus and the epithelial boundary, and appropriately determine the Barrett esophagus or Barrett mucosa from these detection results.

食道内部等を撮像した多量の内視鏡の画像データから食道バレット等の場合の性状を判定するためにその部位周辺部の胃食道接合部、上皮境界等の第1の特徴を検出する処理を、その存在が判定されるまで順次フレーム番号を変えて繰り返し、その特徴を有すると判定された画像からそれ以降の画像に対しては判定対象となる食道バレット等の第2の特徴を検出する検出処理に移行する。このような処理を行うことにより、最初から第2の特徴の検出処理及びその判定処理を行う場合よりも効率的な処理を行えるようにした。   In order to determine the properties in the case of an esophageal bullet etc. from a large amount of endoscopic image data obtained by imaging the inside of the esophagus etc., a process for detecting the first feature such as the gastroesophageal junction and epithelial boundary around the region Detecting by detecting the second feature such as an esophageal bullet to be judged for the subsequent images from the image judged to have the feature by sequentially changing the frame number until the presence is judged. Transition to processing. By performing such processing, it is possible to perform more efficient processing than when performing the second feature detection processing and determination processing from the beginning.

図1は本発明の実施例1を備えた内視鏡システムの全体構成を示すブロック図。FIG. 1 is a block diagram showing an overall configuration of an endoscope system including a first embodiment of the present invention. 図2は内視鏡の経口的な挿入により内視鏡検査される上部消化管の各部を模式的に示す図。FIG. 2 is a diagram schematically showing each part of the upper digestive tract that is endoscopically examined by oral insertion of an endoscope. 図3は食道と胃の境界付近を撮像した内視鏡画像の例を示す図。FIG. 3 is a diagram showing an example of an endoscopic image obtained by imaging the vicinity of the boundary between the esophagus and the stomach. 図4は本実施例の画像処理装置の主要部の機能的な構成を示す図。FIG. 4 is a diagram illustrating a functional configuration of a main part of the image processing apparatus according to the present exemplary embodiment. 図5は画像記憶部に記憶される動画像データがそれぞれ静止画像データの集まりとして記憶されていることを示す図。FIG. 5 is a diagram showing that moving image data stored in an image storage unit is stored as a collection of still image data. 図6は解析情報記憶部に格納される解析結果や処理プログラム記憶部に格納される情報等を示す図。FIG. 6 is a diagram illustrating analysis results stored in the analysis information storage unit, information stored in the processing program storage unit, and the like. 図7は内視鏡画像と共に解析結果を表示したモニタ表示例を示す図。FIG. 7 is a diagram illustrating a monitor display example in which an analysis result is displayed together with an endoscopic image. 図8は本実施例によるバレット食道の性状判定を行う処理手順のフローチャート図。FIG. 8 is a flowchart of a processing procedure for determining the properties of Barrett's esophagus according to this embodiment. 図9は胃食道接合部の検出処理を行う処理手順を使用或いは生成される画像等の情報と共に示すフローチャート図。FIG. 9 is a flowchart showing a processing procedure for performing detection processing of a gastroesophageal junction together with information such as images used or generated. 図10は柵状血管端点境界等を示す図。FIG. 10 is a diagram showing a fence-like blood vessel end point boundary and the like. 図11は図9における柵状血管抽出処理の詳細を示すフローチャート図。11 is a flowchart showing details of the fence-like blood vessel extraction process in FIG. 図12は図11の処理を行う際の動作説明用の画像例を示す図。FIG. 12 is a diagram illustrating an example of an image for explaining an operation when the processing of FIG. 11 is performed. 図13は図10におけるバレット粘膜判定処理の詳細を示すフローチャート図。FIG. 13 is a flowchart showing details of the bullet mucous membrane determination process in FIG. 図14は図9の変形例のフローチャート図。FIG. 14 is a flowchart of a modification of FIG. 図15は図14等の動作説明に用いる画像例を示す図。FIG. 15 is a diagram showing an example of an image used for explaining the operation of FIG. 図16は図14におけるバレット粘膜判定処理の詳細を示すフローチャート図。16 is a flowchart showing details of the bullet mucous membrane determination process in FIG. 図17は本発明の実施例2の画像処理装置の主要部の機能的な構成を示す図。FIG. 17 is a diagram illustrating a functional configuration of a main part of the image processing apparatus according to the second embodiment of the present invention. 図18は本実施例によるバレット食道の性状判定を行う処理手順のフローチャート図。FIG. 18 is a flowchart of a processing procedure for determining the properties of Barrett's esophagus according to this embodiment. 図19は噴門検出処理を行う処理手順を使用或いは生成される画像等の情報と共に示すフローチャート図。FIG. 19 is a flowchart showing a processing procedure for performing cardia detection processing together with information such as images used or generated. 図20は図19の動作説明図。FIG. 20 is an explanatory diagram of the operation of FIG. 図21は図19の集中度算出処理の詳細を示すフローチャート図。FIG. 21 is a flowchart showing details of the concentration degree calculation processing of FIG. 図22は図19の閉口噴門判定処理を示すフローチャート図。22 is a flowchart showing the closing cardia determination process of FIG. 図23は変形例における噴門検出処理を行う処理手順を使用或いは生成される画像等の情報と共に示すフローチャート図。FIG. 23 is a flowchart showing a processing procedure for performing cardia detection processing in a modified example together with information such as an image to be used or generated. 図24は図23及び図25の動作説明図。FIG. 24 is a diagram for explaining the operation of FIGS. 図23におけるエッジ成分生成角度算出処理の詳細を示すフローチャート図。The flowchart figure which shows the detail of the edge component production | generation angle calculation process in FIG. 図26は図23の開口噴門判定処理を示すフローチャート図。FIG. 26 is a flowchart showing the opening cardia determination processing of FIG. 図27は本発明の実施例2の画像処理装置の主要部の機能的な構成を示す図。FIG. 27 is a diagram illustrating a functional configuration of a main part of the image processing apparatus according to the second embodiment of the present invention. 図28は本実施例によるバレット食道の性状判定を行う処理手順のフローチャート図。FIG. 28 is a flowchart of a processing procedure for determining the properties of Barrett's esophagus according to this embodiment. 図29は変形例によるバレット食道の性状判定を行う処理手順のフローチャート図。FIG. 29 is a flowchart of a processing procedure for determining the properties of Barrett's esophagus according to a modification.

符号の説明Explanation of symbols

1…内視鏡システム
2…内視鏡観察装置
3…画像処理装置
4…モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
14…先端部
16…CCD
17…撮像装置
21…画像入力部
22…CPU
22a…幾何学的画像変換手段
22b…展開図出力手段
22c…上皮境界検出手段
22d…上皮境界解析手段
23…処理プログラム記憶部
24…画像記憶部
25…解析情報記憶部
27…ハードディスク
28…表示処理部
29…入力操作部
33…食道
34…上皮境界
35…胃食道接合部
36…胃
37…噴門
38…柵状血管
39…上皮境界
41…画像抽出ブロック
42…画像解析ブロック
43…表示処理ブロック
44…上皮境界検出ブロック
45…胃食道接合部検出ブロック
46…バレット食道判定ブロック
47…噴門検出ブロック
代理人 弁理士 伊藤 進
DESCRIPTION OF SYMBOLS 1 ... Endoscope system 2 ... Endoscope observation apparatus 3 ... Image processing apparatus 4 ... Monitor 6 ... Endoscope 7 ... Light source device 8 ... CCU
11 ... Insertion part 14 ... Tip part 16 ... CCD
17 ... Imaging device 21 ... Image input unit 22 ... CPU
22a ... Geometric image conversion means 22b ... Development view output means 22c ... Epithelial boundary detection means 22d ... Epithelial boundary analysis means 23 ... Processing program storage section 24 ... Image storage section 25 ... Analysis information storage section 27 ... Hard disk 28 ... Display processing Unit 29 ... Input operation unit 33 ... esophagus 34 ... epithelial boundary 35 ... gastroesophageal junction 36 ... stomach 37 ... cardia 38 ... fenced blood vessel 39 ... epithelial boundary 41 ... image extraction block 42 ... image analysis block 43 ... display processing block 44 ... Epithelial boundary detection block 45 ... Gastroesophageal junction detection block 46 ... Barrett's esophageal decision block 47 ... Cardia detection block Agent Patent attorney Susumu Ito

Claims (3)

体内撮像装置によって撮像された体内の動画像データ又は連続的に撮像された複数枚の静止画像データからフレーム画像データを抽出する画像抽出手段と、
前記画像抽出手段により抽出したフレーム画像データを画像解析し、画像解析結果を出力する画像解析手段と、
を備え、
前記画像解析手段は、
第1の生体特徴を検出する第1の生体特徴検出手段と、
前記第1の生体特徴検出手段の検出結果に基づき、前記第1の生体特徴検出手段が検出に使用した画像よりも時間的に前方または後方に撮像されたフレーム画像に対して、第2の生体特徴を検出する第2の生体特徴検出手段と、
前記第2の生体特徴検出手段の検出結果に基づき、生体の性状を判定して判定結果を出力する性状判定手段と、
を備えることを特徴とする医用画像処理装置。
Image extracting means for extracting frame image data from in-vivo moving image data captured by the in-vivo imaging device or a plurality of still image data continuously captured;
Image analysis means for analyzing the frame image data extracted by the image extraction means, and outputting an image analysis result;
With
The image analysis means includes
First biological feature detection means for detecting a first biological feature;
Based on the detection result of the first biometric feature detection means, a second biometric feature is obtained with respect to a frame image captured forward or backward in time from the image used for detection by the first biometric feature detection means. Second biological feature detection means for detecting features;
Based on the detection result of the second biological feature detection means, a property determination means for determining the properties of the living body and outputting the determination result;
A medical image processing apparatus comprising:
前記第2の生体特徴検出手段は、前記第1の生体特徴検出手段の検出結果に基づき、所定枚数のフレーム画像を取得して、該フレーム画像に対して第2の生体特徴の検出処理を行うことを特徴とする請求項1記載の医用画像処理装置。   The second biometric feature detection unit acquires a predetermined number of frame images based on the detection result of the first biometric feature detection unit, and performs a second biometric feature detection process on the frame image. The medical image processing apparatus according to claim 1. 前記第2の生体特徴検出手段は、前記第1の生体特徴検出手段の検出結果に基づき、
前記第1の生体特徴検出手段が処理したフレーム画像よりも時間的に前方または後方に撮像されたフレーム画像を順次取得し、
取得したフレーム画像に対して前記第1の生体特徴検出手段の処理を適用したときの検出結果に基づきフレ−ム画像の取得を中断することを特徴とする請求項第1記載の医用画像処理装置。
The second biological feature detection means is based on the detection result of the first biological feature detection means,
Sequentially obtaining frame images captured forward or backward in time with respect to the frame image processed by the first biological feature detection means;
2. The medical image processing apparatus according to claim 1, wherein the acquisition of the frame image is interrupted based on the detection result when the processing of the first biological feature detection means is applied to the acquired frame image. .
JP2005038116A 2005-02-15 2005-02-15 Medical image processing device Expired - Fee Related JP4749732B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005038116A JP4749732B2 (en) 2005-02-15 2005-02-15 Medical image processing device
PCT/JP2006/302381 WO2006087981A1 (en) 2005-02-15 2006-02-10 Medical image processing device, lumen image processing device, lumen image processing method, and programs for them
US11/884,515 US8055033B2 (en) 2005-02-15 2006-02-10 Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same
EP06713523.6A EP1849402B1 (en) 2005-02-15 2006-02-10 Medical image processing device, lumen image processing device, lumen image processing method, and programs for them
CNB2006800044681A CN100563550C (en) 2005-02-15 2006-02-10 Medical image-processing apparatus
US13/209,792 US20110299748A1 (en) 2005-02-15 2011-08-15 Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005038116A JP4749732B2 (en) 2005-02-15 2005-02-15 Medical image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011087561A Division JP5315376B2 (en) 2011-04-11 2011-04-11 Fence-like blood vessel detection device and method of operating the fence-like blood vessel detection device

Publications (3)

Publication Number Publication Date
JP2006223376A JP2006223376A (en) 2006-08-31
JP2006223376A5 JP2006223376A5 (en) 2008-02-28
JP4749732B2 true JP4749732B2 (en) 2011-08-17

Family

ID=36985260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005038116A Expired - Fee Related JP4749732B2 (en) 2005-02-15 2005-02-15 Medical image processing device

Country Status (2)

Country Link
JP (1) JP4749732B2 (en)
CN (1) CN100563550C (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5028138B2 (en) * 2007-05-08 2012-09-19 オリンパス株式会社 Image processing apparatus and image processing program
JP5800468B2 (en) * 2010-05-11 2015-10-28 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP5576782B2 (en) * 2010-12-16 2014-08-20 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
WO2012114600A1 (en) * 2011-02-22 2012-08-30 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method
JP5315376B2 (en) * 2011-04-11 2013-10-16 オリンパス株式会社 Fence-like blood vessel detection device and method of operating the fence-like blood vessel detection device
JP6045396B2 (en) * 2013-02-27 2016-12-14 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP6188992B1 (en) 2015-09-28 2017-08-30 オリンパス株式会社 Image analysis apparatus, image analysis system, and operation method of image analysis apparatus
CN109674493B (en) * 2018-11-28 2021-08-03 深圳蓝韵医学影像有限公司 Method, system and equipment for medical ultrasonic automatic tracking of carotid artery blood vessel
JP7483591B2 (en) 2020-10-30 2024-05-15 キヤノン株式会社 Medical image processing device, medical image processing method and program
CN114511566B (en) * 2022-04-19 2022-07-19 武汉大学 Method and related device for detecting basement membrane positioning line in medical image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3895400B2 (en) * 1996-04-30 2007-03-22 オリンパス株式会社 Diagnosis support device
JP2001017379A (en) * 1999-07-09 2001-01-23 Fuji Photo Film Co Ltd Fluorescent diagnostic device

Also Published As

Publication number Publication date
CN101115435A (en) 2008-01-30
JP2006223376A (en) 2006-08-31
CN100563550C (en) 2009-12-02

Similar Documents

Publication Publication Date Title
JP4749732B2 (en) Medical image processing device
US8055033B2 (en) Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same
EP1994878B9 (en) Medical image processing device and medical image processing method
KR100891766B1 (en) Medical image processing apparatus
JP5276225B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
CN102984990B (en) Diagnosis assistance apparatus
KR102287364B1 (en) System and method for detecting lesion in capsule endoscopic image using artificial neural network
JP4994737B2 (en) Medical image processing apparatus and medical image processing method
US8666135B2 (en) Image processing apparatus
WO2012153568A1 (en) Medical image processing device and medical image processing method
KR20160118037A (en) Apparatus and method for detecting lesion from medical image automatically
JP4855673B2 (en) Medical image processing device
JP5057651B2 (en) Lumen image processing apparatus, lumen image processing method, and program therefor
EP1992273B1 (en) Medical image processing device and medical image processing method
CN116745861A (en) Control method, device and program of lesion judgment system obtained through real-time image
JP5315376B2 (en) Fence-like blood vessel detection device and method of operating the fence-like blood vessel detection device
JP4668624B2 (en) Image processing device for esophageal mucosa
WO2023162216A1 (en) Image processing device, image processing method, and storage medium
WO2024180593A1 (en) Image processing device, image processing method, and storage medium
EP4302681A1 (en) Medical image processing device, medical image processing method, and program
WO2021241695A1 (en) Endoscope image processing device
WO2021241735A1 (en) Endoscope processor device
JP2011072811A (en) Medical image processor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110518

R151 Written notification of patent or utility model registration

Ref document number: 4749732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees