JP2006166939A - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP2006166939A
JP2006166939A JP2004359054A JP2004359054A JP2006166939A JP 2006166939 A JP2006166939 A JP 2006166939A JP 2004359054 A JP2004359054 A JP 2004359054A JP 2004359054 A JP2004359054 A JP 2004359054A JP 2006166939 A JP2006166939 A JP 2006166939A
Authority
JP
Japan
Prior art keywords
image
processing
mucous membrane
pixel
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004359054A
Other languages
Japanese (ja)
Inventor
Hideki Tanaka
秀樹 田中
Ryoko Inoue
涼子 井上
Hiroichi Nishimura
博一 西村
Jun Hasegawa
潤 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004359054A priority Critical patent/JP2006166939A/en
Priority to CNB2005800397547A priority patent/CN100515318C/en
Priority to PCT/JP2005/022562 priority patent/WO2006062163A1/en
Priority to EP05814386.8A priority patent/EP1842481B1/en
Priority to KR1020077012866A priority patent/KR100891766B1/en
Publication of JP2006166939A publication Critical patent/JP2006166939A/en
Priority to US11/811,263 priority patent/US8144993B2/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method capable of detecting the presence of a specified biological mucous membrane without being affected by an inappropriate part such as a dark part. <P>SOLUTION: The tone feature amount of each pixel is calculated by using an Hb index for an eliminated unrequired area image 32 which is an eliminated unrequired area such as the dark part from a source image 31. The tone feature amount is compared with a threshold, a type labeling processing for indicating whether or not the possibility of a specified biological mucous membrane is high is performed, and then whether or not the source image 31 includes Barrett's epithelium as the specified biological mucous membrane is judged. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は食道から胃の境界近辺の生体粘膜の性状を判定する画像処理方法に関する。   The present invention relates to an image processing method for determining the properties of a biological mucosa in the vicinity of the stomach boundary from the esophagus.

近年、内視鏡を用いて内視鏡検査等を行う内視鏡装置は、医療用分野及び工業用分野において広く採用されている。医療用分野においては、例えば内視鏡の挿入部を体腔内に挿入して、検査対象部位を観察することにより、検査対象部位が正常な粘膜か病変粘膜かを診断するのに利用される。
このような場合、内視鏡画像から画像処理により、正常な粘膜であるか病変粘膜であるかの判定を行うことができると、術者は、その判定結果の部位を重点的に診断することにより、効率的な診断を行うことができる。
In recent years, endoscope apparatuses that perform endoscopy and the like using an endoscope have been widely adopted in the medical field and the industrial field. In the medical field, for example, by inserting an insertion portion of an endoscope into a body cavity and observing the examination target site, it is used to diagnose whether the examination target site is a normal mucosa or a lesioned mucosa.
In such a case, if it is possible to determine whether the mucosa is a normal mucosa or a lesioned mucosa by performing image processing from an endoscopic image, the surgeon should focus on the determination result site. Thus, an efficient diagnosis can be performed.

例えば、第1の従来例としての特開10−014864号公報では、関心領域設定手段により設定された関心領域から特徴量を算出して病変の判別分類を行う画像処理装置が開示されている。
また、第2の従来例としての特開2000−155840号公報では、さらに撮像条件の違いを軽減して特徴量を算出できるように、逆γ補正やシェーディング補正等の前処理を行うようにした画像処理装置が開示されている。
特開10−014864号公報 特開2000−155840号公報
For example, Japanese Patent Laid-Open No. 10-014864 as a first conventional example discloses an image processing apparatus that calculates a feature amount from a region of interest set by a region-of-interest setting unit and discriminates and classifies a lesion.
Further, in Japanese Patent Laid-Open No. 2000-155840 as a second conventional example, preprocessing such as inverse γ correction and shading correction is performed so that the feature amount can be calculated while further reducing the difference in imaging conditions. An image processing apparatus is disclosed.
JP 10-014864 A JP 2000-155840 A

上記第2の従来例によれば、第1の従来例における撮像条件の違いを軽減することができる。
しかし、第2の従来例においても、暗部が存在した場合、照明光量の増大によりその一部は、より明るい状態にして撮像した画像にできるが、照明光量の増大により暗部を完全に解消することは、殆ど不可能である。
より具体的には、食道から胃の境界にかけて、食道に存在する生体粘膜としての粘膜上皮(扁平上皮)部分が荒廃して胃の粘膜と同じような性状に置き換わってしまった(変性した)ような病変粘膜となるバレット上皮(バレット粘膜)をスクリーニングすることが診断する上に有益な情報となる。
According to the second conventional example, the difference in imaging conditions in the first conventional example can be reduced.
However, even in the second conventional example, if there is a dark part, an increase in the amount of illumination light can partially make an image captured in a brighter state, but the dark part can be completely eliminated by increasing the amount of illumination light. Is almost impossible.
More specifically, from the esophagus to the stomach boundary, the mucosal epithelium (squamous epithelium) as a living mucosa in the esophagus was devastated and replaced with the same properties as the gastric mucosa (degenerated) Screening Barrett's epithelium (Barrett's mucosa), which becomes a diseased mucosa, is useful information for diagnosis.

この場合、扁平上皮が荒廃して胃の粘膜と同じように変性したバレット上皮は、癌組織になり易い特性を持つため、早期に検出できると非常に有用となる。
このように、食道から胃の境界付近にかけての内視鏡検査において、管腔形状の食道からその深部側の胃に至る部分では、例えば画像中に暗部が存在する場合が多くなり、従来例ではそのような暗部等のために、より適切な判定或いは検出が行えない可能性がある。 つまり、逆γ補正やシェーディング補正等の前処理では、暗部の一部を明るくする等、改善できる可能性があるが、暗部を解消することは不可能といえる。このため、暗部等の領域のために画像処理の結果の精度を向上することができない。
In this case, the Barrett epithelium, which has been degenerated in the same manner as the gastric mucosa due to the squamous epithelium devastation, has the property of easily becoming cancerous tissue, and is very useful if it can be detected early.
In this way, in endoscopy from the esophagus to the vicinity of the boundary of the stomach, in the part from the luminal esophagus to the deep stomach, for example, a dark part often exists in the image. There is a possibility that more appropriate determination or detection cannot be performed due to such a dark portion or the like. In other words, preprocessing such as inverse γ correction and shading correction can be improved by, for example, brightening part of the dark part, but it can be said that it is impossible to eliminate the dark part. For this reason, the accuracy of the image processing result cannot be improved due to the dark area or the like.

(発明の目的)
本発明は、上述した点に鑑みてなされたもので、暗部等不適切な部分に影響されないでより適切に、検出対象となる特定の生体粘膜の存在を検出することができる画像処理方法を提供することを目的とする。
また、本発明は、食道から胃の境界にかけて、暗部等不適切な部分に影響されないで、より適切に、検出対象となる特定の生体粘膜としてのバレット上皮(バレット粘膜)の存在を検出することができる画像処理方法を提供することを目的とする。
(Object of invention)
The present invention has been made in view of the above-described points, and provides an image processing method capable of more appropriately detecting the presence of a specific biological mucous membrane to be detected without being affected by an inappropriate part such as a dark part. The purpose is to do.
In addition, the present invention more appropriately detects the presence of Barrett epithelium (Barrett mucosa) as a specific biological mucous membrane to be detected without being affected by an inappropriate part such as a dark part from the esophagus to the stomach boundary. An object of the present invention is to provide an image processing method capable of

本発明の画像処理方法は、生体粘膜を撮像した2色以上の画像に対応する画像信号を入力する第1のステップと、
前記画像における検出対象に不適切な画素を除外する処理対象領域を設定する第2のステップと、
少なくとも前記処理対象領域における略各画素ごとに色調特徴量を算出する第3のステップと、
前記算出された色調特徴量に基づき、特定の生体粘膜の存在を検出する第4のステップと、
を具備することを特徴とする。
上記ステップ構成により、暗部等の検出対象に不適切な画素を除外することにより、検出対象となる特定の生体粘膜の存在の検出をより精度良く行うことができるようにしている。
The image processing method of the present invention includes a first step of inputting an image signal corresponding to an image of two or more colors obtained by imaging a biological mucous membrane,
A second step of setting a processing target region to exclude pixels inappropriate for the detection target in the image;
A third step of calculating a tone characteristic amount for each of the pixels in at least the processing target region;
A fourth step of detecting the presence of a specific biological mucous membrane based on the calculated color tone feature amount;
It is characterized by comprising.
With the above step configuration, by excluding pixels inappropriate for the detection target such as a dark part, the presence of a specific biological mucous membrane to be detected can be detected with higher accuracy.

本発明によれば、暗部等の検出対象に不適切な画素を除外することにより、検出対象の特定の生体粘膜の存在の検出をより精度良く行うことができる。   According to the present invention, it is possible to more accurately detect the presence of a specific biological mucous membrane as a detection target by excluding pixels inappropriate for the detection target such as a dark part.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1ないし図10は本発明の実施例1に係り、図1は本発明の実施例1の画像処理方法の機能を備えた内視鏡システムの構成を示し、図2は実施例1の画像処理方法を実現するための処理機能及び使用する画像等を示し、図3は不要領域を削除する不要領域削除処理の処理内容を示し、図4は原画像及び不要領域削除画像等の画像例を示し、図5は領域ラベリングの処理内容を示す。
また、図6は粘膜特徴量算出の処理内容を示し、図7は第1変形例を備えた内視鏡システムの構成を示し、図8は第2変形例における画像処理方法を実現するための処理機能及び使用する画像等を示し、図9は矩形小領域に分けた画像例を示し、図10は第2変形例における粘膜特徴量算出の処理内容を示す。
1 to 10 relate to a first embodiment of the present invention, FIG. 1 shows a configuration of an endoscope system having a function of an image processing method of the first embodiment of the present invention, and FIG. 2 shows an image of the first embodiment. 3 shows processing functions for realizing the processing method, images to be used, etc., FIG. 3 shows processing contents of unnecessary area deletion processing for deleting unnecessary areas, and FIG. 4 shows image examples such as original images and unnecessary area deleted images. FIG. 5 shows the processing contents of region labeling.
FIG. 6 shows the processing contents of the mucous membrane feature quantity calculation, FIG. 7 shows the configuration of the endoscope system provided with the first modification, and FIG. 8 is for realizing the image processing method in the second modification. FIG. 9 shows an example of an image divided into rectangular small areas, and FIG. 10 shows the processing contents of mucous membrane feature amount calculation in the second modified example.

図1に示す内視鏡システム1は、内視鏡観察装置2と、この内視鏡観察装置2により得られた画像に対して画像処理を行うパーソナルコンピュータ等により構成される画像処理装置3と、この画像処理装置3により画像処理された画像を表示する表示モニタ4とから構成される。
内視鏡観察装置2は、体腔内に挿入される内視鏡6と、この内視鏡6に照明光を供給する光源装置7と、内視鏡6の撮像手段に対する信号処理を行うカメラコントロールユニット(CCUと略記)8と、このCCU8から出力される映像信号が入力されることにより、撮像素子で撮像した内視鏡画像を表示するモニタ9とを有する。
内視鏡6は、体腔内に挿入される挿入部11とこの挿入部11の後端に設けられた操作部12とを有する。また挿入部11内には照明光を伝送するライトガイド13が挿通されている。
An endoscope system 1 shown in FIG. 1 includes an endoscope observation apparatus 2 and an image processing apparatus 3 including a personal computer that performs image processing on an image obtained by the endoscope observation apparatus 2. And a display monitor 4 for displaying an image processed by the image processing device 3.
The endoscope observation apparatus 2 includes an endoscope 6 that is inserted into a body cavity, a light source device 7 that supplies illumination light to the endoscope 6, and a camera control that performs signal processing on an imaging unit of the endoscope 6. A unit (abbreviated as CCU) 8 and a monitor 9 for displaying an endoscopic image picked up by an image pickup device when a video signal output from the CCU 8 is input.
The endoscope 6 includes an insertion portion 11 that is inserted into a body cavity and an operation portion 12 that is provided at the rear end of the insertion portion 11. A light guide 13 that transmits illumination light is inserted into the insertion portion 11.

このライトガイド13の後端は、光源装置7に接続される。そして、この光源装置7から供給される照明光をライトガイド13により伝送し、挿入部11の先端部14に設けた照明窓に取り付けられた先端面から(伝送した照明光を)出射し、患部等の被写体を照明する。
照明窓に隣接する観察窓に取り付けた対物レンズ15と、この対物レンズ15の結像位置に配置された固体撮像素子しての例えば電荷結合素子(CCDと略記)16とにより撮像装置17が設けてある。そして、このCCD16の撮像面に結像された光学像は、このCCD16により光電変換される。
このCCD16は、信号線を介してCCU8と接続され、このCCU8からのCCD駆動信号が印加されることにより、CCD16は光電変換した画像信号を出力する。この画像信号は、CCU8内の映像処理回路により信号処理され、映像信号に変換される。この映像信号はモニタ9に出力され、モニタ9の表示面には、内視鏡画像が表示される。この映像信号(画像信号)は、画像処理装置3にも入力される。
The rear end of the light guide 13 is connected to the light source device 7. Then, the illumination light supplied from the light source device 7 is transmitted by the light guide 13 and emitted from the distal end surface attached to the illumination window provided at the distal end portion 14 of the insertion portion 11 (transmitted illumination light), and the affected part Illuminate the subject.
An imaging device 17 is provided by an objective lens 15 attached to an observation window adjacent to the illumination window and, for example, a charge coupled device (abbreviated as CCD) 16 serving as a solid-state imaging device disposed at an imaging position of the objective lens 15. It is. The optical image formed on the imaging surface of the CCD 16 is photoelectrically converted by the CCD 16.
The CCD 16 is connected to the CCU 8 via a signal line, and the CCD 16 outputs a photoelectrically converted image signal when a CCD drive signal from the CCU 8 is applied. This image signal is signal-processed by a video processing circuit in the CCU 8 and converted into a video signal. This video signal is output to the monitor 9, and an endoscopic image is displayed on the display surface of the monitor 9. This video signal (image signal) is also input to the image processing device 3.

本実施例では、内視鏡6は、口部からその挿入部11の先端部14が挿入され、食道から胃の境界付近まで挿入されて、その境界付近に検出対象粘膜となる特定の生体粘膜として、バレット上皮が存在するか否かの内視鏡検査を行うような場合に使用される。
この場合、内視鏡画像に対応する映像信号は、画像処理装置3にも入力され、その映像信号に対して以下に説明するような画像処理方法により、バレット上皮が存在するか否かの検出(判定)処理を行う。
In this embodiment, the endoscope 6 is inserted into the distal end portion 14 of the insertion portion 11 from the mouth, inserted from the esophagus to the vicinity of the stomach boundary, and a specific biological mucosa serving as a detection target mucosa in the vicinity of the boundary. It is used when performing endoscopy to determine whether or not the Barrett epithelium is present.
In this case, the video signal corresponding to the endoscopic image is also input to the image processing apparatus 3, and detection of whether or not the Barrett epithelium exists is performed on the video signal by an image processing method as described below. (Decision) Processing is performed.

この画像処理装置3は、内視鏡観察装置2から入力される内視鏡画像に対応する映像信号が入力される画像入力部21と、この画像入力部21から入力された画像データに対する画像処理を行う中央演算処理装置としてのCPU22と、このCPU22により画像処理を実行させる処理プログラム(制御プログラム)を記憶する処理プログラム記憶部23とを有する。
また、この画像処理装置3は、画像入力部21から入力される画像データ等を記憶する画像記憶部24と、CPU22により処理された解析情報等を記憶する解析情報記憶部25と、CPU22により処理された画像データ及び解析情報等を記憶装置インタフェース26を介して記憶する記憶装置としてのハードディスク27と、CPU22により処理された画像データ等を表示するための表示処理を行う表示処理部28と、ユーザが画像処理のパラメータ等のデータ入力や指示操作を行うキーボードなどからなる入力操作部29とを有する。
The image processing device 3 includes an image input unit 21 to which a video signal corresponding to an endoscopic image input from the endoscope observation device 2 is input, and image processing for image data input from the image input unit 21. CPU 22 as a central processing unit for performing the processing, and a processing program storage unit 23 for storing a processing program (control program) that causes the CPU 22 to execute image processing.
In addition, the image processing apparatus 3 includes an image storage unit 24 that stores image data input from the image input unit 21, an analysis information storage unit 25 that stores analysis information processed by the CPU 22, and a process performed by the CPU 22. A hard disk 27 serving as a storage device for storing the image data and analysis information, etc., stored via the storage device interface 26, a display processing unit 28 for performing display processing for displaying the image data and the like processed by the CPU 22, and a user Includes an input operation unit 29 including a keyboard for inputting data such as image processing parameters and performing an instruction operation.

そして、この表示処理部28により生成された映像信号は、表示モニタ4に出力され、この表示モニタ4の表示面には画像処理された処理画像が表示される。なお、画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、解析情報記憶部25、記憶装置インタフェース26、表示処理部28、入力操作部29は、データバス30を介して互いに接続されている。
図2は、処理プログラム記憶部23に記憶された処理プログラムに従ってCPU22により、検出対象粘膜組織としてのバレット上皮の存在の検出をする画像処理を行う画像処理機能を示すブロック図を示す。
図1で示したようにCPU22は、画像処理を行うべき原画像31に対して、その原画像31から不要領域を削除して不要領域削除画像32を生成する不要領域削除部33と、この不要領域削除画像32に対して色調処理を行い、色調処理画像34を生成する色調処理部35との機能を有する。
The video signal generated by the display processing unit 28 is output to the display monitor 4, and a processed image subjected to image processing is displayed on the display surface of the display monitor 4. The image input unit 21, CPU 22, processing program storage unit 23, image storage unit 24, analysis information storage unit 25, storage device interface 26, display processing unit 28, and input operation unit 29 are connected to each other via a data bus 30. Has been.
FIG. 2 is a block diagram showing an image processing function for performing image processing for detecting the presence of a bullet epithelium as a detection target mucosal tissue by the CPU 22 in accordance with a processing program stored in the processing program storage unit 23.
As shown in FIG. 1, the CPU 22 deletes an unnecessary area from the original image 31 and generates an unnecessary area deleted image 32 for the original image 31 to be subjected to image processing, and the unnecessary area. It has a function with a color tone processing unit 35 that performs color tone processing on the region deleted image 32 and generates a color tone processed image 34.

また、このCPU22は、色調処理画像34に対して領域ラベリング処理を行い領域ラベリング画像36を生成する領域ラベリング処理部37と、この領域ラベリング画像36に対して粘膜特徴量を算出して、粘膜情報38を出力する粘膜特徴量算出部39との機能を有する。
CCU22から出力される映像信号は、内視鏡画像として画像入力部21に入力され、A/D変換及び線形補正を目的とする公知の技術である逆γ補正変換によりデジタルの原画像データとなり、処理プログラムに従ってCPU22は、以下の処理を行う。
まず、CPU22は、原画像データから不要領域を削除する不要領域削除処理を行う。この不要領域削除処理は、カラーの原画像データの画素値(R,G,B)に対して、粘膜組織種別の判定に不要な画素の画素値を(0,0,0)に置き換えて、不要領域が削除された不要領域削除画像32を生成する。不要領域とは、内視鏡画像内の暗部や高輝度のハレーション部分である。
In addition, the CPU 22 performs a region labeling process on the color tone processed image 34 to generate a region labeling image 36, and calculates a mucosal feature amount for the region labeling image 36 to obtain mucosal information. It has a function with the mucous membrane feature amount calculation unit 39 that outputs 38.
The video signal output from the CCU 22 is input to the image input unit 21 as an endoscopic image, and becomes digital original image data by inverse γ correction conversion which is a known technique for A / D conversion and linear correction, In accordance with the processing program, the CPU 22 performs the following processing.
First, the CPU 22 performs unnecessary area deletion processing for deleting unnecessary areas from the original image data. This unnecessary area deletion processing replaces the pixel values of pixels unnecessary for the determination of the mucosal tissue type with (0, 0, 0) for the pixel values (R, G, B) of the color original image data, An unnecessary area deleted image 32 from which unnecessary areas have been deleted is generated. The unnecessary area is a dark part or a high luminance halation part in the endoscopic image.

図4(A)は、原画像31の代表例を示す。
この不要領域削除処理を図3に示す。不要領域削除の処理がスタートすると、ステップS1に示すようにCPU22は、カラーの原画像データを構成する各画素に対してその画素値(R,G,B)が暗部の画素か否かの判定を行う。
つまり、CPU22は、暗部の画素か否かを判定するための閾値(或いは基準値)Rcut,Gcut,Bcutを用いて、R<RcutかつG<GcutかつB<Bcutである画素であるか否かの判定をする。ここで、閾値Rcut,Gcut,Bcutは、暗部の画素か否かを判定する比較的に輝度値が低い既定値であり、処理プログラムにて設定されている。
ステップS1において、暗部の画素に該当する画素があると、ステップS2に示すようにCPU22は、その画素の画素値(R,G,B)を画素値(0,0,0)に置換して次のステップS3に移る。
FIG. 4A shows a representative example of the original image 31.
This unnecessary area deletion processing is shown in FIG. When the unnecessary area deletion process starts, as shown in step S1, the CPU 22 determines whether or not the pixel values (R, G, B) of the pixels constituting the color original image data are dark pixels. I do.
That is, the CPU 22 uses the threshold values (or reference values) Rcut, Gcut, and Bcut for determining whether or not the pixel is a dark pixel, and determines whether or not the pixel is R <Rcut, G <Gcut, and B <Bcut. Judgment. Here, the threshold values Rcut, Gcut, and Bcut are predetermined values that have a relatively low luminance value for determining whether or not the pixel is a dark portion, and are set in the processing program.
In step S1, if there is a pixel corresponding to a dark pixel, the CPU 22 replaces the pixel value (R, G, B) of the pixel with the pixel value (0, 0, 0) as shown in step S2. Move on to the next step S3.

また、ステップS1において、暗部に該当する画素が無い場合にも、ステップS3に移る。
ステップS3においては、CPU22は、カラーの原画像データを構成する各画素に対してその画素値(R,G,B)がハレーションの画素か否かの判定を行う。
つまり、CPU22は、ハレーションの画素か否かを判定するための閾値Rhal,Ghal,Bhalを用いて、R>RhalかつG>GhalかつB>Bhalである画素であるか否かの判定をする。ここで、閾値Rhal,Ghal,Bhalは、ハレーションの画素か否かを判定する比較的に輝度値が高い既定値であり、処理プログラムにて設定されている。
なお、術者等のユーザが、入力操作部29から暗部の閾値Rcut,Gcut,Bcutやハレーションの閾値Rhal,Ghal,Bhalを変更することもできる。
In step S1, if there is no pixel corresponding to the dark part, the process proceeds to step S3.
In step S3, the CPU 22 determines whether or not the pixel value (R, G, B) is a halation pixel for each pixel constituting the color original image data.
That is, the CPU 22 determines whether or not the pixel is R> Rhal, G> Ghal, and B> Bhal using threshold values Rhal, Ghal, and Bhal for determining whether or not the pixel is a halation pixel. Here, the threshold values Rhal, Ghal, and Bhal are predetermined values that have relatively high luminance values for determining whether or not the pixel is a halation pixel, and are set in the processing program.
A user such as an operator can also change the dark threshold values Rcut, Gcut, Bcut and the halation threshold values Rhal, Ghal, Bhal from the input operation unit 29.

ステップS3において、ハレーションに該当する画素があると、ステップS4に示すようにCPU22は、その画素の画素値(R,G,B)を画素値(0,0,0)に置換してこの不要領域削除の処理を終了する。また、ステップS3において、ハレーションに該当する画素が無い場合にも、この不要領域削除の処理を終了する。
そして、この図3の不要領域削除の処理を終了すると、不要領域が削除された不要領域削除画像32が生成される。図4(B)は、図4(A)の原画像31に対して不要領域削除の処理の終了後に生成される不要領域削除画像32の具体例を示す。
次に、色調処理部35は、不要領域削除画像32の各画素に対して、画素値に基づく色調特徴量を算出する。
ただし、図3の処理で不要領域とされた画素値(0,0,0)の画素に対しては、色調処理部35は、色調特徴量の算出処理を行わない。
If there is a pixel corresponding to halation in step S3, the CPU 22 replaces the pixel value (R, G, B) of the pixel with the pixel value (0, 0, 0) as shown in step S4. The area deletion process ends. Also, in step S3, if there is no pixel corresponding to halation, the unnecessary area deletion process is terminated.
When the unnecessary area deletion process of FIG. 3 is completed, an unnecessary area deleted image 32 from which the unnecessary area has been deleted is generated. FIG. 4B shows a specific example of the unnecessary area deleted image 32 generated after the unnecessary area deletion processing is completed for the original image 31 of FIG.
Next, the color tone processing unit 35 calculates a color tone feature amount based on the pixel value for each pixel of the unnecessary region deleted image 32.
However, the color tone processing unit 35 does not perform the calculation process of the color tone feature amount for the pixel having the pixel value (0, 0, 0) which is determined as an unnecessary area in the processing of FIG.

色調特徴量として、公知の技術で用いられている血流との相関の高いヘモグロビン(Hbと略記)インデックス、つまりHbindex(IHbと略記)を使用する。このIHbは、内視鏡画像上の各画素毎の輝度信号Vg(ヘモグロビンに最も吸収される560nm付近の光を反映するG信号)と、輝度信号Vr(ヘモグロビンによる修飾の少ない650nm付近の光を反映するR信号)を抽出し、2つの比を対数変換した値、つまり、計算式:log(R/G)を使用する。この処理を図3において、ステップS5により示している。
算出されたIHbによる色調特徴量は、原画像の画素と同じ位置に、画素値として格納される。例えば、画像記憶部24或いは解析情報記憶部25に記憶される。このようにして、色調処理画像34が生成される。図4(C)は、図4(B)の不要領域削除画像32に対して色調特徴量の算出処理が行われた後の色調処理画像34の例を示す。なお、図4(C)は、例えば擬似カラー化した画像で表示される。
As the color tone feature amount, a hemoglobin (abbreviated as Hb) index having a high correlation with blood flow, which is used in a known technique, that is, Hbindex (abbreviated as IHb) is used. This IHb is a luminance signal Vg for each pixel on the endoscopic image (G signal reflecting light near 560 nm that is most absorbed by hemoglobin) and a luminance signal Vr (light near 650 nm that is less modified by hemoglobin). (R signal to be reflected) is extracted, and a value obtained by logarithmically converting the two ratios, that is, a calculation formula: log 2 (R / G) is used. This process is shown by step S5 in FIG.
The calculated color feature value by IHb is stored as a pixel value at the same position as the pixel of the original image. For example, it is stored in the image storage unit 24 or the analysis information storage unit 25. In this way, the color tone processed image 34 is generated. FIG. 4C shows an example of the color tone processed image 34 after the color tone feature amount calculation processing is performed on the unnecessary area deleted image 32 of FIG. 4B. Note that FIG. 4C is displayed as a pseudo-colored image, for example.

この場合、色調処理画像34におけるIHbが所定の閾値θより高い場合には、その撮像対象の画像は、バレット上皮(バレット粘膜)を含むものである可能性が高い。
次に色調処理画像34に対して、領域ラベリング処理部37は、後述する処理フローに基づき、領域ラベリング画像36を生成する。
領域ラベリング画像は、撮像対象の画素位置における上皮種別を格納したラベリング画像である。本実施例では、画像位置の撮像対象が正常粘膜の扁平上皮である場合に1を、性状の変化した変性粘膜としてのバレット上皮である場合には2を、不要領域である場合には0を格納するように設定している。
次に、領域ラベリングの処理フローを図5を参照して説明する。
In this case, when IHb in the color tone processed image 34 is higher than the predetermined threshold value θ, the image to be imaged is highly likely to include Barrett epithelium (Barrett mucosa).
Next, with respect to the color tone processed image 34, the region labeling processing unit 37 generates a region labeling image 36 based on a processing flow described later.
The region labeling image is a labeling image that stores the type of epithelium at the pixel position to be imaged. In this embodiment, 1 is set when the imaging target at the image position is a squamous epithelium of a normal mucosa, 2 is set when it is a Barrett epithelium as a denatured mucosa having changed properties, and 0 is set when it is an unnecessary region. It is set to store.
Next, the process flow of area labeling will be described with reference to FIG.

領域ラベリングの処理フローがスタートすると、CPU22は、最初のS11において、色調処理画像34から、ラベリング未処理の画素の画素値Cを取得する。
次のS12において、CPU22は、画素値Cが0か否かの判定を行う。そして、画素値Cが0でない判定した場合には、次のステップS13に進み、逆に画素値Cが0であると判定した場合には、S16に移る。
ステップS13においては、CPU22は、処理プログラムに従って、所定の閾値θと前述の画素値Cの大小を判定する。そして、この判定結果が、C>θであれば、次のステップS14に進む。一方、ステップS13の判定において、C≦θであれば、ステップS15に進む。なお、正常粘膜と、変性粘膜としてのバレット上皮から予めサンプルしたIHbのサンプルデータからその判定分類を行う閾値θが設定される。
ステップS14においては、CPU22は、領域ラベリング画像の対応画素値を2に設定してステップS17に進む。ステップS15においては、CPU22は、領域ラベリング画像の対応画素を1に設定してステップS17に進む。
When the process flow of area labeling starts, the CPU 22 acquires the pixel value C of the unprocessed pixel from the color tone processed image 34 in the first S11.
In the next S12, the CPU 22 determines whether or not the pixel value C is zero. If it is determined that the pixel value C is not 0, the process proceeds to the next step S13. Conversely, if it is determined that the pixel value C is 0, the process proceeds to S16.
In step S13, the CPU 22 determines the magnitude of the predetermined threshold value θ and the pixel value C described above according to the processing program. If the determination result is C> θ, the process proceeds to the next step S14. On the other hand, if it is determined in step S13 that C ≦ θ, the process proceeds to step S15. Note that a threshold value θ for performing the determination classification is set from the sample data of IHb sampled in advance from the normal mucosa and the Barrett epithelium as the denatured mucosa.
In step S14, the CPU 22 sets the corresponding pixel value of the area labeling image to 2 and proceeds to step S17. In step S15, the CPU 22 sets the corresponding pixel of the area labeling image to 1, and proceeds to step S17.

また、ステップS16においては、CPU22は、領域ラベリング画像の応画素値を0に設定して、ステップS17に進む。
ステップS17においては、CPU22は、ラベリング未処理の画素があるかの判定を行い、ラベリング未処理の画素があればステップS11に戻り、ラベリング未処理の画素が無ければ、この領域ラベリングの処理を終了する。
このようにして、領域ラベリングの処理により、色調処理画像34の各画素は、画素値0、1、又は2にラベリングされた領域ラベリング画像36が生成される。図4(D)は領域ラベリング画像36の例を示す。
次に、粘膜特徴量算出部39は、領域ラベリング画像36に対して各種の上皮の粘膜特徴量の算出をする。
本実施例では、各上皮の粘膜種別毎の画素数、公知の境界線追跡アルゴリズムに基づく領域ラベリング画像の境界画素点列、上皮の粘膜種別の画素数比(バレット上皮の画素数/扁平上皮の画素数)、を求めて、上皮の粘膜情報として保存する。
In step S16, the CPU 22 sets the response pixel value of the area labeling image to 0, and proceeds to step S17.
In step S17, the CPU 22 determines whether or not there is an unprocessed pixel. If there is an unprocessed pixel, the process returns to step S11. If there is no unlabeled pixel, the region labeling process ends. To do.
In this way, by the region labeling process, the region labeling image 36 in which each pixel of the color tone processed image 34 is labeled with the pixel value 0, 1, or 2 is generated. FIG. 4D shows an example of the region labeling image 36.
Next, the mucous membrane feature quantity calculation unit 39 calculates various epithelial mucosal feature quantities for the region labeling image 36.
In this embodiment, the number of pixels of each epithelial mucosa type, the boundary pixel point sequence of the region labeling image based on a known boundary line tracking algorithm, the pixel number ratio of the epithelial mucosa type (number of pixels of Barrett epithelium / squamous epithelium) The number of pixels) is obtained and stored as epithelial mucosa information.

また粘膜特徴量算出部39は、前述の上皮の粘膜種別の画素数比と、既定の閾値τとを比較して、バレット上皮の有無を判定して、判定結果を上皮の粘膜情報として保存する。 この場合、上皮の粘膜種別の画素数比≧τであるときに、画像中にバレット上皮が存在する、と判定する。
一方、上皮の粘膜種別の画素数比<τであるときに、画像中にバレット上皮が存在しない、と判定する。
図6は、粘膜特徴量算出部39によるバレット上皮の判定処理を示す。
ステップS21に示すようにCPU22は、扁平上皮とラベリングした画素値1の画素数N1と、バレット上皮とラベリングした画素値2の画素数N2を計数して算出する。 次のステップS22において、CPU22は、バレット上皮の有無を判定するための閾値τを用いて、上皮の粘膜種別の画素数比N2/N1がN2/N1≧τか否かを判定する。
そして、ステップS22の判定結果により、N2/N1≧τの条件を満たす場合には、ステップS23に示すように、CPU22は、上記原画像中にバレット上皮が存在すると判定し、その結果をハードディスク27等に保存する。
The mucous membrane feature quantity calculation unit 39 compares the pixel number ratio of the above-mentioned epithelial mucosa type with a predetermined threshold value τ, determines the presence or absence of the Barrett epithelium, and stores the determination result as epithelial mucosa information. . In this case, it is determined that the Barrett epithelium is present in the image when the pixel number ratio of the epithelial mucosa is ≧ τ.
On the other hand, when the pixel number ratio of the epithelial mucosa type is smaller than τ, it is determined that there is no Barrett epithelium in the image.
FIG. 6 shows the determination process of the bullet epithelium by the mucous membrane feature quantity calculation unit 39.
As shown in step S21, the CPU 22 counts and calculates the number of pixels N1 of the pixel value 1 labeled with the squamous epithelium and the number of pixels N2 of the pixel value 2 labeled with the bullet epithelium. In the next step S22, the CPU 22 determines whether or not the pixel number ratio N2 / N1 of the epithelial mucosa type is N2 / N1 ≧ τ using the threshold value τ for determining the presence or absence of the bullet epithelium.
If the condition of N2 / N1 ≧ τ is satisfied according to the determination result of step S22, as shown in step S23, the CPU 22 determines that the bullet epithelium is present in the original image, and the result is stored in the hard disk 27. Save to etc.

一方、ステップS22の判定結果により、N2/N1<τの場合には、ステップS24に示すように、CPU22は、上記原画像中にバレット上皮が存在しないと判定し、その結果をハードディスク27等に保存する。
ステップS23及びステップS24の後、ステップS25に移り、CPU22は判定結果を表示処理部28を介して表示モニタ4に送り、表示モニタ4の表示面に判定結果を表示する。そして、この処理を終了する。
なお、上述の説明では、上皮の粘膜種別の画素数比N2/N1を用いているが、この画素数比N2/N1の代わりにN2/(N1+N2)を採用しても良い。この場合には、N2/N1≧τの判定条件は、N2/(N1+N2)≧(τ+1)となる。つまり、処理対象領域内の画素総数(N1+N2)を用いても、同じように判定できることになる。
On the other hand, if N2 / N1 <τ based on the determination result in step S22, as shown in step S24, the CPU 22 determines that there is no Barrett epithelium in the original image, and stores the result in the hard disk 27 or the like. save.
After step S23 and step S24, the process proceeds to step S25, where the CPU 22 sends the determination result to the display monitor 4 via the display processing unit 28, and displays the determination result on the display surface of the display monitor 4. Then, this process ends.
In the above description, the pixel number ratio N2 / N1 of the epithelial mucosa type is used, but N2 / (N1 + N2) may be used instead of the pixel number ratio N2 / N1. In this case, the determination condition of N2 / N1 ≧ τ is N2 / (N1 + N2) ≧ (τ + 1). That is, even if the total number of pixels (N1 + N2) in the processing target area is used, the same determination can be made.

このように本実施例によれば、画像中に検出対象となる特定の生体粘膜としてのバレット上皮が存在するか否かを画像解析により判定するため、主観判断によらないバレット上皮の早期発見がし易くなる。また、判定結果を表示することにより、術者によりその画像中にバレット上皮が存在する可能性の高いことを告知できるので、術者は、より効率良く変性部か否かの診断を行うことができる。
なお、領域ラベリング画像に対して、ノイズ除去を目的として、公知の技術である膨張、収縮処理を、領域ラベリング処理部37による処理直後に実施してもよい。なお、本発明の実施例においては、色調特徴量としてIHbを用いたが、例えばR/G、R/(R+G+B)等、他の特徴量を使用しても良い。また、例えばIHS色空間における色相、彩度を用いることも可能である。
図7は第1変形例の内視鏡システム1Bにおける主要部の構成を示す。この内視鏡システム1Bは、図1の内視鏡シテム1において、内視鏡観察装置2を構成する内視鏡6における例えば挿入部11の基端側には、挿入部11が体腔内に挿入される挿入量を検出する挿入量検出装置41を設けている。この挿入量検出装置41は、検出された挿入量の情報を画像処理装置3の例えばCPU22に送る。
挿入量検出装置41は、挿入部11の外周面に回動自在に接触する複数のローラ42と、これらのローラ42の1つの回転軸に取り付けられ、回転量を検出するロータリエンコーダ等の回転量検出センサ43とを備えている。
As described above, according to the present embodiment, since it is determined by image analysis whether the Barrett epithelium as a specific biological mucous membrane to be detected exists in the image, early detection of the Barrett epithelium without subjective judgment is possible. It becomes easy to do. Also, by displaying the determination result, it is possible for the surgeon to notify that there is a high possibility that Barrett epithelium is present in the image, so the surgeon can more efficiently diagnose whether it is a degenerative part or not. it can.
Note that, for the purpose of noise removal, the region labeling image may be subjected to expansion and contraction processing, which is a known technique, immediately after processing by the region labeling processing unit 37. In the embodiment of the present invention, IHb is used as the color tone feature quantity, but other feature quantities such as R / G, R / (R + G + B) may be used. Further, for example, the hue and saturation in the IHS color space can be used.
FIG. 7 shows a configuration of a main part in the endoscope system 1B of the first modification. In the endoscope system 1B, in the endoscope system 1 shown in FIG. 1, the insertion portion 11 is inserted into the body cavity, for example, at the proximal end side of the insertion portion 11 in the endoscope 6 constituting the endoscope observation apparatus 2. An insertion amount detection device 41 for detecting the insertion amount to be inserted is provided. The insertion amount detection device 41 sends information on the detected insertion amount to, for example, the CPU 22 of the image processing device 3.
The insertion amount detection device 41 includes a plurality of rollers 42 that rotatably contact the outer peripheral surface of the insertion portion 11 and a rotation amount of a rotary encoder or the like that is attached to one rotation shaft of these rollers 42 and detects the rotation amount. And a detection sensor 43.

そして、この回転量検出センサ43により検出された信号は、画像処理装置3内の例えばCPU22に入力され、CPU22は、挿入量の情報から、撮像された画像が検出対象の部位を含む画像であるか否かの判定を行う。つまり、CPU22は、挿入量の情報から、撮像された画像が検出対象の部位を含む画像であるか否かの判定を行う検出対象画像判定部22aの機能を持つ。
この場合、内視鏡6の挿入部11が患者の口部から挿入された場合、挿入時の回転量検出センサ43の値から食道の深部側に挿入された場合の先端部14の位置を検出することができる。
また、CCD16を含む撮像装置17の撮像特性等により、上述した画像処理方法で判定できる解像度以上の画像を撮像したものであるか否かも、検出対象の部位を含む画像であるかの判定する条件に入れて判定する。
Then, the signal detected by the rotation amount detection sensor 43 is input to, for example, the CPU 22 in the image processing apparatus 3, and the CPU 22 is an image in which the captured image includes the portion to be detected from the information on the insertion amount. It is determined whether or not. That is, the CPU 22 has a function of a detection target image determination unit 22a that determines whether or not a captured image is an image including a detection target part from the information on the insertion amount.
In this case, when the insertion portion 11 of the endoscope 6 is inserted from the mouth of the patient, the position of the distal end portion 14 when it is inserted deep in the esophagus is detected from the value of the rotation amount detection sensor 43 at the time of insertion. can do.
Also, a condition for determining whether an image having a resolution higher than the resolution that can be determined by the above-described image processing method or an image including a part to be detected is determined by the imaging characteristics of the imaging device 17 including the CCD 16. And put it in

つまり、遠方から、検出対象の部位を含む画像を得られる場合もあるが、遠方の部分において画像解析に不十分な解像度と見なされたり、照明光量も十分となり得ないような場合には、検出対象の部位を含む画像と判定しないようにしている。
内視鏡6のCCDにより撮像された画像は、CCU8により信号処理された後、画像処理装置3の画像入力部21に常時入力される。その画像は、ハードディスク27等に順次格納される。
この場合、CPU22は、挿入量の情報を、ハードディスク27等に順次格納される画像に付帯情報として保存する。或いはCPU22は、挿入量の情報から、撮像された画像が検出対象の部位を含む画像であるか否かの判定を行った判定情報(識別情報)を付帯情報として保存するようにしても良い。
In other words, there are cases where an image including the part to be detected can be obtained from a distance, but if the distant portion is regarded as insufficient resolution for image analysis or the amount of illumination light cannot be sufficient, detection is possible. The image is not determined to include the target part.
An image picked up by the CCD of the endoscope 6 is subjected to signal processing by the CCU 8 and then always inputted to the image input unit 21 of the image processing device 3. The images are sequentially stored in the hard disk 27 or the like.
In this case, the CPU 22 saves information on the amount of insertion as supplementary information in images that are sequentially stored in the hard disk 27 or the like. Alternatively, the CPU 22 may store determination information (identification information) for determining whether or not the captured image is an image including a portion to be detected from the information on the insertion amount as supplementary information.

そして、CCU22は、判定情報から判定対象の部位を含む画像に対して、上述した実施例1の場合と同様に不要領域削除処理等を行う。つまり、本変形例は、実施例1における画像解析される原画像が、判定情報により自動的に検出対象と判定された選択画像となる。
従って、本変形例によれば、画像解析される画像が、予め設定された条件に客観的に適合する画像に制限されるので、より客観的な判定結果を得ることができる。
また、検出対象となる画像を挿入量検出装置41等を用いて適切に検出或いは選択設定できるので、検出対象でない部位を撮像した不要な画像に対しても画像処理を行ってしまうことを低減できる。
また、検出対象となる部位を撮像している画像であっても、撮像装置17から遠方にある場合には、画像解析による精度が不十分になるが、本変形例によれば、撮像装置17の特性も考慮して所定距離以上に離れている場合には、検出対象の部位を撮像していないと判定条件を設定することにより、画像解析による精度を確保することができるようになる。
Then, the CCU 22 performs unnecessary area deletion processing and the like on the image including the determination target part from the determination information, as in the case of the first embodiment. That is, in this modification, the original image subjected to image analysis in the first embodiment is a selected image that is automatically determined as a detection target based on the determination information.
Therefore, according to the present modification, the image to be analyzed is limited to an image that objectively meets a preset condition, so that a more objective determination result can be obtained.
In addition, since an image to be detected can be appropriately detected or selected and set using the insertion amount detection device 41 or the like, it is possible to reduce image processing on an unnecessary image obtained by imaging a portion that is not the detection target. .
Moreover, even if an image is capturing an image of a region to be detected, if the image is far from the imaging device 17, the accuracy of image analysis is insufficient, but according to the present modification, the imaging device 17 In consideration of this characteristic, when the distance is more than a predetermined distance, the accuracy by image analysis can be ensured by setting the determination condition that the region to be detected is not imaged.

次に第2変形例を説明する。本変形例は、実施例1とは処理プログラムの一部が異なる。本変形例による処理プログラムに従って処理するCPU22Bの処理機能は、図8に示すようになっている。
図8に示す処理機能は、図2の処理機能において、領域ラベリング画像36に対して、矩形小領域分割処理群51を生成する矩形小領域分割処理部52を設けたことである。 この矩形小領域分割処理部52は、領域ラベリング画像36を分割して矩形小領域分割処理群51を生成する。
図9は、模式的に分割して生成された矩形小領域53の画像を示す。
図8に示すように矩形小領域分割処理部52は、領域ラベリング画像36に対して、矩形小領域分割処理群51を生成するときの矩形小領域分割処理群51に対して粘膜特徴量算出を適用するような構成にしている。
Next, a second modification will be described. This modification is different from the first embodiment in part of the processing program. The processing functions of the CPU 22B that processes in accordance with the processing program according to this modification are as shown in FIG.
The processing function shown in FIG. 8 is that a rectangular small area division processing unit 52 that generates a rectangular small area division processing group 51 is provided for the area labeling image 36 in the processing function of FIG. The rectangular small area division processing unit 52 divides the area labeling image 36 to generate a rectangular small area dividing processing group 51.
FIG. 9 shows an image of the rectangular small region 53 generated by being schematically divided.
As shown in FIG. 8, the rectangular small region division processing unit 52 performs mucous membrane feature amount calculation on the rectangular small region dividing processing group 51 when generating the rectangular small region dividing processing group 51 for the region labeling image 36. The configuration is applicable.

また、本変形例では、粘膜特徴量算出部39Bは、矩形小領域53ごとに粘膜情報38を算出するとともに、上皮の粘膜種別画素数比と、予め設定された既定の閾値τとを比較して、矩形小領域53の属性を決定する。
例えば、上皮の粘膜種別の画素数比≧τであるときに、矩形小領域の属性をバレット上皮とする。一方、上皮の粘膜種別の画素数比<τであるときに、矩形小領域の属性を扁平上皮とする。
また粘膜特徴量算出部39Bは、矩形小領域53において、決定された属性の数をカウントし、その属性比(バレット上皮の矩形小領域カウント数/扁平上皮の矩形小領域カウント数)と既定の閾値εとを比較する。
例えば、属性比≧εであるときに、バレット上皮が画像中に存在する、と判定する。一方、属性比<εであるときに、バレット上皮が画像中に存在しない、と判定する。
In the present modification, the mucous membrane feature quantity calculating unit 39B calculates the mucosal information 38 for each rectangular small region 53, and compares the mucosa type pixel number ratio of the epithelium with a preset threshold value τ. Thus, the attribute of the rectangular small area 53 is determined.
For example, when the pixel number ratio of the epithelial mucosa type is equal to or greater than τ, the attribute of the rectangular small region is set to the bullet epithelium. On the other hand, when the pixel number ratio of the epithelial mucosa type is smaller than τ, the attribute of the rectangular small region is set as the squamous epithelium.
In addition, the mucous membrane feature quantity calculation unit 39B counts the number of attributes determined in the rectangular small region 53, and the attribute ratio (the rectangular small region count number of Barrett's epithelium / the rectangular small region count number of the squamous epithelium) and a predetermined number. The threshold value ε is compared.
For example, when the attribute ratio ≧ ε, it is determined that the Barrett epithelium is present in the image. On the other hand, when the attribute ratio <ε, it is determined that the bullet epithelium does not exist in the image.

図10は、粘膜特徴量算出部39Bによる粘膜特徴量算出の処理フローを示す。
粘膜特徴量算出の処理がスタートすると、ステップS31に示すようにCPU22は、ラベリングによる各矩形小領域における画素値1の画素数n1と画素値2の画素数n2とを算出する。
次のステップS32においてCPU22は、これらの画素数比n2/n1が既定の閾値τ以上か否か否かを判定する。つまり、CPU22は、n2/n1≧τであるか否かを判定する。そして、この条件を満たす場合には、ステップS33に示すようにCPU22は、その条件を満たす矩形小領域の属性をバレット上皮と設定する。
一方、n2/n1≧τの条件を満たさない場合には、ステップS34に示すようにCPU22は、その矩形小領域の属性を扁平上皮と設定する。
FIG. 10 shows a processing flow of mucous membrane feature amount calculation by the mucous membrane feature amount calculation unit 39B.
When the mucous membrane feature amount calculation process starts, as shown in step S31, the CPU 22 calculates the pixel number n1 of the pixel value 1 and the pixel number n2 of the pixel value 2 in each rectangular small region by labeling.
In the next step S32, the CPU 22 determines whether or not the pixel number ratio n2 / n1 is equal to or greater than a predetermined threshold value τ. That is, the CPU 22 determines whether n2 / n1 ≧ τ. If this condition is satisfied, as shown in step S33, the CPU 22 sets the attribute of the rectangular small region that satisfies the condition as Barrett epithelium.
On the other hand, when the condition of n2 / n1 ≧ τ is not satisfied, the CPU 22 sets the attribute of the rectangular small region as squamous epithelium as shown in step S34.

ステップS33及びS34の処理の後、ステップS35においてCPU22は、未処理の矩形小領域があるかの判定を行い、未処理の矩形小領域がある場合には、ステップS31に戻り、ステップS31〜S35の処理を繰り返す。
そして、全ての矩形小領域に対してステップS31〜S35の処理を行った後、ステップS36に示すようにバレット上皮の属性の矩形小領域の数m1と、扁平上皮の属性の矩形小領域の数m2を算出する。
次のステップS37においてCPU22は、これらの画素数比m2/m1が既定の閾値ε以上か否か否かを判定する。つまり、CPU22は、m2/m1≧εであるか否かを判定する。そして、この条件を満たす場合には、ステップS38に示すようにCPU22は、画像中にバレット上皮が存在すると判定し、その判定結果をハードディスク27に保存すると共に、表示モニタ4にて表示する。
After the processing in steps S33 and S34, in step S35, the CPU 22 determines whether or not there is an unprocessed rectangular small region. If there is an unprocessed rectangular small region, the process returns to step S31, and steps S31 to S35. Repeat the process.
Then, after performing the processing of steps S31 to S35 for all the rectangular small regions, as shown in step S36, the number m1 of the rectangular small regions with the attribute of the bullet epithelium and the number of the rectangular small regions with the attribute of the squamous epithelium. m2 is calculated.
In the next step S37, the CPU 22 determines whether or not the pixel number ratio m2 / m1 is equal to or greater than a predetermined threshold value ε. That is, the CPU 22 determines whether m2 / m1 ≧ ε. If this condition is satisfied, as shown in step S38, the CPU 22 determines that there is a bullet epithelium in the image, stores the determination result in the hard disk 27, and displays it on the display monitor 4.

一方、m2/m1≧εの条件を満たさない場合には、ステップS39に示すようにCPU22は、その画像中にバレット上皮が存在すると判定し、その判定結果をハードディスク27に保存すると共に、表示モニタ4にて表示する。
本変形例によれば、画像を或程度の大きさを持つ小領域に区分けして、各小領域においてその小領域内の画素毎に検出対象粘膜としてのバレット上皮の可能性を持つ領域か否かを判定し、さらにそれらの判定結果からバレット上皮か否かを判定するようにしているので、より精度良く検出対象粘膜か否かを判定できる。
つまり、実施例1では、画像全体における各画素に対して検出対象粘膜の可能性か否かのラベリングを行い、そのラベリング結果による種別の画素数比によりバレット上皮を含むか否かの判定を行うため、ある部分の判定結果に対して、近くの部分でも離れた部分でも同じように判定結果に反映される。
これに対して、本変形例では、小領域に分けて判定を行うようにしているので、各部分での判定をより適切に行うことができるようになるため、最終的な判定結果の信頼性を向上できる。
On the other hand, if the condition of m2 / m1 ≧ ε is not satisfied, the CPU 22 determines that the bullet epithelium exists in the image as shown in step S39, stores the determination result in the hard disk 27, and displays the display monitor. 4 is displayed.
According to this modification, the image is divided into small areas having a certain size, and each small area is a region having a possibility of Barrett epithelium as a detection target mucous membrane for each pixel in the small region. Since it is determined whether or not it is a Barrett epithelium from those determination results, it can be more accurately determined whether or not it is a detection target mucosa.
That is, in the first embodiment, each pixel in the entire image is labeled as to whether or not it is a mucous membrane to be detected, and whether or not a bullet epithelium is included is determined based on the ratio of the number of types of pixels based on the labeling result. Therefore, the determination result of a certain part is reflected in the determination result in the same way, whether it is a nearby part or a distant part.
On the other hand, in this modified example, since the determination is performed by dividing into small regions, the determination in each part can be performed more appropriately, so the reliability of the final determination result Can be improved.

次に図11ないし図13を参照して実施例2を説明する。図11は、実施例2における処理プログラムに基づいてCPU22により行われる機能的な処理内容を示す。本実施例は、図1に示した画像処理装置3とハードウエア上の構成は同じであり、処理プログラム記憶部23に記憶されている処理プログラムが一部異なる。
本実施例では、原画像を例えば動画像として、動画像の各フレームの画像を順次画像処理するようにしたものである。
このため、実施例1において説明したものは、同じ符号で示し、その説明を省略する。 図11に示すように本実施例は、図2の処理プログラムにおいて、領域ラベリング画像36に対して粘膜特徴量を算出する粘膜特徴量算出部39の代わりに、粘膜特徴量を算出処理を行う粘膜特徴量処理部60にして、この粘膜特徴量処理部60により、領域ラベリング画像36に対して、各種の粘膜特徴量を算出して、粘膜情報バッファ61に順次保存する。
Next, Embodiment 2 will be described with reference to FIGS. FIG. 11 shows functional processing contents performed by the CPU 22 based on the processing program in the second embodiment. In this embodiment, the hardware configuration is the same as that of the image processing apparatus 3 shown in FIG. 1, and the processing program stored in the processing program storage unit 23 is partially different.
In this embodiment, the original image is used as a moving image, for example, and the image of each frame of the moving image is sequentially processed.
For this reason, what was demonstrated in Example 1 is shown with the same code | symbol, and the description is abbreviate | omitted. As shown in FIG. 11, in this embodiment, in the processing program of FIG. 2, the mucous membrane feature amount calculation processing is performed instead of the mucosal feature amount calculation unit 39 that calculates the mucous membrane feature amount for the region labeling image 36. The feature amount processing unit 60 calculates various types of mucosal feature amounts for the region labeling image 36 by the mucosal feature amount processing unit 60 and sequentially stores them in the mucous membrane information buffer 61.

粘膜情報バッファ61は、図12に示すようなリングバッファになっており、次回保存する際のバッファの位置が周回するため、所定数以上の粘膜情報が生成されると、以前の情報に上書きして保存する構成にしている。図12の例では、例えば時系列的に粘膜情報62a、62b、62c、62dと順次粘膜情報が格納される。そして、次に粘膜情報が入力されると、最も古い粘膜情報62aに新しい粘膜情報が上書きされる。なお、図12では、粘膜情報62a〜62dの4個の場合で示しているが、より大きな記憶容量を有するリングバッファにしても良い。
粘膜特徴量処理部60は、領域ラベリング画像36の各上皮種別の画素数比から、当該画像におけるバレット上皮の有無を判定して、判定結果を粘膜情報62として粘膜情報バッファ61に保存するように構成されている。
The mucous membrane information buffer 61 is a ring buffer as shown in FIG. 12, and the position of the buffer for the next saving is circulated, so when a predetermined number of mucosal information is generated, the previous information is overwritten. To save. In the example of FIG. 12, for example, the mucosa information 62a, 62b, 62c, 62d and the mucosa information are sequentially stored in time series. Then, when mucosal information is input next, the newest mucosal information is overwritten on the oldest mucosal information 62a. In FIG. 12, although four cases of mucous membrane information 62a to 62d are shown, a ring buffer having a larger storage capacity may be used.
The mucous membrane feature quantity processing unit 60 determines the presence or absence of a bullet epithelium in the image from the pixel number ratio of each epithelial type in the region labeling image 36, and stores the determination result in the mucosal information buffer 61 as the mucosal information 62. It is configured.

粘膜情報バッファ61の粘膜情報62は、粘膜種別決定部63により粘膜種別が決定される。
粘膜種別決定部63における処理フローを図13に示す。
最初のステップS41においてCPU22は、粘膜情報バッファ61に保存されている全ての粘膜情報62を取得する。
次のステップS42においてCPU22は、各粘膜情報62から、粘膜種別判定結果がバレット上皮である数をカウントし、そのカウント数をCとする。
次のステップS43においてCPU22は、処理プログラムにより設定されている既定の閾値θと前述のカウント数Cとの大小を比較する。つまり、C>θであるか否かを判定する。
In the mucosa information 62 of the mucosa information buffer 61, the mucosa type is determined by the mucosa type determination unit 63.
A processing flow in the mucous membrane type determining unit 63 is shown in FIG.
In the first step S41, the CPU 22 acquires all the mucosa information 62 stored in the mucosa information buffer 61.
In the next step S42, the CPU 22 counts the number of mucous membrane type determination results that are Barrett's epithelium from each mucous membrane information 62, and sets the count to C.
In the next step S43, the CPU 22 compares the predetermined threshold value θ set by the processing program with the count number C described above. That is, it is determined whether or not C> θ.

そして、C>θであるときには、ステップS44に示すようにCPU22は、原画像内にバレット上皮が存在すると判定する。
一方、C≦θであるときには、ステップS45に示すようにCPU22は、原画像内にバレット上皮が存在しないと判定する。
また、ステップS44及び45の後のステップS46においてCPU22は、判定結果を表示モニタ4に表示してこの処理を終了する。
なお、判定結果の他に、上記カウント数Cも表示モニタ4に表示するようにしても良い。
本実施例によれば、複数の画像に対する粘膜種別結果から粘膜種別を判定するため、観察条件の悪い画像による粘膜種別の誤判定を防止することが可能となる。
When C> θ, as shown in step S44, the CPU 22 determines that the bullet epithelium is present in the original image.
On the other hand, when C ≦ θ, as shown in step S45, the CPU 22 determines that there is no bullet epithelium in the original image.
In step S46 after steps S44 and 45, the CPU 22 displays the determination result on the display monitor 4 and ends this processing.
In addition to the determination result, the count number C may be displayed on the display monitor 4.
According to the present embodiment, since the mucous membrane type is determined from the mucosal type result for a plurality of images, it is possible to prevent erroneous determination of the mucous membrane type due to an image with poor observation conditions.

また、本実施例によれば、内視鏡2の挿入部11を挿入しながらその先端部14に設けた撮像手段により撮像された動画像を原画像として、バレット上皮が存在するか否かを順次判定できるので、術者は、その判定結果から効率良く(或いは迅速に)検出対象部位付近までの診断を行うことができる。
また、本実施例によれば、挿入部11をその先端側から挿入して食道内の深部側に挿入していくと、胃の境界付近にバレット上皮が存在するような場合には、バレット上皮が存在する判定結果が表示される確率が大きくなるため、その表示からバレット上皮の診断を効率良く行うことができる。
Further, according to the present embodiment, whether or not the Barrett epithelium exists is determined by using the moving image captured by the imaging means provided at the distal end portion 14 while inserting the insertion portion 11 of the endoscope 2 as an original image. Since the determination can be made sequentially, the surgeon can make a diagnosis from the determination result to the vicinity of the detection target site efficiently (or quickly).
Further, according to the present embodiment, when the insertion portion 11 is inserted from the distal end side and inserted into the deep side of the esophagus, the Barrett epithelium is present in the case where the Barrett epithelium is present near the boundary of the stomach. Since the probability of displaying a determination result in which there is an error increases, the diagnosis of Barrett's epithelium can be performed efficiently from the display.

また、上記のようにカウント数Cも表示モニタ4に表示するようにすれば、バレット上皮が存在する場合には、そのバレット上皮が存在する部位に近づくと一般的にカウント数Cの値が大きくなるため、その表示からバレット上皮の診断を効率良く行うことができる。
なお、動画像の各フレームを順次連続的に入力する代わりに、一定のフレーム間隔で原画像を入力するように構成してもよい。
また、粘膜特徴量処理部60において、領域ラベリング画像36に含まれる画素値=0の画素数が既定の閾値以上である場合には、粘膜情報62を保存しないように構成して、粘膜種別の決定に不適切な情報を保存しないように構成してもよい。
In addition, if the count number C is also displayed on the display monitor 4 as described above, when the bullet epithelium exists, the value of the count number C generally increases as it approaches the site where the bullet epithelium exists. Therefore, diagnosis of Barrett's epithelium can be efficiently performed from the display.
Instead of sequentially inputting each frame of the moving image sequentially, the original image may be input at a constant frame interval.
Further, the mucous membrane feature quantity processing unit 60 is configured not to store the mucosa information 62 when the number of pixels of the pixel value = 0 included in the region labeling image 36 is equal to or larger than a predetermined threshold, It may be configured not to store information inappropriate for the determination.

次に図14ないし図19を参照して実施例3を説明する。本実施例は、精度良く検出対象粘膜の存在の有無を検出(判定)できる画像処理方法を提供することを目的とし、そのために画像中における暗部のように検出対象に適しない小領域を検出して検出対象から除外すると共に、その検出結果から画像中における暗部の位置情報を参照して、さらに暗部に隣接して除外すべき小領域と判定したものをさらに検出対象から除外して、処理対象領域の画像を生成する処理を行う。
図14は、実施例3における処理プログラムに基づいてCPU22により行われる機能的な処理内容を示す。本実施例は、図1に示した画像処理装置3とハードウエア上の構成は同じであり、処理プログラム記憶部23に記憶されている処理プログラムが一部異なる。
本実施例における粘膜の種別判定処理は、図14(A)に示す処理プログラムAと、図14(B)に示す処理プログラムBを連続的に実行する構成である。処理プログラムBは、処理プログラムAの結果である処理対象領域情報74を利用する。
Next, Embodiment 3 will be described with reference to FIGS. The purpose of this embodiment is to provide an image processing method capable of accurately detecting (determining) the presence or absence of a mucous membrane to be detected. For this purpose, a small region that is not suitable for the detection target, such as a dark part in an image, is detected. And from the detection result, refer to the position information of the dark part in the image, and further exclude from the detection object what is determined as a small area to be excluded adjacent to the dark part. A process of generating an image of the region is performed.
FIG. 14 shows functional processing contents performed by the CPU 22 based on the processing program in the third embodiment. In this embodiment, the hardware configuration is the same as that of the image processing apparatus 3 shown in FIG. 1, and the processing program stored in the processing program storage unit 23 is partially different.
The mucous membrane type determination process in the present embodiment is configured to continuously execute the processing program A shown in FIG. 14A and the processing program B shown in FIG. The processing program B uses the processing target area information 74 that is the result of the processing program A.

本実施例において特徴となる処理プログラムAの処理ブロックについて説明する。
原画像31は、矩形小領域分割処理部71に入力され、矩形小領域分割処理部71は、図15に示すように内視鏡画像を矩形小領域画像群72に分割する。なお、小領域は矩形に限定されるものでない。
矩形小領域画像群72は、処理対象領域決定部73に入力され、処理対象領域決定部73は、図16に示すフローに示す処理を行い、処理対象領域情報74を生成する。
ステップS51において、矩形小領域画像群72の中から矩形小領域75を取得し、処理対象除外小領域を検出するために矩形小領域75内の暗部画素数をカウントする。
本実施例では、暗部画素は、画素値がR<RcutかつG<GcutかつB<Bcutである画素である。そのカウント数をCn(ただし、nは矩形小領域の通し番号)とする。ここで、Rcut等は実施例1で説明したものである。なお、実施例1とは異なる閾値に設定しても良い。
A processing block of the processing program A that is a feature of the present embodiment will be described.
The original image 31 is input to a rectangular small region division processing unit 71, and the rectangular small region division processing unit 71 divides the endoscopic image into rectangular small region image groups 72 as shown in FIG. Note that the small area is not limited to a rectangle.
The rectangular small region image group 72 is input to the processing target region determination unit 73, and the processing target region determination unit 73 performs processing shown in the flow shown in FIG. 16 to generate processing target region information 74.
In step S51, a rectangular small region 75 is acquired from the rectangular small region image group 72, and the number of dark area pixels in the rectangular small region 75 is counted in order to detect a processing target excluded small region.
In this embodiment, the dark pixel is a pixel whose pixel values are R <Rcut and G <Gcut and B <Bcut. Let the count number be Cn (where n is the serial number of the small rectangular area). Here, Rcut and the like are those described in the first embodiment. Note that a threshold different from that in the first embodiment may be set.

ステップS52において、処理すべき(ステップS1の処理を未実行の)矩形小領域75があるか否かを判定し、処理すべき矩形小領域75があればステップS51に戻ってカウント処理を行う。処理すべき矩形小領域75がなければ、ステップS53に進む。
ステップS53において、矩形小領域75の暗部画素数Cnに基づいて、処理対象から除外する暗部領域の判定処理を行う。本実施例における判定は、各矩形小領域75について算出したCnが最大となる矩形小領域75を暗部領域と決定するものである。
次にステップS54において、この暗部領域を処理対象領域から除外することは元より、原画像31内におけるこの暗部領域の位置に基づいて処理対象領域を決定する。
In step S52, it is determined whether or not there is a rectangular small area 75 to be processed (the process of step S1 is not executed). If there is a rectangular small area 75 to be processed, the process returns to step S51 to perform count processing. If there is no rectangular small area 75 to be processed, the process proceeds to step S53.
In step S53, based on the number Cn of dark area pixels in the small rectangular area 75, a dark area determination process to be excluded from the processing target is performed. The determination in this embodiment is to determine the rectangular small region 75 having the maximum Cn calculated for each rectangular small region 75 as the dark region.
Next, in step S54, the dark area is excluded from the process target area, and the process target area is determined based on the position of the dark area in the original image 31.

その決定方法を図17に用いて説明する。
図17の2重斜線部(クロス斜線部)76aは、ステップS53において決定した暗部領域を示しており、3×3に分割した場合における実現し得る全てのパターン、つまり9個を列挙している。また、斜線部76bは、処理対象から除外する小領域を示す。
The determination method will be described with reference to FIG.
A double hatched portion (cross hatched portion) 76a in FIG. 17 indicates the dark portion area determined in step S53, and lists all the patterns that can be realized when divided into 3 × 3, that is, nine patterns. . A hatched portion 76b indicates a small area to be excluded from the processing target.

ステップS54では、原画像31における暗部領域の位置に応じて、図17の中のどのパターンに暗部領域が該当するかを判定し、該当するパターンに応じて、暗部領域および処理除外小領域を除いた小領域のみを処理対象とするように決定する。
例えば図18に示すように右上の隅が暗部として検出された場合には、図17の最も右側で最上部のパターンに示すようにこの2重斜線部76aに隣接する両側の2つを除外する。
そして、図17における2重斜線部76a及び斜線部76b以外の斜線を全く施していない小領域76cを処理対象とする処理対象領域情報74を生成する。つまり、検出された2重斜線部76aの情報から、処理対象領域情報74を生成(決定)する。
In step S54, it is determined which pattern in FIG. 17 corresponds to the dark area according to the position of the dark area in the original image 31, and the dark area and the processing exclusion small area are excluded according to the corresponding pattern. It is determined that only a small area is to be processed.
For example, when the upper right corner is detected as a dark part as shown in FIG. 18, two on both sides adjacent to the double hatched part 76a are excluded as shown in the uppermost pattern on the rightmost side in FIG. .
Then, processing target area information 74 is generated for processing a small area 76c that is not hatched at all other than the double hatched portion 76a and the hatched portion 76b in FIG. That is, the processing target area information 74 is generated (determined) from the detected information of the double hatched portion 76a.

このため、処理プログラム記憶部23や解析情報記憶部25等の記憶手段には、予め検出した暗部領域(小領域)のブロックが原画像31におけるどのブロック位置にあるか否かに応じて、処理対象から除外するブロックを決定する除外ブロック情報が登録(格納)されている。具体的には、除外ブロック情報として、図17に示すように複数のパターンが格納されている。そして、その除外ブロック情報を参照することにより、暗部領域の位置に応じて処理対象領域を決定できるようにしている。
処理プログラムB内の不要領域削除部33Bは、上述の処理対象領域情報74を用いて、処理対象ではない画素を(R,G,B)=(0,0,0)と置き換えた不要領域削除画像32を生成する。
For this reason, in the storage means such as the processing program storage unit 23 and the analysis information storage unit 25, processing is performed according to which block position in the original image 31 the block of the dark area (small area) detected in advance is located. Excluded block information for determining a block to be excluded from the target is registered (stored). Specifically, a plurality of patterns are stored as excluded block information as shown in FIG. Then, by referring to the excluded block information, the processing target area can be determined according to the position of the dark area.
The unnecessary area deletion unit 33B in the processing program B uses the above-described processing target area information 74 to delete unnecessary areas by replacing pixels that are not processing targets with (R, G, B) = (0, 0, 0). An image 32 is generated.

以降の処理は、例えば図2の粘膜情報の生成処理内容と同一である。
なお、処理対象領域決定部73において、処理対象領域においてR=255となる画素数を小領域75毎にカウントし、R=255となる画素数が所定の画素数以上となった場合には撮像対象に近接しすぎであるとみなして、当該小領域75を処理対象領域から除外するように構成してもよい。
なお、小領域75のサイズ(画素数)を選択設定できるようにしても良い。また、サイズによっては、複数の暗部を検出して、その配置や分布等により、それらの周囲の部分を処理対象領域から除外するようにしても良い。このようにすると、より適切に処理対象領域の設定ができる。
The subsequent processing is the same as, for example, the mucous membrane information generation processing content of FIG.
Note that the processing target region determination unit 73 counts the number of pixels with R = 255 in the processing target region for each small region 75, and captures an image when the number of pixels with R = 255 is equal to or greater than a predetermined number of pixels. It may be configured that the small region 75 is excluded from the processing target region on the assumption that it is too close to the target.
Note that the size (number of pixels) of the small area 75 may be selected and set. Further, depending on the size, a plurality of dark portions may be detected, and their surrounding portions may be excluded from the processing target region based on the arrangement, distribution, and the like. In this way, the processing target area can be set more appropriately.

本実施例によれば、暗部を含む小領域の他に、暗部に隣接するような小領域に対しても処理に不適切な小領域か否かを判定して、不適切なものを処理対象から除外するようにしているので、残りの部分は、検出対象により適したものとなり、従って特定の生体粘膜の検出精度(判定精度)をより向上することが可能になる。
補足説明すると、暗部領域及びこれに近い領域が、体腔内の部位に応じて例えば同心円やその他の形状で分布するような場合、単に小領域75を設定して暗部の検出を行うと、実際の暗部及びこれに近い領域を確実に検出対象から除外することができない可能性がある。
このような場合でも、上記のように検出された暗部の領域の位置や配置或いは分布などから、検出対象に適しない領域を効率良く適切に除外できる。なお、各画素毎に暗部の画素等を除外することもできるが、この場合には時間がかかる。これに対して本実施例ではブロックで行うので、効率良く不適切なブロックを除外できる。
According to the present embodiment, in addition to the small area including the dark part, it is determined whether or not the small area adjacent to the dark part is an inappropriate small area for processing, and the inappropriate area is processed. Therefore, the remaining part becomes more suitable for the detection target, and therefore the detection accuracy (determination accuracy) of a specific biological mucous membrane can be further improved.
Supplementally, when the dark area and the area close thereto are distributed in, for example, concentric circles or other shapes according to the site in the body cavity, if the dark area is detected by simply setting the small area 75, There is a possibility that the dark part and the area close thereto cannot be reliably excluded from the detection target.
Even in such a case, a region that is not suitable for the detection target can be efficiently and appropriately excluded from the position, arrangement, or distribution of the dark region detected as described above. Although it is possible to exclude pixels in the dark portion for each pixel, this takes time. On the other hand, in the present embodiment, since blocks are used, inappropriate blocks can be efficiently excluded.

なお、上述の説明では、細長の挿入部を有する内視鏡2により得た画像の場合で説明したが、以下に説明するようにカプセル型内視鏡を用いて得た画像を利用するようにしても良い。
図19に示すように変形例を備えたカプセル型内視鏡システム81は患者が飲み込むことにより体腔内を撮像するカプセル型内視鏡装置(以下ではカプセル型内視鏡と略記)82と、患者の体外に配置され、カプセル型内視鏡82からの画像データを受信して記録する体外装置83と、この体外装置83から画像が入力される画像処理装置84とからなる。
カプセル型内視鏡82はカプセル状の容器内に照明手段としての例えばLED85と、照明された被写体の像を結ぶ対物レンズ86及びその結像位置に配置され、撮像を行う撮像手段を構成するCCD87と、このCCD87により撮像された撮像信号に対する信号処理等を行う制御回路88と、撮像された画像を無線で送信する処理を行う無線回路89と、各回路等に電力を供給する電池90を有する。
In the above description, the case of an image obtained by the endoscope 2 having an elongated insertion portion has been described. However, as described below, an image obtained by using a capsule endoscope is used. May be.
As shown in FIG. 19, a capsule endoscope system 81 having a modified example includes a capsule endoscope apparatus (hereinafter abbreviated as a capsule endoscope) 82 that images a body cavity when a patient swallows, and a patient And an external device 83 that receives and records image data from the capsule endoscope 82, and an image processing device 84 to which an image is input from the external device 83.
The capsule endoscope 82 is, for example, an LED 85 as an illuminating unit in a capsule container, an objective lens 86 that connects an image of the illuminated subject, and a CCD 87 that constitutes an imaging unit that performs imaging. A control circuit 88 that performs signal processing on an image signal captured by the CCD 87, a wireless circuit 89 that performs processing to wirelessly transmit the captured image, and a battery 90 that supplies power to each circuit and the like. .

また、体外装置83は、カプセル型内視鏡82の無線回路89のアンテナ89aから電波を複数のアンテナ91a、91b、91cを介して無線回路92で受信し、その信号を制御回路93に送る。この制御回路93により、映像信号に変換して画像処理装置84に出力する。
そして、画像処理装置84は、上述した実施例における1つの画像処理を行う。
なお、制御回路93は、複数のアンテナ91a〜91cにより、カプセル型内視鏡82の位置を推定する位置検出機能93aを有する。そして、この位置検出機能93aを利用して、実施例1の第1変形例で説明したように検出対象の画像を選択設定するようにしても良い。
なお、上述した各実施例等を部分的に組み合わせたり、処理ステップの順序を変更する等して構成される実施例等も本発明に属する。
The extracorporeal device 83 receives radio waves from the antenna 89 a of the radio circuit 89 of the capsule endoscope 82 via the plurality of antennas 91 a, 91 b, 91 c, and sends the signal to the control circuit 93. This control circuit 93 converts it into a video signal and outputs it to the image processing device 84.
Then, the image processing device 84 performs one image processing in the above-described embodiment.
The control circuit 93 has a position detection function 93a that estimates the position of the capsule endoscope 82 using a plurality of antennas 91a to 91c. The position detection function 93a may be used to select and set the detection target image as described in the first modification of the first embodiment.
Note that embodiments configured by partially combining the above-described embodiments or changing the order of processing steps also belong to the present invention.

[付記]
1.請求項1または2において、特定の生体粘膜の存在の検出の処理を行う第4のステップにおいて、
色調特徴量の値が特定の範囲内にある画素数Aと、処理対象領域内の画素総数Bに基づき、特定の生体粘膜の存在を検出する処理をすることを特徴とする。
2.付記1において、前記画素数Aと画素総数Bとの比A/Bが、所定の値より大である場合に特定の生体粘膜であると判定する処理をすることを特徴とする。
3.付記1において、前記画素数Aと画素総数Bとの比B/Aが、所定の値より小である場合に正常な生体粘膜と判定する処理をすることを特徴とする。
4.請求項3において、特定の生体粘膜の存在の検出の処理を行う第4のステップにおいて、
色調特徴量の値が特定の範囲内にある画像数Aと、前記ブロック内の画素総数Bに基づき、特定の生体粘膜の存在を検出する処理をすることを特徴とする。
[Appendix]
1. In the fourth step of performing the process of detecting the presence of a specific biological mucosa in claim 1 or 2,
A process for detecting the presence of a specific biological mucous membrane is performed based on the number of pixels A in which the value of the color tone characteristic amount is in a specific range and the total number B of pixels in the processing target area.
2. In Additional Description 1, a process of determining a specific biological mucous membrane when the ratio A / B between the number of pixels A and the total number of pixels B is larger than a predetermined value is performed.
3. In Additional Description 1, when the ratio B / A between the number of pixels A and the total number of pixels B is smaller than a predetermined value, a process of determining a normal biological mucous membrane is performed.
4). In the fourth step of performing the process of detecting the presence of a specific biological mucosa in claim 3,
A process for detecting the presence of a specific biological mucous membrane is performed based on the number of images A in which the value of the color tone characteristic amount is within a specific range and the total number B of pixels in the block.

5.請求項1〜3において、前記画像が複数画像の場合、特定の生体粘膜を含む可能性が高いと判定した画像数が所定の数より大きい場合に、撮像された画像は、特定の生体粘膜の画像であると判定の処理をすることを特徴とする。
6.付記5において、前記複数画像は、前記生体粘を撮像した連続フレーム画像、又は前記生体粘膜を撮像した一定のフレーム間隔の連続画像であって、所定の枚数から構成されることを特徴とする。
7.付記5において、前記処理対象領域内の画像が占める画像の面積が所定の値より小さい画像を、前記複数画像から除外する処理をすることを特徴とする。
8.請求項1〜4、付記1〜7において、前記第2のステップは、色信号の値が特定の範囲内に存在する画素を抽出して検出対象から除外する検出対象除外領域を検出し、前記画像内における前記検出対象除外領域の位置に応じて前記処理対象領域の画像を設定する処理をすることを特徴とする。
5. In Claims 1-3, when the image is a plurality of images, when the number of images determined to be highly likely to include a specific biological mucous membrane is greater than a predetermined number, the captured image is a specific biological mucous membrane. It is characterized in that it is determined that the image is an image.
6). In Supplementary Note 5, the plurality of images is a continuous frame image obtained by imaging the living body mucous membrane or a continuous image obtained by imaging the living body mucous membrane at a predetermined frame interval, and is configured by a predetermined number of images.
7). Appendix 5 is characterized in that an image in which an area occupied by an image in the processing target area is smaller than a predetermined value is excluded from the plurality of images.
8). In Claims 1 to 4 and Supplementary Notes 1 to 7, the second step detects a detection target exclusion region in which a pixel whose color signal value is within a specific range is extracted and excluded from the detection target, and A process of setting an image of the processing target area according to a position of the detection target exclusion area in the image is performed.

9.付記8において、前記画像を複数のブロックに分割し、前記検出対象除外領域の存在するブロック位置に基づき、予め登録されている複数のブロックパターンと照合することによってブロックパターンを選択し、
前記選択ブロックパターンに基づき、前記処理対象領域の画像を形成する処理をすることを特徴とする。
10.請求項1〜4、付記1〜9において、前記色調特徴量は、複数の色信号の比に基づくものであることを特徴とする。
11.請求項1〜4、付記1〜10において、前記画像は、細長の挿入部を有する内視鏡による撮像画像であることを特徴とする。
12.請求項1〜4、付記1〜10において、前記画像は、カプセル型内視鏡による撮像画像であることを特徴とする。
9. In Supplementary Note 8, the image is divided into a plurality of blocks, and a block pattern is selected by collating with a plurality of previously registered block patterns based on the block position where the detection target exclusion region exists,
A process for forming an image of the processing target area is performed based on the selected block pattern.
10. In any one of claims 1 to 4 and appendices 1 to 9, the color tone feature amount is based on a ratio of a plurality of color signals.
11. In Claims 1 to 4 and Supplementary Notes 1 to 10, the image is an image captured by an endoscope having an elongated insertion portion.
12 In Claims 1 to 4 and Supplementary Notes 1 to 10, the image is a captured image by a capsule endoscope.

13.請求項1〜4、付記1〜12において、前記第3のステップは、前記色調特徴量として、ヘモグロビンインデックスを算出する処理をすることを特徴とする。
14.付記13において、前記第4のステップは、ヘモグロビンインデックスの値が正常な生体粘膜からサンプルしたヘモグロビンインデックスの代表的値と、性状の変化した特定の変性粘膜からサンプルしたヘモグロビンインデックスの代表的値とから両粘膜を区別するために設定した閾値を用い、この閾値と比較することにより、前記特定の変性粘膜の存在を検出(判定)処理することを特徴とする。
15.付記14において、前記サンプルする正常な生体粘膜は、食道における扁平上皮の粘膜であり、前記サンプルする正常でない特定の生体粘膜は、扁平上皮が変性したバレット上皮の生体粘膜であることを特徴とする。
13. In Claims 1 to 4 and Supplementary Notes 1 to 12, the third step performs a process of calculating a hemoglobin index as the color tone feature amount.
14 In Supplementary Note 13, the fourth step includes a representative value of a hemoglobin index sampled from a biological mucosa having a normal hemoglobin index value and a representative value of a hemoglobin index sampled from a specific denatured mucosa having a changed property. The threshold value set for distinguishing both mucous membranes is used, and the presence of the specific denatured mucosa is detected (determined) by comparing with the threshold value.
15. The supplementary note 14 is characterized in that the normal biological mucous membrane to be sampled is a mucosa of squamous epithelium in the esophagus, and the specific abnormal biological mucosa to be sampled is a biological mucous membrane of Barrett epithelium in which the squamous epithelium is denatured. .

16.請求項1〜4、付記1〜15において、前記第2のステップは、前記検出対象に不適切な画素として暗部を検出して除外する処理をすることを特徴とする。
17.請求項1〜4、付記1〜16において、前記第2のステップは、前記検出対象に不適切な画素として高輝度のハレーション部を検出して除外する処理をすることを特徴とする。
18.請求項1〜4、付記1〜17において、前記第1のステップは、前記画像が、食道と胃との境界付近の位置の生体粘膜の画像であるか否かの判定の処理を行う画像判定ステップを有することを特徴とする。
19.生体粘膜を撮像した2色以上の画像に対応する画像信号を入力する画像入力部と、 前記画像における検出対象に不適切な画素を除外する処理対象領域を設定する処理対象領域設定部と、
少なくとも前記処理対象領域における略各画素ごとに色調特徴量を算出する特徴量算出部と、
前記算出された色調特徴量に基づき、特定の生体粘膜の存在を検出する生体粘膜検出部と、
を具備することを特徴とする画像処理装置。
16. In any one of claims 1 to 4 and appendices 1 to 15, the second step is characterized in that a dark portion is detected and excluded as a pixel inappropriate for the detection target.
17. In any one of claims 1 to 4 and appendices 1 to 16, the second step includes a process of detecting and excluding a high-luminance halation part as a pixel inappropriate for the detection target.
18. The image determination for performing determination processing as to whether or not the first image is an image of a biological mucous membrane at a position near a boundary between the esophagus and the stomach. It has a step.
19. An image input unit that inputs an image signal corresponding to an image of two or more colors obtained by imaging a biological mucous membrane; a processing target region setting unit that sets a processing target region that excludes pixels inappropriate for detection in the image;
A feature amount calculation unit that calculates a color tone feature amount at least for each pixel in the processing target region;
A biological mucous membrane detection unit that detects the presence of a specific biological mucous membrane based on the calculated color tone feature amount;
An image processing apparatus comprising:

20.画像に対して画像処理を行い、所定の特徴量を算出する画像処理方法において、
前記画像を複数のブロックに分割する処理を行う第1のステップと、
前記特徴量の算出に不適切な画素を含む不適切ブロックを検出する処理を行う第2のステップと、
前記画像における前記不適切ブロックの位置に応じて処理対象領域から除外するブロックを設定する処理を行う第3のステップと、
を具備したことを特徴とする画像処理方法。
21.付記20において、前記第3のステップは、予め登録されている情報を参照して処理対象領域から除外するブロックを設定する処理を行うことを特徴とする。
(付記20及び21の背景)
本文の背景と同様。
(付記20及び21の作用効果)
直接的に特徴量の算出に不適切な画素を含むブロック以外で、同じように特徴量の算出に不適切な画素を含むブロックも処理対象領域から除外でき、特徴量の検出の精度を効率良く向上できる。
20. In an image processing method for performing image processing on an image and calculating a predetermined feature amount,
A first step of performing a process of dividing the image into a plurality of blocks;
A second step of performing a process of detecting an inappropriate block including pixels inappropriate for calculating the feature amount;
A third step of performing a process of setting a block to be excluded from the processing target area according to the position of the inappropriate block in the image;
An image processing method comprising:
21. Appendix 20 is characterized in that the third step performs a process of setting a block to be excluded from the processing target area with reference to information registered in advance.
(Background to Appendix 20 and 21)
Same as the text background.
(Operational effects of appendices 20 and 21)
In addition to blocks that contain pixels that are inappropriate for feature value calculation directly, blocks that contain pixels that are inappropriate for feature value calculation can also be excluded from the processing target area, improving the accuracy of feature value detection. Can be improved.

体腔内の食道と胃の境界付近の粘膜を撮像した画像に対して、暗部等の不適切な部分を除外してヘモグロビンインデックス等の色調特徴量を算出して、食道の正常な粘膜から変性した粘膜としてのバレット上皮の存在の有無を判定することにより、術者による内視鏡検査を支援することができる。   The image obtained by imaging the mucous membrane near the boundary between the esophagus and the stomach in the body cavity is degenerated from the normal mucous membrane of the esophagus by calculating the color characteristic amount such as the hemoglobin index by excluding inappropriate parts such as dark areas. By determining the presence or absence of Barrett's epithelium as a mucous membrane, it is possible to support the endoscopy by the operator.

本発明の実施例1の画像処理方法の機能を備えた内視鏡システムの構成を示すブロック図。1 is a block diagram showing a configuration of an endoscope system having a function of an image processing method according to a first embodiment of the present invention. 実施例1の画像処理方法を実現するための処理機能及び使用する画像等を示す図。FIG. 3 is a diagram illustrating a processing function for realizing the image processing method according to the first embodiment, an image to be used, and the like. 不要領域を削除する不要領域削除処理の処理内容を示すフローチャート図。The flowchart figure which shows the processing content of the unnecessary area | region deletion process which deletes an unnecessary area | region. 原画像及び不要領域削除画像等の画像例を示す図。The figure which shows image examples, such as an original image and an unnecessary area | region deletion image. 領域ラベリングの処理内容を示すフローチャート図。The flowchart figure which shows the processing content of area | region labeling. 粘膜特徴量算出の処理内容を示すフローチャート図。The flowchart figure which shows the processing content of mucous membrane feature-value calculation. 第1変形例を備えた内視鏡システムの構成の一部を示す図。The figure which shows a part of structure of the endoscope system provided with the 1st modification. 第2変形例における画像処理方法を実現するための処理機能及び使用する画像等を示す図。The figure which shows the processing function for implement | achieving the image processing method in a 2nd modification, the image to be used, etc. FIG. 矩形小領域に分けた画像例を示す図。The figure which shows the example of an image divided | segmented into the rectangular small area | region. 第2変形例における粘膜特徴量算出の処理内容を示すフローチャート図。The flowchart figure which shows the processing content of the mucous membrane feature-value calculation in a 2nd modification. 本発明の実施例2の画像処理方法を実現するための処理機能及び使用する画像等を示す図。FIG. 10 is a diagram illustrating a processing function for realizing the image processing method according to the second embodiment of the present invention, an image to be used, and the like. 粘膜情報を格納するリングバッファを示す図。The figure which shows the ring buffer which stores mucous membrane information. 粘膜決定の処理を示すフローチャート図。The flowchart figure which shows the process of mucous membrane determination. 本発明の実施例3の画像処理方法を実現するための処理機能及び使用する画像等を示す図。FIG. 10 is a diagram illustrating a processing function and an image to be used for realizing the image processing method according to the third embodiment of the present invention. 矩形小領域画像群に分割した画像を示す図。The figure which shows the image divided | segmented into the rectangular small area image group. 処理対象領域決定の処理内容を示すフローチャート図。The flowchart figure which shows the processing content of process target area | region determination. 検出された暗部領域に基づいて処理対象領域を決定する場合の説明図。Explanatory drawing in the case of determining a process target area | region based on the detected dark part area | region. 検出された暗部の画像例を示す図。The figure which shows the example of an image of the detected dark part. 変形例におけるカプセル型内視鏡を備えたカプセル型内視鏡システムの構成を示すブロック図。The block diagram which shows the structure of the capsule type endoscope system provided with the capsule type endoscope in a modification.

符号の説明Explanation of symbols

1…内視鏡システム
2…内視鏡観察装置
3…画像処理装置
4…表示モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
15…対物レンズ
16…CCD
17…撮像装置
21…画像入力部
22…CPU
23…処理プログラム記憶部
24…画像記憶部
25…解析情報記憶部
27…ハードディスク
28…表示処理部
29…入力操作部
31…原画像
32…不要領域削除画像
33…不要領域削除部
34…色調処理画像
35…色調処理部
36…領域ラベリング画像
37…領域ラベリング処理部
38…粘膜情報
39…粘膜特徴量算出部
代理人 弁理士 伊藤 進
DESCRIPTION OF SYMBOLS 1 ... Endoscope system 2 ... Endoscope observation apparatus 3 ... Image processing apparatus 4 ... Display monitor 6 ... Endoscope 7 ... Light source device 8 ... CCU
11 ... Insertion part 15 ... Objective lens 16 ... CCD
17 ... Imaging device 21 ... Image input unit 22 ... CPU
23 ... Processing program storage unit 24 ... Image storage unit 25 ... Analysis information storage unit 27 ... Hard disk 28 ... Display processing unit 29 ... Input operation unit 31 ... Original image 32 ... Unnecessary area deletion image 33 ... Unnecessary area deletion unit 34 ... Tone processing Image 35 ... Color tone processing unit 36 ... Area labeling image 37 ... Area labeling processing unit 38 ... Mucosal information 39 ... Mucosal feature calculation unit Agent Patent attorney Susumu Ito

Claims (4)

生体粘膜を撮像した2色以上の画像に対応する画像信号を入力する処理を行う第1のステップと、
前記画像における検出対象に不適切な画素を除外して処理対象領域を設定する処理を行う第2のステップと、
少なくとも前記処理対象領域における略各画素ごとに色調特徴量を算出する処理を行う第3のステップと、
前記算出された色調特徴量に基づき、特定の生体粘膜の存在を検出する処理を行う第4のステップと、
を具備することを特徴とする画像処理方法。
A first step of performing a process of inputting an image signal corresponding to an image of two or more colors obtained by imaging a biological mucous membrane;
A second step of performing a process of setting a processing target area by excluding pixels inappropriate for the detection target in the image;
A third step of performing a process of calculating a color tone characteristic amount for each pixel at least in the processing target area;
A fourth step of performing a process of detecting the presence of a specific biological mucous membrane based on the calculated color tone feature amount;
An image processing method comprising:
前記色調特徴量を算出する処理を行う第3のステップは、
前記画像を複数のブロックに分割し、各ブロック毎において、前記色調特徴量の算出処理を行うことを特徴とする請求項1記載の画像処理方法。
The third step of performing the process of calculating the color tone feature amount is as follows:
The image processing method according to claim 1, wherein the image is divided into a plurality of blocks, and the tone characteristic amount calculation process is performed for each block.
前記第4のステップは、前記各ブロック毎に特定の生体粘膜の存在を検出し、特定の生体粘膜が存在すると判定したブロックの数が所定の数よりも大きい場合に、特定の生体粘膜が前記画像内に存在すると判定の処理をすることを特徴とする請求項2記載の画像処理方法。   In the fourth step, the presence of a specific biological mucous membrane is detected for each block, and when the number of blocks determined that the specific biological mucosa exists is larger than a predetermined number, 3. The image processing method according to claim 2, wherein a determination process is performed if the image exists in the image. 前記画像は、時系列の複数の画像であり、前記第4のステップにより、前記複数の画像内に特定の生体粘膜が存在すると判定した場合の数が所定数より大きい場合に、前記生体粘膜が特定の生体粘膜であると判定の処理をすることを特徴とする請求項1又は2に記載の画像処理方法。   The images are a plurality of time-series images, and when the number of cases where it is determined in the fourth step that a specific biological mucosa exists in the plurality of images is greater than a predetermined number, The image processing method according to claim 1, wherein a process for determining that the specific mucous membrane is a specific biological mucous membrane is performed.
JP2004359054A 2004-12-10 2004-12-10 Image processing method Withdrawn JP2006166939A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2004359054A JP2006166939A (en) 2004-12-10 2004-12-10 Image processing method
CNB2005800397547A CN100515318C (en) 2004-12-10 2005-12-08 Medical image processing method
PCT/JP2005/022562 WO2006062163A1 (en) 2004-12-10 2005-12-08 Medical image processing method
EP05814386.8A EP1842481B1 (en) 2004-12-10 2005-12-08 Medical image processing method
KR1020077012866A KR100891766B1 (en) 2004-12-10 2005-12-08 Medical image processing apparatus
US11/811,263 US8144993B2 (en) 2004-12-10 2007-06-08 Medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004359054A JP2006166939A (en) 2004-12-10 2004-12-10 Image processing method

Publications (1)

Publication Number Publication Date
JP2006166939A true JP2006166939A (en) 2006-06-29

Family

ID=36668287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004359054A Withdrawn JP2006166939A (en) 2004-12-10 2004-12-10 Image processing method

Country Status (2)

Country Link
JP (1) JP2006166939A (en)
CN (1) CN100515318C (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008136098A1 (en) * 2007-04-24 2008-11-13 Olympus Medical Systems Corp. Medical image processing device and medical image processing method
JP2009134517A (en) * 2007-11-30 2009-06-18 Panasonic Corp Composite image generation device
EP2386999A2 (en) 2010-05-11 2011-11-16 Olympus Corporation Image processing apparatus, image processing method, and image processing program
EP2405398A1 (en) 2010-07-07 2012-01-11 Olympus Corporation Processing of intraluminal images for dark portion area detection
WO2012035923A1 (en) * 2010-09-14 2012-03-22 オリンパスメディカルシステムズ株式会社 Endoscope system and poor visibility determination method
JP2012073953A (en) * 2010-09-29 2012-04-12 Olympus Corp Image processing device, image processing method, and image processing program
EP2474949A1 (en) 2011-01-11 2012-07-11 Olympus Corporation Image processing device, image processing method, and image processing program
WO2012111236A1 (en) * 2011-02-17 2012-08-23 三洋電機株式会社 Image identification device and program
WO2016208016A1 (en) * 2015-06-24 2016-12-29 オリンパス株式会社 Image-processing device, image-processing method, and image-processing program
JP2019111040A (en) * 2017-12-22 2019-07-11 サイバネットシステム株式会社 Image analysis device and image analysis method
WO2020100630A1 (en) 2018-11-14 2020-05-22 富士フイルム株式会社 Medical image processing system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5305850B2 (en) * 2008-11-14 2013-10-02 オリンパス株式会社 Image processing apparatus, image processing program, and image processing method
JP5329593B2 (en) * 2011-04-01 2013-10-30 富士フイルム株式会社 Biological information acquisition system and method of operating biological information acquisition system
JP5926937B2 (en) * 2011-11-30 2016-05-25 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
CN106714652B (en) * 2015-04-27 2018-10-09 奥林巴斯株式会社 The method of operating of image analysis apparatus, image analysis system, image analysis apparatus
CN107427186B (en) * 2016-01-08 2019-07-12 Hoya株式会社 Endoscope apparatus

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101594817B (en) * 2007-04-24 2011-08-24 奥林巴斯医疗株式会社 Medical image processing device and medical image processing method
WO2008136098A1 (en) * 2007-04-24 2008-11-13 Olympus Medical Systems Corp. Medical image processing device and medical image processing method
JP2009134517A (en) * 2007-11-30 2009-06-18 Panasonic Corp Composite image generation device
US8837821B2 (en) 2010-05-11 2014-09-16 Olympus Corporation Image processing apparatus, image processing method, and computer readable recording medium
EP2386999A2 (en) 2010-05-11 2011-11-16 Olympus Corporation Image processing apparatus, image processing method, and image processing program
JP2011234931A (en) * 2010-05-11 2011-11-24 Olympus Corp Image processing apparatus, image processing method and image processing program
EP2405398A1 (en) 2010-07-07 2012-01-11 Olympus Corporation Processing of intraluminal images for dark portion area detection
US9053533B2 (en) 2010-07-07 2015-06-09 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium for extracting a dark portion area from an intraluminal image
JP5065538B2 (en) * 2010-09-14 2012-11-07 オリンパスメディカルシステムズ株式会社 ENDOSCOPE SYSTEM AND METHOD OF OPERATING VISUAL DEFECT JUDGING SYSTEM
WO2012035923A1 (en) * 2010-09-14 2012-03-22 オリンパスメディカルシステムズ株式会社 Endoscope system and poor visibility determination method
JPWO2012035923A1 (en) * 2010-09-14 2014-02-03 オリンパスメディカルシステムズ株式会社 ENDOSCOPE SYSTEM AND METHOD OF OPERATING VISUAL DEFECT JUDGING SYSTEM
US8497898B2 (en) 2010-09-14 2013-07-30 Olympus Medical Systems Corp. Endoscope system and low visibility determining method
JP2012073953A (en) * 2010-09-29 2012-04-12 Olympus Corp Image processing device, image processing method, and image processing program
US8682048B2 (en) 2011-01-11 2014-03-25 Olympus Corporation Image processing device, image processing method, computer-readable recording device
EP2474949A1 (en) 2011-01-11 2012-07-11 Olympus Corporation Image processing device, image processing method, and image processing program
JP5167442B2 (en) * 2011-02-17 2013-03-21 三洋電機株式会社 Image identification apparatus and program
WO2012111236A1 (en) * 2011-02-17 2012-08-23 三洋電機株式会社 Image identification device and program
WO2016208016A1 (en) * 2015-06-24 2016-12-29 オリンパス株式会社 Image-processing device, image-processing method, and image-processing program
JPWO2016208016A1 (en) * 2015-06-24 2018-04-05 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP2019111040A (en) * 2017-12-22 2019-07-11 サイバネットシステム株式会社 Image analysis device and image analysis method
WO2020100630A1 (en) 2018-11-14 2020-05-22 富士フイルム株式会社 Medical image processing system
US11961228B2 (en) 2018-11-14 2024-04-16 Fujifilm Corporation Medical image processing system

Also Published As

Publication number Publication date
CN101060806A (en) 2007-10-24
CN100515318C (en) 2009-07-22

Similar Documents

Publication Publication Date Title
US8144993B2 (en) Medical image processing method
CN110325100B (en) Endoscope system and method of operating the same
US9042664B2 (en) Image display apparatus
JP4493386B2 (en) Image display device, image display method, and image display program
JP4615963B2 (en) Capsule endoscope device
US8055033B2 (en) Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same
JP5242381B2 (en) Medical image processing apparatus and medical image processing method
JP2006166939A (en) Image processing method
US8682418B2 (en) Diagnosis supporting apparatus and control method of diagnosis supporting apparatus
JP4629143B2 (en) System for detecting contents in vivo
WO2006112227A1 (en) Image processing device and method
US8768024B1 (en) System and method for real time detection of villi texture in an image stream of the gastrointestinal tract
WO2012153568A1 (en) Medical image processing device and medical image processing method
US20230165433A1 (en) Endoscope system and method of operating the same
WO2020054543A1 (en) Medical image processing device and method, endoscope system, processor device, diagnosis assistance device and program
JP4554647B2 (en) Image display device, image display method, and image display program
JP2006223376A (en) Medical image processing apparatus
JP4855673B2 (en) Medical image processing device
JP4547401B2 (en) Image display device, image display method, and image display program
JP5057651B2 (en) Lumen image processing apparatus, lumen image processing method, and program therefor
CN116745861A (en) Control method, device and program of lesion judgment system obtained through real-time image
JP4547402B2 (en) Image display device, image display method, and image display program
EP4356813A1 (en) Medical image processing device, endoscope system, and operation method for medical image processing device
JP4856275B2 (en) Medical image processing device
CN114627045A (en) Medical image processing system and method for operating medical image processing system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304