JP2007236956A - Endoscopic diagnosis support apparatus and endoscopic image processing method - Google Patents

Endoscopic diagnosis support apparatus and endoscopic image processing method Download PDF

Info

Publication number
JP2007236956A
JP2007236956A JP2007069055A JP2007069055A JP2007236956A JP 2007236956 A JP2007236956 A JP 2007236956A JP 2007069055 A JP2007069055 A JP 2007069055A JP 2007069055 A JP2007069055 A JP 2007069055A JP 2007236956 A JP2007236956 A JP 2007236956A
Authority
JP
Japan
Prior art keywords
image
feature amount
diagnosis support
endoscopic
endoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007069055A
Other languages
Japanese (ja)
Inventor
Hiroichi Nishimura
博一 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007069055A priority Critical patent/JP2007236956A/en
Publication of JP2007236956A publication Critical patent/JP2007236956A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an endoscopic diagnosis support apparatus for utilizing all information that spatial frequency components have and making highly accurate objective/numerical diagnoses by applying a feature amount calculation method for which phase information is taken into consideration in turning the spatial frequency components in endoscopic images to a feature amount, and an endoscopic image processing method. <P>SOLUTION: A diagnosis support processing performance program 80 comprises an image input/management block 81, a database management block 82, a temporary ROI setting block 83, a feature amount calculation block 84, an ROI setting block 85, a discrimination and classification block 86, a report preparation block 87 and an image processing block 88. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、内視鏡装置による画像データを基に病変の種類を自動的に判別・分類する内視鏡診断支援装置及び内視鏡画像処理方法に関する。   The present invention relates to an endoscopic diagnosis support apparatus and an endoscopic image processing method for automatically discriminating and classifying lesion types based on image data obtained by an endoscopic apparatus.

近年、細長の挿入部を体腔内に挿入し、固体撮像素子等を撮像手段に用いて体腔内臓器等をモニタ画面により観察し、検査あるいは診断することのできる内視鏡装置が広く用いられている。また,前記体腔内臓器へ超音波を照射し、この超音波の反射あるいは透過度等により該体腔内臓器の状況をモニタ画面により観察し、検査あるいは診断することのできる超音波内視鏡装置も広く用いられている。   2. Description of the Related Art In recent years, endoscope apparatuses that can insert an elongated insertion portion into a body cavity, use a solid-state imaging device or the like as an imaging means, observe a body cavity organ or the like on a monitor screen, and perform inspection or diagnosis have been widely used. Yes. There is also an ultrasonic endoscope apparatus that can irradiate the organ in the body cavity with ultrasound, observe the state of the organ in the body cavity on the monitor screen based on the reflection or transmission of the ultrasound, etc., and examine or diagnose it. Widely used.

これらの内視鏡装置を用いた最終的な診断は医師の主観に依存している部分が多大であり、客観的・数値的な診断に直接結びつく内視鏡診断支援装置の実現が望まれていた。   The final diagnosis using these endoscopic devices largely depends on the subjectivity of the doctor, and it is desired to realize an endoscopic diagnosis support device that directly relates to objective and numerical diagnosis. It was.

内視鏡診断支援装置は、画像内における関心領域(ROI)から算出された様々な特徴量を用い、闇値処理あるいは統計的・非統計的識別器を用いて診断対象とする画像がどのような所見や病変に分類されるかを医師に提示することにより、客観的・数値的な診断の支援を行うものである。   The endoscopic diagnosis support apparatus uses various feature amounts calculated from a region of interest (ROI) in an image, and how an image to be diagnosed uses dark value processing or a statistical / nonstatistic discriminator. It provides support for objective and numerical diagnosis by presenting doctors with appropriate findings and lesions.

特徴量は、内視鏡画像上の様々な所見を反映した数値であり、画像処理手法の適用により得られるものである。例えば「発赤により粘膜表面が赤い」といった色調に関する所見を特徴量化する場合には、内視鏡画像を構成するRGB各データを用いて、R/(R+G+B)を各画素ごとに求め、その平均値を特徴量として使用することができる(この特徴量は一般に色度と呼ばれる)。また、近年内視鏡分野においては胃粘膜血流量を反映した色調の特徴量として32log2(R/G)により得られるヘモグロビン指標が広く用いられている。 The feature amount is a numerical value reflecting various findings on the endoscopic image, and is obtained by applying an image processing method. For example, in the case where the findings relating to the color tone such as “redness of mucous membrane surface is red due to redness” are converted into feature quantities, R / (R + G + B) is obtained for each pixel using RGB data constituting the endoscopic image, and the average value thereof is obtained. Can be used as a feature amount (this feature amount is generally called chromaticity). In recent years, in the field of endoscope, a hemoglobin index obtained by 32 log 2 (R / G) has been widely used as a color feature amount reflecting gastric mucosal blood flow.

さらに、透見血管像に見られる血管の拡張・蛇行や胃小区の形態の大小・不整度・胃小区間の溝幅等、内視鏡画像における粘膜表面構造に関する所見も種々の疾患に対する診断の重要な要素となっており、これらに対しても画像処理手法の適用により特徴量として数値化することができる。このような特徴量算出においては、特許第2918162号公報に示されている手法がある。   In addition, the findings on the mucosal surface structure in endoscopic images, such as dilation of blood vessels seen in fluoroscopic blood vessel images, meandering and size of the gastric subdivision, irregularity, groove width of the gastric subsection, etc. are also useful for diagnosis of various diseases. These are important elements, and these can be quantified as feature quantities by applying an image processing method. In such feature amount calculation, there is a method disclosed in Japanese Patent No. 2918162.

さらに、複数の異なる所見から得た各特徴量を組み合わせて特徴ベクトルとして用いることにより、より複雑かつ正確な診断の支援を行うことがでる。内視鏡診断支援装置の精度向上においては,重要な内視鏡画像所見を数値化するための高精度の特徴量算出手法が非常に重要であるといえる。   Furthermore, by using each feature quantity obtained from a plurality of different findings as a feature vector, more complex and accurate diagnosis can be supported. In order to improve the accuracy of the endoscopic diagnosis support apparatus, it can be said that a highly accurate feature amount calculation method for quantifying important endoscopic image findings is very important.

近年においては,公知のGaborフィルタを用いて算出されるGabor特徴に対し内視鏡画像への適用のための改良を加えた空間周波数解析手法により、粘膜表面構造の細かさ、粘膜表面構造が呈する模様の方向性等を特徴量として数値化する内視鏡画像処理方法がある。   In recent years, the fineness of the mucosal surface structure and the mucosal surface structure are exhibited by a spatial frequency analysis technique in which the Gabor feature calculated using a known Gabor filter is improved for application to an endoscopic image. There is an endoscopic image processing method that digitizes pattern directionality as a feature amount.

このような内視鏡診断支援装置及び特徴量算出手法の例として、特開平10−14864号公報がある。   As an example of such an endoscopic diagnosis support apparatus and a feature amount calculation method, there is JP-A-10-14864.

最近の内視鏡装置においては、高画質化、固体撮像素子(CCD等)の高画素化、さらには通常の内視鏡と同等の外径と操作性を保ちつつ拡大観察(ズーミング)機能を有する拡大内視鏡の登場により、粘膜表面の極めて微細な毛細血管像や胃・大腸の腺口(pit)構造が明瞭に観察されるようになっている。従来組織標本を実体顕微鏡下で観察していたのと同レベルの生体像を内視鏡下で臨床検査時に観察することが可能となり、それらの微細構造観察所見を用いた新たな診断学が確立されてきている。   Recent endoscope devices have higher image quality, higher pixel count of solid-state image sensors (CCD, etc.), and also have an enlarged observation (zooming) function while maintaining the same outer diameter and operability as ordinary endoscopes. With the advent of the magnifying endoscope, extremely fine capillary images on the mucosal surface and the pit structure of the stomach and large intestine are clearly observed. It is possible to observe biological images at the same level as conventional tissue specimens under a stereomicroscope at the time of clinical examination under an endoscope, and establish new diagnostics using these microstructural observations. Has been.

このような例として非特許文献1(胃隆起性病変の実体顕徴鏡像と病理組織学的所見からみた拡大電子内視鏡像の解析,本田徹他,Gastroenterological Endoscopy,1993年5月,第35巻5号pp.967-976)、非特許文献2(陥凹型早期大腸癌,工藤進英,マンスリーブックガストロ,1993年5月,第3巻5号pp.47-53)及び非特許文献3(拡大電子スコープによる大腸疾患の診断,工藤進英他,胃と腸,1994年,第29巻3号,pp.163-165)があげられる。これらは内視鏡画像上で観察されるpitの形態や配列の違いから、正常粘膜、良性腫瘍および癌等の病変が鑑別可能であることを示している。例えば非特許文献2および3においては、大腸病変に見られるpitの形態や配列の違いをI型ないしV型とその亜分類からなるpit patternに分類の上、各種病変との対応付けを行った。
特許第2918162号公報 特開平10−14864号公報 胃隆起性病変の実体顕徴鏡像と病理組織学的所見からみた拡大電子内視鏡像の解析,本田徹他,Gastroenterological Endoscopy,1993年5月,第35巻5号pp.967-976 陥凹型早期大腸癌,工藤進英,マンスリーブックガストロ,1993年5月,第3巻5号pp.47-53 拡大電子スコープによる大腸疾患の診断,工藤進英他,胃と腸,1994年,第29巻3号,pp.163-165
As an example of this, Non-Patent Document 1 (Analysis of stereoscopic microscopic images of gastric elevated lesions and enlarged electronic endoscopic images from the viewpoint of histopathological findings, Toru Honda et al., Gastroenterological Endoscopy, May 1993, Volume 35 No. 5 pp.967-976), Non-patent document 2 (Depressed type early colorectal cancer, Shinhide Kudo, Mansleek Gastro, May 1993, Vol. 3, No. 5, pp. 47-53) and Non-patent document 3 ( Diagnosis of large intestine disease with an extended electronic scope, Nobuhide Kudo et al., Stomach and intestine, 1994, Vol. These indicate that lesions such as normal mucous membranes, benign tumors, and cancers can be distinguished from differences in the form and arrangement of pits observed on endoscopic images. For example, in Non-Patent Documents 2 and 3, pit patterns and arrangements found in large intestine lesions are classified into pit patterns composed of type I or type V and their subclasses, and are associated with various lesions. .
Japanese Patent No. 2918162 Japanese Patent Laid-Open No. 10-14864 Analysis of magnifying electron endoscopic image from gastroscopic lesions and histopathological findings, Toru Honda et al., Gastroenterological Endoscopy, May 1993, Vol. 35, No. 5, pp.967-976 Recessed type early colorectal cancer, Shinhide Kudo, Mansleek Gastro, May 1993, Vol. 3, No. 5, pp. 47-53 Diagnosis of large intestine disease with an expanded electronic scope, Shinhide Kudo et al., Stomach and intestine, 1994, Vol. 29, No. 3, pp.163-165

しかしながら、これらの新しい内視鏡診断学に対する客観的・数値的な診断の実現にあたっては、特開平10−14864号公報に示される診断支援装置において以下のような問題があった。   However, in the realization of the objective and numerical diagnosis for these new endoscopic diagnostics, the diagnosis support apparatus disclosed in Japanese Patent Laid-Open No. 10-14864 has the following problems.

内視鏡画像において、特に近接あるいは拡大観察時においては、病変部内は必ずしも均一な所見を呈する症例ばかりではなく、例えば大腸pit patternでは大きさが数mmの極めて微小な病変においても正常であるI型,腫瘍性病変のIIIs型及びそれらの中間ともいえる型等が混在することがある。また、腺腫内癌のように良性腫瘍の中の一部が癌化した病変も報告されている。   In an endoscopic image, particularly in the case of close-up or magnified observation, the lesion is not limited to a case that always exhibits a uniform finding, but for example, even in a very small lesion having a size of several millimeters in the colon pit pattern, I is normal. Type, type IIIs of neoplastic lesions, and the type that can be said to be in between may be mixed. In addition, a lesion in which a part of a benign tumor has become cancerous, such as adenoma cancer, has been reported.

関心領域として設定されなかった領域の情報は得られないため、例えば病変部粘膜上にどのような型のpit patternがどのような割合で存在しているか、あるいは病変中にどのような種類の腫瘍が混在しているかを知ることができないという問題がある。   Since information on the area that was not set as the area of interest cannot be obtained, for example, what type of pit pattern is present on the lesion mucosa, what percentage, or what kind of tumor is present in the lesion There is a problem that it is not possible to know whether or not there is a mixture.

また、内視鏡画像からの特徴量算出においては、より正確な診断の実現のため内視鏡画像におけるより多くの情報を利用する必要がある。一方、特開平10−14864号公報においては前述した空間周波数解析手法が適用されているが、これらは空間周波数成分の有するすべての情報を利用したものではなかった。より具体的には、空間周波数成分が有する情報は内視鏡画像を構成する振幅情報と位相情報があるが、従来は位相情報を利用していないことによる情報の損失がある。   In addition, in calculating feature values from an endoscopic image, it is necessary to use more information in the endoscopic image in order to realize a more accurate diagnosis. On the other hand, in Japanese Patent Laid-Open No. 10-14864, the spatial frequency analysis method described above is applied, but these do not use all the information of the spatial frequency component. More specifically, information included in the spatial frequency component includes amplitude information and phase information constituting an endoscopic image, but there is a loss of information due to the fact that phase information is not used conventionally.

また、特許第2918162号公報においては粘膜表面における微細構造成分の特徴量算出について示されているが、内視鏡診断支援装置における使用にあたっては以下のような問題がある。   Japanese Patent No. 2918162 discloses the calculation of the feature amount of the fine structure component on the mucosal surface, but there are the following problems when used in the endoscope diagnosis support apparatus.

内視鏡装置を用いた臨床検査においては粘膜表面構造を明瞭に観察するために、インジゴカルミン、メチレンブルー、クリスタルバイオレツト等の様々な色素や染色剤と呼ばれる薬剤が用いられている。例えば大腸のpit patternの観察においては、インジゴカルミンを標準的に使用し、より詳細な観察が必要な場合にはメチレンブルーまたはクリスタルバイオレットを使用するといった使い分けがなされている。   In clinical examinations using an endoscopic apparatus, various so-called pigments and dyes such as indigo carmine, methylene blue, and crystal violet are used to clearly observe the mucosal surface structure. For example, in observing the pit pattern of the large intestine, indigo carmine is used as a standard, and when more detailed observation is required, methylene blue or crystal violet is used.

しかしながら、いわゆる色素法として用いられるインジゴカルミンと、染色法として用いられるメチレンブルー及びクリスタルバイオレットにおいては次のような性質の違いがある。   However, indigo carmine used as a so-called dye method and methylene blue and crystal violet used as a staining method have the following differences in properties.

インジゴカルミンは生体に吸収される特性を持たず、粘膜表面の凹凸形状に応じて凹の部分に溜まることで明瞭な観察像が得られるものである。一方、メチレンブルー及びクリスタルバイオレットは例えば細胞内の核に吸収されることで、吸収されなかった部位とのコントラストを明瞭化することが可能となっている。   Indigo carmine does not have the property of being absorbed by the living body, and a clear observation image can be obtained by accumulating in a concave portion according to the uneven shape of the mucosal surface. On the other hand, methylene blue and crystal violet are, for example, absorbed by the nucleus in the cell, thereby making it possible to clarify the contrast with the part that has not been absorbed.

これらの性質から画像上に現れる違いについて図23を例に説明する。例えば大腸のpit patternは粘膜表面の腺口の形状と配列を観察するものであるが、腺口は粘膜表面に開いている微細な穴であるため、インジゴカルミンを散布した場合には内視鏡画像においては腺口部が青緑色の領域として観察される。これを模式図的に表すと図23(a)に黒色で示す領域となる。一方、メチレンブルー及びクリスタルバイオレットにおいては,腺口は当然のことながら何もない空間であるため染色されず、図23(b)に示すように図23(a)とは逆の状態となり、内視鏡画像においては腺口部以外の部位がメチレンブルーでは青色、クリスタルバイオレットでは紫色の領域として観察される。   Differences appearing on the image due to these properties will be described with reference to FIG. For example, the pit pattern of the large intestine is for observing the shape and arrangement of the glandular openings on the mucosal surface, but the glandular openings are minute holes that are open on the mucosal surface, so when indigo carmine is sprayed on the endoscope In the image, the glandular opening is observed as a blue-green region. When this is schematically shown, the region shown in black in FIG. On the other hand, in methylene blue and crystal violet, the glandular opening is naturally not stained because it is an empty space, and as shown in FIG. 23 (b), the state is opposite to that in FIG. 23 (a). In the mirror image, a region other than the glandular opening is observed as a blue region in methylene blue and a purple region in crystal violet.

そのため、例えばしきい値処理による粘膜構造の抽出を行う場合には各薬剤の違いにより処理結果が逆転することとなり、同じ疾患であるにもかかわらず異なる特徴量の値が算出されるため、薬剤散布のない通常画像及び各種薬剤を散布した画像を混在して使用できないという問題がある。   Therefore, for example, when extracting mucosal structures by threshold processing, the processing result is reversed due to the difference in each drug, and different feature values are calculated despite the same disease. There is a problem that normal images without spraying and images sprayed with various drugs cannot be used together.

また、薬剤散布のない通常の内視鏡画像においては、粘膜表面の構造成分はRGB画像におけるG画像に最も多く含まれる。クリスタルバイオレットにおいてもその紫色の色調から同様である。一方、インジゴカルミン及びメチレンブルー等の青色系の薬剤を使用した場合はR画像が最も多く構造成分を含む場合がある。したがって、特徴量算出においてRGB画像のいずれを処理の対象とするかについて、薬剤散布の有無及び散布に使用した菓剤の種別に応じて変更することで診断支援の高精度化が図れるにも関わらずこの点について考慮されていないという問題がある。   Further, in a normal endoscopic image without drug distribution, the structural component of the mucosal surface is contained most in the G image in the RGB image. The same applies to crystal violet because of its purple color. On the other hand, when a blue-type drug such as indigo carmine and methylene blue is used, the R image may be the most and contain structural components. Therefore, it is possible to improve the accuracy of diagnosis support by changing which of the RGB images to be processed in the feature quantity calculation according to the presence or absence of the medicine spraying and the type of confectionery used for the spraying. There is a problem that this point is not taken into consideration.

本発明は、上記事情に鑑みてなされたものであり、内視鏡画像中の空間周波数成分の特徴量化において、位相情報を考慮した特徴量算出手法を適用することにより、空間周波数成分の有する全ての情報を利用し、より高精度の客観的・数値的な診断を行うことができる内視鏡診断支援装置及び内視鏡画像処理方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and by applying a feature amount calculation method considering phase information in the feature amount of the spatial frequency component in the endoscopic image, all the spatial frequency components have It is an object of the present invention to provide an endoscopic diagnosis support apparatus and an endoscopic image processing method capable of performing objective and numerical diagnosis with higher accuracy using the above information.

本発明の一態様による内視鏡診断支援装置は、被検体を撮像した複数の撮像信号のうち少なくとも1つの撮像信号から所定の周波数成分を抽出する周波数成分抽出手段と、前記周波数成分抽出手段により抽出された所定の周波数成分に基づく位相情報を検出する位相情報検出手段と、前記位相情報検出手段によって検出された前記位相情報に基づいて前記被検体の特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された特徴量を演算する特徴量演算手段と、 を備えて構成される。   An endoscope diagnosis support apparatus according to an aspect of the present invention includes a frequency component extraction unit that extracts a predetermined frequency component from at least one imaging signal among a plurality of imaging signals obtained by imaging a subject, and the frequency component extraction unit. Phase information detection means for detecting phase information based on the extracted predetermined frequency component; feature quantity calculation means for calculating the feature quantity of the subject based on the phase information detected by the phase information detection means; And feature amount calculation means for calculating the feature amount calculated by the feature amount calculation means.

また、本発明の他の態様による内視鏡画像処理方法は、複数の色信号からなる内視鏡画像を入力するステップと、前記入力した内視鏡画像に対し空間周波数成分を抽出するフィルタリングを適用するステップと、前記フィルタリングの適用結果に基づき前記内視鏡画像の位相情報を検出するステップと、検出した前記位相情報に基づく特徴量を算出するステップと、を備えている。   An endoscope image processing method according to another aspect of the present invention includes a step of inputting an endoscope image composed of a plurality of color signals, and filtering for extracting a spatial frequency component from the input endoscope image. A step of applying, a step of detecting phase information of the endoscopic image based on an application result of the filtering, and a step of calculating a feature amount based on the detected phase information.

本発明の内視鏡診断支援装置及び内視鏡画像処理方法は、内視鏡画像中の空間周波数成分の特徴量化において、位相情報を考慮した特徴量算出手法を適用することにより、空間周波数成分の有する全ての情報を利用し、より高精度の客観的・数値的な診断を行うことができる。   The endoscopic diagnosis support apparatus and the endoscopic image processing method according to the present invention apply a feature amount calculation method considering phase information in the feature amount of a spatial frequency component in an endoscopic image, thereby obtaining a spatial frequency component. It is possible to perform objective and numerical diagnosis with higher accuracy by using all the information possessed by.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

第1の実施の形態:
本発明の第1の実施の形態は、診断支援情報の取得を所望する病変部に対して、もれなく関心領域(以下、ROIと称する)を設定することが可能となるとともに、各ROIごとにどのような所見や疾患がどのような割合で存在しているのかを提示することができる内視鏡診断支援装置に関するものである。
First embodiment:
In the first embodiment of the present invention, it is possible to set a region of interest (hereinafter referred to as ROI) for all lesions for which acquisition of diagnosis support information is desired. The present invention relates to an endoscopic diagnosis support apparatus capable of presenting at what rate such findings and diseases are present.

図1ないし図12は本発明の第1の実施の形態に係わり、図1は内視鏡診断支援装置の構成を示す構成図、図2は従来の内視鏡診断支援装置における診断支援処理実行プログラムの構成を説明するための機能ブロック図、図3は従来の内視鏡診断支援装置における診断支援処理実行プログラムの動作を説明するためのフローチャート、図4は従来の内視鏡診断支援装置におけるROI設定を説明するためのROI設定ウィンドウ説明図、図5は従来の内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図、図6は本実施の形態の内視鏡診断支援装置における診断支援処理実行プログラムの構成を説明するための機能ブロック図、図7は本実施の形態の内視鏡診断支援装置における診断支援処理実行プログラムの動作を説明するためのフローチャート、図8は本実施の形態の内視鏡診断支援装置における仮ROI設定を説明するための仮ROI設定ウィンドウ説明図、図9は本実施の形態における領域分割処理の動作を説明するためのフローチャート、図10及び図11は本実施の形態における領域分割処理を説明するための説明図、図12は本実施の形態の内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図である。   1 to 12 relate to a first embodiment of the present invention, FIG. 1 is a block diagram showing a configuration of an endoscope diagnosis support apparatus, and FIG. 2 is a diagnosis support process execution in a conventional endoscope diagnosis support apparatus. FIG. 3 is a functional block diagram for explaining the configuration of the program, FIG. 3 is a flowchart for explaining the operation of the diagnosis support processing execution program in the conventional endoscope diagnosis support apparatus, and FIG. 4 is in the conventional endoscope diagnosis support apparatus. ROI setting window explanatory view for explaining ROI setting, FIG. 5 is a report display window explanatory view for explaining display of diagnosis support information in a conventional endoscopic diagnosis support apparatus, and FIG. FIG. 7 is a functional block diagram for explaining the configuration of a diagnosis support process execution program in the endoscope diagnosis support apparatus, and FIG. 7 is a diagnosis support process execution in the endoscope diagnosis support apparatus of the present embodiment 8 is a flowchart for explaining the operation of the program, FIG. 8 is a diagram for explaining the provisional ROI setting window for explaining provisional ROI setting in the endoscopic diagnosis support apparatus of the present embodiment, and FIG. 9 is a region division in the present embodiment. FIG. 10 and FIG. 11 are explanatory diagrams for explaining the region division processing in the present embodiment, and FIG. 12 is diagnosis support information in the endoscope diagnosis support apparatus of the present embodiment. It is report display window explanatory drawing for demonstrating the display of these.

始めに、図1を参照の上、本発明の第1の実施の形態における内視鏡診断支援装置の構成について説明する。なお、本実施の形態における内視鏡診断支援装置の構成は、従来の内視鏡診断支援装置と基本的に同一であるが、後述する診断支援プログラムを構成するブロック及び動作を異ならしめることによりその目的を達成するものである。   First, the configuration of the endoscope diagnosis support apparatus according to the first embodiment of the present invention will be described with reference to FIG. The configuration of the endoscopic diagnosis support apparatus according to the present embodiment is basically the same as that of a conventional endoscopic diagnosis support apparatus, but the blocks and operations that make up a diagnosis support program to be described later are made different. The purpose is achieved.

図1に示すように、本実施の形態の診断支援装置1は、例えば図示しない電子内視鏡から撮像信号を得て映像信号に変換するビデオプロセッサ2と、このビデオプロセッサ2からの映像信号を映し出す観察モニタ3と、ビデオプロセッサ2からの映像信号を画像データに変換して信号処理する入力ユニット4と、入力ユニット4により信号処理した画像データ及びこの画像データを可逆あるいは非可逆圧縮した圧縮画像データを記憶するサーバユニット5と、サーバユニット5に記憶された画像データあるいは圧縮画像データを検索して表示すると共に、関心領域設定処理、特徴量算出処理、判別分類処理等の一連の診断支援処理を行うカンファレンスユニット6とを備えて構成されている。   As shown in FIG. 1, the diagnosis support apparatus 1 according to the present embodiment, for example, obtains an imaging signal from an electronic endoscope (not shown) and converts it into a video signal, and converts the video signal from the video processor 2 into a video signal. An observation monitor 3 to be projected; an input unit 4 that converts a video signal from the video processor 2 into image data and performs signal processing; image data that has undergone signal processing by the input unit 4; and a compressed image that is reversibly or irreversibly compressed. Server unit 5 for storing data, and image data or compressed image data stored in server unit 5 are retrieved and displayed, and a series of diagnostic support processes such as region-of-interest setting processing, feature amount calculation processing, discrimination classification processing, and the like And a conference unit 6 for performing the above.

入力ユニット4は、ビデオプロセッサ2からの映像信号であるアナログRGBビデオ信号をデジタル信号である画像データヘ変板するA/Dコンバータ11と、画像データを記憶するメモリを備えビデオプロセッサ2からの管理情報を付加した画像ファイルを生成する画像処理部12と、画像処理部12により生成された画像ファイルをLAN(Local Area Network)ケーブル4aを介してサーバユニット5に送出するLANコントローラ13と、ビデオプロセッサ2と画像データの管理情報等を通信すると共に画像処理部12及びLANコントローラ13を制御するコントローラ14とを備えて構成される。   The input unit 4 includes an A / D converter 11 that converts an analog RGB video signal that is a video signal from the video processor 2 into image data that is a digital signal, and a memory that stores the image data, and management information from the video processor 2. An image processing unit 12 for generating an image file to which the image processor is added, a LAN controller 13 for sending the image file generated by the image processing unit 12 to the server unit 5 via a LAN (Local Area Network) cable 4a, and the video processor 2 And a controller 14 for controlling the image processing unit 12 and the LAN controller 13 as well as for communicating image data management information and the like.

ビデオプロセツサ2は、映像信号出力端、アナログRGBビデオ信号出力端及び通信信号出力端を備えており、映像信号出力端は観察モニタ3に接続され、アナログRGBビデオ信号出力端はA/Dコンバータ11の入力端に接続され、通信信号出力端はコントローラ14に接続されている。   The video processor 2 includes a video signal output terminal, an analog RGB video signal output terminal, and a communication signal output terminal. The video signal output terminal is connected to the observation monitor 3, and the analog RGB video signal output terminal is an A / D converter. The communication signal output terminal is connected to the controller 14.

また,A/Dコンバータ11の出力端は、画像処理部12のデータ信号端に接続されている。   The output terminal of the A / D converter 11 is connected to the data signal terminal of the image processing unit 12.

コントローラ14の制御信号端及びデータ信号端は、バスライン14aにより画像処理部12及びLANコントローラ13との制御信号端に接続されている。そしてコントローラ14による画像処理部12及びLANコントローラ13の制御は、バスライン14aを介した信号により行われるようになっている。   The control signal end and the data signal end of the controller 14 are connected to the control signal end of the image processing unit 12 and the LAN controller 13 by the bus line 14a. The control of the image processing unit 12 and the LAN controller 13 by the controller 14 is performed by signals via the bus line 14a.

ビデオプロセッサ2により映像信号に変換された、例えば図示しない電子内視鏡による観察像は、観察モニタ3に観察画像として映し出されるようになっている。また、ビデオプロセッサ2の操作者が、前述した観察画像を記録する必要があると判断した場合、前述した映像信号は、アナログRGBビデオ信号としてA/Dコンバータ11へ出力されこのA/Dコンバータ11は、アナログRGBビデオ信号を所定の量子化処理を行い、デジタルRGBビデオ信号に変換し、画像処理部12へ観察画像データとして出力するようになっている。   For example, an observation image obtained by an electronic endoscope (not shown) converted into a video signal by the video processor 2 is displayed on the observation monitor 3 as an observation image. When the operator of the video processor 2 determines that the above-described observation image needs to be recorded, the above-described video signal is output to the A / D converter 11 as an analog RGB video signal, and this A / D converter 11 The analog RGB video signal is subjected to predetermined quantization processing, converted into a digital RGB video signal, and output to the image processing unit 12 as observation image data.

画像処理部12は、コントローラ14の制御により、A/Dコンバータ11から入力された観察画像データを記憶するようになっている。   The image processing unit 12 stores observation image data input from the A / D converter 11 under the control of the controller 14.

コントローラ14は,画像処理部12に記憶された観察画像データに対して縮小処理等の各種データ処理を施し、さらには管理情報を付加して画像ファイルとし、画像処理部12へ一旦記憶させあるいはLANコントローラ13へ出力するようになっている。また、コントローラ14は、前述したように各種データ処理を施された画像ファイルを画像処理部12へ一旦記憶した場合、該画像ファイルを所定のタイミングにより画像処理部12からLANコントローラ13へ出力するようになっている。   The controller 14 performs various data processing such as reduction processing on the observation image data stored in the image processing unit 12, and further adds management information to form an image file, which is temporarily stored in the image processing unit 12 or a LAN. The data is output to the controller 13. Further, when the controller 14 temporarily stores the image file subjected to various data processing as described above in the image processing unit 12, the controller 14 outputs the image file from the image processing unit 12 to the LAN controller 13 at a predetermined timing. It has become.

サーバユニット5は、入力ユニット4のLANコントローラ13より送出される画像ファイルを受け取るLANコントローラ21と、LANコントローラ21が受け取った画像ファイルを一時的に記憶するメモリ22と、LANコントローラ21が受け取つた画像ファイルを大容量記憶媒体である例えばハードディスク23に記録するハードディスクドライバ24と、LANコントローラ21が受け取った画像ファイルを可逆あるいは非可逆で圧縮して圧縮画像データをハードディスクドライバ24に送出する圧縮装置25と、LANコントローラ21、メモリ22、ハードディスクドライバ24及び圧縮装置25を制御するコントローラ26とを備えて構成され、ハードディスクドライバ24は、画像ファイル及び圧縮画像データをハードディスク23に記録すると共に、LANコントローラ21は、LANケーブル5aを介してハードディスク23に記録された画像ファイルまたは圧縮画像データをカンファレンスユニット6に送信できるようになっている。   The server unit 5 includes a LAN controller 21 that receives an image file transmitted from the LAN controller 13 of the input unit 4, a memory 22 that temporarily stores the image file received by the LAN controller 21, and an image received by the LAN controller 21. A hard disk driver 24 that records a file on, for example, the hard disk 23 that is a large-capacity storage medium, and a compression device 25 that compresses the image file received by the LAN controller 21 reversibly or irreversibly and sends compressed image data to the hard disk driver 24. , A LAN controller 21, a memory 22, a hard disk driver 24, and a controller 26 for controlling the compression device 25. The hard disk driver 24 stores image files and compressed image data in hardware. And records the disc 23, LAN controller 21 via the LAN cable 5a has to send image files or compressed image data recorded in the hard disk 23 to the conference unit 6.

入力ユニット4のLANコントローラ13のLANケーブル4a端はサーバユニット5のLANコントローラ21に接続されている。このLANケーブル4aは、いわゆる10baseTもしくは100baseTといわれるケーブルであり、ツイストペア線を用い10Mbit/secの双方向のデータ通信を長さ100m以内の範囲で可能であり、複数の装置間の制御及びデータの送受をすることができるものである。   The end of the LAN cable 4 a of the LAN controller 13 of the input unit 4 is connected to the LAN controller 21 of the server unit 5. This LAN cable 4a is a so-called 10baseT or 100baseT cable, and is capable of 10Mbit / sec bidirectional data communication within a length of 100m using a twisted pair cable. You can send and receive.

サーバユニット5のコントローラ26の制御信号端及びデータ信号端は、バスライン26aによりメモリ22と、LANコントローラ21と,ハードディスクドライブ24との制卸信号端に接続されている。   The control signal terminal and the data signal terminal of the controller 26 of the server unit 5 are connected to the control signal terminal of the memory 22, the LAN controller 21, and the hard disk drive 24 by the bus line 26a.

サーバユニット5では、入力ユニット4のLANコントローラ13からの画像ファイルをLANケーブル4aを介してLANコントローラ21で入力し、コントローラ26が、LANコントローラ21を介して入力された画俵ファイルを一旦メモリ22に記憶する。ハードディスクドライブ24は、この画像ファイルを例えばハードディスク23へ記憶するようになっている。   In the server unit 5, an image file from the LAN controller 13 of the input unit 4 is input by the LAN controller 21 via the LAN cable 4 a, and the controller 26 temporarily stores the screen file input via the LAN controller 21 in the memory 22. To remember. The hard disk drive 24 stores the image file in the hard disk 23, for example.

カンフアレンスユニット6は、サーバユニット5のLANコントローラ21からの画像ファイルまたは圧縮画像データをLANケーブル5aを介して受け取るLANコントローラ31と、LANコントローラ31が受け取った画像ファイルまたは圧縮画像データを記憶する画像処理部32と、画像処理部32が記憶した圧縮画像データを伸張する伸張装置33と、画像処理部32が記憶した画像ファイル中のデジタル信号である画像データ及び伸張装置22で伸張された画像データを逆量子化処理し、アナログRGBビデオ信号へ変換するD/Aコンバータ34と、D/Aコンバータ34により変換されたアナログRGBビデオ信号を映し出す観察モニタ35と、画像処理部32を制御するコントローラ36とを備えている。   The conference unit 6 receives an image file or compressed image data from the LAN controller 21 of the server unit 5 via the LAN cable 5a, and an image for storing the image file or compressed image data received by the LAN controller 31. The processing unit 32, the decompression device 33 that decompresses the compressed image data stored by the image processing unit 32, the image data that is a digital signal in the image file stored by the image processing unit 32, and the image data that is decompressed by the decompression device 22 Is converted to an analog RGB video signal, a D / A converter 34 that converts the analog RGB video signal, an observation monitor 35 that displays the analog RGB video signal converted by the D / A converter 34, and a controller 36 that controls the image processing unit 32. And.

画像処理部32のデータ信号端は,D/Aコンパータ34の入力端に接続され、このD/Aコンバータ34の出力端は、観察モニタ35に接続されている。コントローラ36の制御信号端及びデータ信号端は、バスライン36aにより前記画像処理部32とLANコントローラ31との制御信号端に接続されている。コントローラ36の制御信号端及びデータ信号端は、パスライン36bにより後述のCPU41との制御信号端に接続されている。   The data signal end of the image processing unit 32 is connected to the input end of the D / A converter 34, and the output end of the D / A converter 34 is connected to the observation monitor 35. A control signal end and a data signal end of the controller 36 are connected to control signal ends of the image processing unit 32 and the LAN controller 31 by a bus line 36a. A control signal end and a data signal end of the controller 36 are connected to a control signal end with a CPU 41 described later by a pass line 36b.

また、カンファレンスユニット6は、コントローラ36を制御するCPU41と、例えばサーバユニット5への画像ファイルの検索等の要求を入力すると共に、この画像ファイルに併せて各種の情報を入力するキーボード42と、このキーボード42の信号とCPU41の信号との整合をとるキーボードインターフェース(以下,キーボードI/Fと称する)43と、キーボード42により入力された情報を表示する検索モニタ44と、検索モニタ44の画面上のカーソル座標を任意の位置に移動させる指示を与えるマウス45と、このマウス45の信号とCPU41の信号との整合をとるマウスインターフェース(以下,マウスI/Fと称する)46と、CPU41の実行プログラム及び検索モニタ44のメニュー画面の画像データ等の各種データを記録したハードデイスク47と、このハードディスク47の信号とCPU41との信号の整合をとるハードディスクインターフェース(以下,ハードディスクI/Fと称する)48と、CPU41の各種処理作業領域として用いられる作業メモリ49と、検索モニタ44に表示するデジタルRGBビデオ信号を記憶するメモリを含む画像処理部50と、CPU41からの情報を印刷するプリンタ51と、プリンタ51とCPU41との整合をとるプリンタインターフェース(以下,プリンタI/Fと称する)52とを備えている。   In addition, the conference unit 6 inputs a CPU 41 for controlling the controller 36, a request for searching for an image file to the server unit 5, for example, and a keyboard 42 for inputting various information along with the image file. A keyboard interface (hereinafter referred to as a keyboard I / F) 43 that matches a signal of the keyboard 42 and a signal of the CPU 41, a search monitor 44 that displays information input by the keyboard 42, and a screen on the search monitor 44 A mouse 45 that gives an instruction to move the cursor coordinates to an arbitrary position, a mouse interface (hereinafter referred to as mouse I / F) 46 that matches the signal of the mouse 45 and the signal of the CPU 41, an execution program for the CPU 41, and Each image data on the menu screen of the search monitor 44 A hard disk 47 in which data is recorded, a hard disk interface (hereinafter referred to as a hard disk I / F) 48 for matching the signal of the hard disk 47 and the signal of the CPU 41, and a work memory 49 used as various processing work areas of the CPU 41; , An image processing unit 50 including a memory for storing a digital RGB video signal to be displayed on the search monitor 44, a printer 51 for printing information from the CPU 41, and a printer interface for matching the printer 51 and the CPU 41 (hereinafter referred to as printer I). / F) 52.

さらに、カンファレンスユニット6は、CPU41によりキーボード42から入力された情報のうちパスワードを記憶するパスワード記憶部61と、パスワード記憶部61が記憶したパスワードのレベルを判定するパスワード監視部62と、パスワード監視部62の判定結果に基づいてCPU41の制御を制限する制御制限部63とを備えている。   Furthermore, the conference unit 6 includes a password storage unit 61 that stores a password among information input from the keyboard 42 by the CPU 41, a password monitoring unit 62 that determines the level of the password stored in the password storage unit 61, and a password monitoring unit. And a control restriction unit 63 that restricts the control of the CPU 41 based on the determination result 62.

CPU41の制御信号端及びデータ信号端は、バスライン41aによりハードディスクI/F48、マウスI/F46、 キーボードI/F43、作業メモリ49、画像処理部50及びパスワード監視部61の制御信号端及びデータ信号端に接続されている。そして、CPU41は,バスライン41aにより、ハードディスクI/F48、マウスI/F46、キーボードI/F43、プリンタI/F52及び作業メモリ49を制御するようになっている。   The control signal terminal and data signal terminal of the CPU 41 are connected to the hard disk I / F 48, the mouse I / F 46, the keyboard I / F 43, the work memory 49, the image processing unit 50 and the password monitoring unit 61 through the bus line 41a. Connected to the end. The CPU 41 controls the hard disk I / F 48, the mouse I / F 46, the keyboard I / F 43, the printer I / F 52, and the work memory 49 by the bus line 41a.

マウスI/F46は、マウス45の物理的相対移動量に応じた信号を検出し、作業メモリ49へ出力し、作業メモリ49は、前述した移動量を記憶するようになっている。   The mouse I / F 46 detects a signal corresponding to the physical relative movement amount of the mouse 45 and outputs it to the work memory 49. The work memory 49 stores the above-mentioned movement amount.

キーボードI/F43は、キーボード42から入力された文字情報の信号を作業メモリ49へ出力し、作業メモリ49は、前述した文字情報等を記憶するようになっている。   The keyboard I / F 43 outputs a signal of character information input from the keyboard 42 to the work memory 49, and the work memory 49 stores the character information described above.

ハードディスクI/F48は、ハードディスク47からCPU41が実行するプログラム及びメニュー画面等の検索モニタ44用の画像データを読み出し、作業メモリ49へ出力し、作業メモリ49は前述したプログラム及び検索モニタ44用の画像データ等を記憶するようになっている。   The hard disk I / F 48 reads out the program executed by the CPU 41 from the hard disk 47 and the image data for the search monitor 44 such as the menu screen, and outputs them to the work memory 49. The work memory 49 reads the image for the program and the search monitor 44 described above. Data etc. are memorized.

プリンタI/F52は、プリンタ51に対してCPU41から送信される情報を伝送し印刷を行う。   The printer I / F 52 transmits information transmitted from the CPU 41 to the printer 51 and performs printing.

CPU41は、前述したように、ハードディスク47に記憶されたプログラムを電源投入時に、作業メモリ44にロードし該プログラムによって動作する。   As described above, the CPU 41 loads the program stored in the hard disk 47 into the work memory 44 when the power is turned on, and operates according to the program.

前述したようにサーバユニット5のハードディスク23に記憶された画像ファイルは、コントローラ26の制御により、ハードディスクドライバ14に出力されメモリ22に一旦記憶されるかあるいは直接LANコントローラ21へ出力される。LANコントローラ21からLANケーブル5aを介し,カンファレンスユニット6のLANコントローラ31へ画像ファイルが入力される。   As described above, the image file stored in the hard disk 23 of the server unit 5 is output to the hard disk driver 14 and temporarily stored in the memory 22 or directly to the LAN controller 21 under the control of the controller 26. An image file is input from the LAN controller 21 to the LAN controller 31 of the conference unit 6 via the LAN cable 5a.

そして、カンファレンスユニット6では、コントローラ36の制御によりLANコントローラ31は、画像処理部32に画像ファイルを出力する。画像処理部32に記憶された、サーバーユニット5のハードディスク23からの画像ファイルは、コントローラ36の制御によりデジタルの観察画像データと管理情報に分離され、デジタル観察画像データは画像処理部32に記憶され、管理情報はバスライン36bによりCPU41に送られる。   In the conference unit 6, the LAN controller 31 outputs an image file to the image processing unit 32 under the control of the controller 36. The image file stored in the image processing unit 32 from the hard disk 23 of the server unit 5 is separated into digital observation image data and management information under the control of the controller 36, and the digital observation image data is stored in the image processing unit 32. The management information is sent to the CPU 41 via the bus line 36b.

画像処理部32は、前述した観察画像データを記憶するようになっている。前述したように画像処理部32へ記憶されたデジタル信号である観察画像データは、D/Aコンパータ34の逆量子化により、アナログRGBビデオ信号へ変換され、観察モニタ35へ出力されるようになっている。観察モニタ35は、前述したように入力されたアナログRGBビデオ信号を映し出すようになっている。尚、観察画像データが圧縮画像データの場合は、伸張装置33で伸張された後にD/Aコンバータ34に出力される。   The image processing unit 32 stores the above-described observation image data. As described above, the observation image data which is a digital signal stored in the image processing unit 32 is converted into an analog RGB video signal by the inverse quantization of the D / A converter 34 and is output to the observation monitor 35. ing. The observation monitor 35 displays the input analog RGB video signal as described above. If the observation image data is compressed image data, it is decompressed by the decompression device 33 and then output to the D / A converter 34.

CPU41は、マウス45によるカーソル、キーボード42による文字情報、ハードディスク47からのメニュー画面等の検索モニタ44用の画像データと管理情報を合成あるいは単独で表示するように演算処理し、画像データとして画像処理部50へ記憶させるようになっている。   The CPU 41 performs arithmetic processing so that image data for the search monitor 44 such as a cursor by the mouse 45, character information by the keyboard 42, a menu screen from the hard disk 47, and management information are combined or displayed alone, and image processing is performed as image data. The information is stored in the unit 50.

ハードディスク23に記録されている画像ファイルの観察画像データは、例えばカラーである観察画像を横640ドット,縦480ドットで分割し、この各ドットに対応じてRGB各色信号レベルを、例えば8ビットとなるように量子化した所定のバイト数で構成されるようになっている。   The observation image data of the image file recorded on the hard disk 23 is, for example, a color observation image is divided into horizontal 640 dots and vertical 480 dots, and RGB color signal levels corresponding to these dots are, for example, 8 bits. It is configured with a predetermined number of bytes quantized to be.

以上に説明した構成による内視鏡診断支援装置を用いた診断支援処理は、ハードディスク47に記録された診断支援処理実行プログラムを用い、CPU41により実行される。また、診断支援処理は検索モニタ44に表示されるマルチウィンドウ環境上において、キーボード42及びマウス45を用いた入力により操作される。   Diagnosis support processing using the endoscope diagnosis support apparatus having the above-described configuration is executed by the CPU 41 using a diagnosis support processing execution program recorded in the hard disk 47. The diagnosis support process is operated by input using the keyboard 42 and the mouse 45 in a multi-window environment displayed on the search monitor 44.

内視鏡診断支援装置においては、患者・検査及び画像に関してサーバーユニット5から送信される各種情報と、設定されたROIの位置・形状情報と、付随する所見情報と、ROIから算出された特徴量の値と、判別分類処理の適用により得られた判別結果等を保存するためのデータベースがハードデイスク47に格納される。このデータベースは診断支援処理実行プログラムによりアクセスされる。   In the endoscopic diagnosis support apparatus, various information transmitted from the server unit 5 regarding the patient, examination, and image, the set position / shape information of the ROI, the accompanying finding information, and the feature amount calculated from the ROI A database for storing the value and the discrimination result obtained by applying the discrimination classification process is stored in the hard disk 47. This database is accessed by the diagnostic support process execution program.

次に、図2を用いて従来の診断支援処理の概要について説明する。   Next, an outline of a conventional diagnosis support process will be described with reference to FIG.

図2に示すように、診断支援処理実行プログラム70は、画像入力・管理ブロック71、データベース管理ブロック72、ROI設定ブロック73、特徴量算出ブロック74、判別分類ブロック75、レポート作成ブロック76及び画像処理ブロック77からなっている。以下、診断支援処理実行プログラム70を構成する各ブロックの概要を説明する。   As shown in FIG. 2, the diagnosis support processing execution program 70 includes an image input / management block 71, a database management block 72, an ROI setting block 73, a feature amount calculation block 74, a discrimination classification block 75, a report creation block 76, and an image processing. It consists of block 77. Hereinafter, the outline of each block constituting the diagnosis support processing execution program 70 will be described.

画像入力・管理ブロック71は、診断:支援処理において使用する内視鏡画像の入力、管埋及び検索等を行う。   The image input / management block 71 performs input of an endoscopic image used in diagnosis: support processing, tube embedding, search, and the like.

データベース管理ブロック72は、診断支援処理において使用する画像、設定されるROI、算出される特徴量等を記憶及び管理するためのデータベースを管理する。   The database management block 72 manages a database for storing and managing images used in diagnosis support processing, set ROIs, calculated feature amounts, and the like.

ROI設定ブロック73は、内視鏡画像上において、粘膜表面構造に基づく特徴量を算出するためのROIを設定する。   The ROI setting block 73 sets an ROI for calculating a feature amount based on the mucosal surface structure on the endoscopic image.

特徴量算出ブロック74は、特徴量算出手法を適用することにより判別分類ブロック75における判別分類処理及びレポート作成ブロック76における統計処理等に使用するための特徴量を算出する。   The feature quantity calculation block 74 calculates a feature quantity to be used for discrimination classification processing in the discrimination classification block 75 and statistical processing in the report creation block 76 by applying a feature quantity calculation method.

判別分類ブロック75は、特徴量算出ブロック74において算出された特徴量を用いた判別分類処理を行う。   The discrimination classification block 75 performs discrimination classification processing using the feature amount calculated in the feature amount calculation block 74.

レポート作成ブロック76は、特徴量算出ブロック74及び判別分析ブロック75により得られた各処理結果の一覧表示、特徴量の病変種別ごとの平均値等の統計処理結果表示及びグラフ上へのプロット等によるレポートを作成する。   The report creation block 76 is based on a list display of each processing result obtained by the feature amount calculation block 74 and the discriminant analysis block 75, a statistical processing result display such as an average value of each feature amount for each lesion type, and a plot on a graph. Create a report.

また、画像処理ブロック77は、診断支援処理に使用する内視鏡画像に対し、例えばノイズ抑制処理、逆γ補正処理、構造成分強調処理等の画像処理を適用する。   The image processing block 77 applies image processing such as noise suppression processing, inverse γ correction processing, and structural component enhancement processing to the endoscopic image used for the diagnosis support processing.

そして、画像処理ブロック77による処理結果画像は、原画像と同様にサーバユニット5におけるハードディスク23に記録されるとともに、診断支援処理の対象データとすることができる。   Then, the processing result image by the image processing block 77 is recorded on the hard disk 23 in the server unit 5 in the same manner as the original image, and can be the target data for the diagnosis support processing.

次に、図3ないし図5を用いて、従来の内視鏡診断支援装置の動作について説明する。   Next, the operation of the conventional endoscope diagnosis support apparatus will be described with reference to FIGS.

なお、以下の説明においては内視鏡画像を構成するR,G及びB画像データの内、粘膜表面構造をよく反映しているG画像データに対し一連の処理を適用するものとする。   In the following description, a series of processing is applied to G image data that well reflects the mucosal surface structure among R, G, and B image data constituting an endoscopic image.

まず始めに、図3に示すように、ステップS1において、処理対象とする内視鏡画像を入力する。内視鏡画像はサーバユニット5よりLANケーブル5aを経由してカンフアレンスユニット6に入力されるか、ハードディスク47におけるデータベースに蓄積されたものがデータベース管理ブロック72により読み出されることにより得ることができる。   First, as shown in FIG. 3, in step S1, an endoscope image to be processed is input. The endoscopic image can be obtained by being input from the server unit 5 to the conference unit 6 via the LAN cable 5a or by being read by the database management block 72 being stored in the database in the hard disk 47.

次に、ステップS2においてG画像を得る。続いて、ステップS3において画像上のランダムノイズを低減するためのノイズ抑制処理を適用する。   Next, a G image is obtained in step S2. Subsequently, noise suppression processing for reducing random noise on the image is applied in step S3.

ノイズ抑制処理としては一般的な平均化フィルタ、ガウシアンフィルタもしくはメディアンフイルタを用いたフィルタリングを各画素ごとに適用する。その際、フィルタの大きさ(マスクサイズ)は画像上のノイズの程度により定められ、ノイズが少ない場合は例えば3×3程度とし,多い場合はより大きなフィルタを用いるようにする。   As the noise suppression processing, filtering using a general averaging filter, Gaussian filter, or median filter is applied to each pixel. At this time, the size of the filter (mask size) is determined by the degree of noise on the image. For example, when the noise is small, the size is about 3 × 3, and when the noise is large, a larger filter is used.

次いで、ステップS4において逆γ補正を適用し、モニタ表示のための非線型変換を除去する。   Next, in step S4, inverse γ correction is applied to remove non-linear conversion for monitor display.

ステップS3及びS4における各処理は、図2における画像処理ブロック77において実行する。   Each process in steps S3 and S4 is executed in the image processing block 77 in FIG.

続いて,ROI設定ブロック73において、ステップS5ないしS9に示す一連の処理を適用する。始めに、ステップS5において設定するROIの個数をカウントするためのカウンタiを1とする。   Subsequently, in the ROI setting block 73, a series of processes shown in steps S5 to S9 is applied. First, a counter i for counting the number of ROIs set in step S5 is set to 1.

次に、ステップS6において処理対象とするG画像データ上にi番目のROI(i)を設定する。ROIの設定については,例えば図4に示すROI設定ウィンドウ100上においてマウス45及びキーボード42を操作することにより行う。   Next, in step S6, the i-th ROI (i) is set on the G image data to be processed. For example, the ROI is set by operating the mouse 45 and the keyboard 42 on the ROI setting window 100 shown in FIG.

図4において、内視鏡画像表示領域101に表示されたG画像データ上でマウスカーソル102を用いてROIを設定する。このとき,ROIの種別を任意の描画形状にするか、または矩形等の固定形状とするかがROI種別選択ボタン103a及び103bを用いて選択されている。続いてROI情報入力・表示領域104において病変の肉眼形態、所見、医師による診断名、コメント等ROIに付随する情報を入力もしくは選択の上、ROI設定ボタン105によりROI設定を完了する。また、ROI設定ウィンドウ100には設定済みのROIを削除するためのROI削除ボタン106、ROI設定を終了し、ROI設定ウィンドウ100を閉じるための終了ボタン107を備えている。   In FIG. 4, the ROI is set using the mouse cursor 102 on the G image data displayed in the endoscope image display area 101. At this time, whether the ROI type is an arbitrary drawing shape or a fixed shape such as a rectangle is selected using the ROI type selection buttons 103a and 103b. Subsequently, in the ROI information input / display area 104, information associated with the ROI such as a lesion's visual form, findings, doctor's diagnosis name, comments, etc. is input or selected, and the ROI setting button 105 completes the ROI setting. The ROI setting window 100 includes an ROI deletion button 106 for deleting the set ROI, and an end button 107 for ending the ROI setting and closing the ROI setting window 100.

続いて、ステップS7においてROI設定の終了を判定する。終了せず次のROIを設定する場合には、ステップS8に進む。図4を用いた例では内視鏡画像表示領域101上に新たなROIが設定された場合に相当する。また、終了であれば、ステップS9に進む。図4を用いた例では終了ボタン107が押された場合に相当し、ROI設定ウィンドウ100を閉じる。その際、データベース管理ブロック72により、設定したROIに関する位置・形状及び付与された情報をハードディスク47におけるデータベースに保存する。   Subsequently, the end of ROI setting is determined in step S7. If the next ROI is set without ending, the process proceeds to step S8. In the example using FIG. 4, this corresponds to the case where a new ROI is set on the endoscope image display area 101. If it is finished, the process proceeds to step S9. In the example using FIG. 4, this corresponds to the case where the end button 107 is pressed, and the ROI setting window 100 is closed. At this time, the database management block 72 saves the position / shape and the assigned information regarding the set ROI in the database in the hard disk 47.

ステップS8においてはカウンタiの値を1増加させ、ステップS6に戻る。   In step S8, the value of the counter i is incremented by 1, and the process returns to step S6.

ステップS9においては設定されたROIの総数をNとし、ステップS10に進む。   In step S9, the total number of set ROIs is N, and the process proceeds to step S10.

ステップS10においては、特徴量算出ブロック74における特徴量算出手法の適用により、設定されたROI(1)ないしROI(N)からの特徴量算出を行う。特徴量としては、例えば特開平10−14864号公報に示されたGaborフィルタを用いた特徴量の平均値等の統計量を算出する。算出した特徴量については、データベース管理ブロック72により、ROI(1)ないしROI(N)の各々に関連付けた上でハードディスク47におけるデータベースに保存する。   In step S10, the feature amount is calculated from the set ROI (1) to ROI (N) by applying the feature amount calculation method in the feature amount calculation block 74. As the feature amount, for example, a statistic amount such as an average value of the feature amount using a Gabor filter disclosed in Japanese Patent Application Laid-Open No. 10-14864 is calculated. The calculated feature amount is stored in a database in the hard disk 47 after being associated with each of ROI (1) to ROI (N) by the database management block 72.

ステップS11においては、設定されたROI(1)ないしROI(N)に対する判別分類を適用する。具体的にはすでにROI設定及び特徴量算出がなされている、例えば正常部、癌、腺腫等の病変群(これらは多変量解析分野におけるクラスに相当する)から得られた特徴量を特徴ベクトル(これらは教師データと呼ばれる)とし、統計的もしくは非統計的識別器を用いた分類を判別分類ブロック75において適用する。識別器は、その属する群(クラス)が既知のデータから得られた特徴量による特徴ベクトルを教師データとして用いて算出され、クラスが未知であるデータに適用することにより該データをいずれかのクラスに分類するものである。また、該データが各クラスに対してどの程度類似したものであるかを示す指標(クラスからの距離と呼ばれる)を算出することも可能である。クラスは何らかの属性(本実施の形態における内視鏡診断支援装置では所見がこれに該当する)が類似したデータの集合であれば自由に定義することができ、前述した病変の種別、すなわち診断名以外にも例えば大腸粘膜におけるpit patternの分類(I型,II型,...)としたり、「整群と不整群」としたりすることが可能である。   In step S11, the discrimination classification for the set ROI (1) to ROI (N) is applied. Specifically, feature quantities obtained from lesion groups (for example, normal part, cancer, adenoma, etc.) that have already undergone ROI setting and feature quantity calculation (these correspond to classes in the multivariate analysis field) are represented by feature vectors ( These are called teacher data), and classification using a statistical or non-statistic classifier is applied in the discrimination classification block 75. The classifier is calculated by using, as teacher data, a feature vector based on a feature amount obtained from data in which a group (class) to which the class belongs is applied, and applying the data to any class It is classified into. It is also possible to calculate an index (referred to as a distance from the class) indicating how similar the data is to each class. A class can be freely defined as long as it is a set of data having similar attributes (findings correspond to this in the endoscopic diagnosis support apparatus in the present embodiment). In addition, for example, it is possible to classify the pit pattern in the large intestine mucosa (type I, type II,...) Or “grouped and irregular group”.

統計的識別器としてはFisherの判別関数、非統計的識別器としてはニューラルネツトワークが代表的なものとして広く用いられており、分類対象となる病変からの特徴量の分布の型(例えば多変量正規分布であるか、その他の分布であるか)や、識別器自体の性能等に応じて適宜選択して使用する。ここではFisherの判別関数を用いることとする。   Fisher's discriminant function is widely used as a statistical classifier, and neural network is widely used as a non-statistical classifier. The type of distribution of features from lesions to be classified (for example, multivariate) Whether the distribution is a normal distribution or other distribution) and the performance of the discriminator itself are appropriately selected and used. Here, Fisher's discriminant function is used.

最後にステップS12において、レポート作成ブロック76により判別分類結果を含めた診断支援情報を表示する。   Finally, in step S12, the diagnosis support information including the discrimination classification result is displayed by the report creation block 76.

診断支援情報の表示例を図5に示す。レポート表示ウィンドウ110を開き、診断支援情報を表示する対象となる内視鏡画像のROIの番号、識別器による判別分類結果及び判別分類結果から想定される診断名を、診断支援情報表示領域111に表示する。なお、本実施の形態においては識別器の出力する分類結果(クラスと呼ばれる)を粘膜表面における腺口(pit)とし、その型(pit pattern)から診断される診断名をあわせて表示している。識別器の算出においては診断名自体をクラスとすることも可能である。   A display example of the diagnosis support information is shown in FIG. The report display window 110 is opened, and the ROI number of the endoscopic image that is the target for displaying the diagnosis support information, the discrimination classification result by the discriminator, and the diagnosis name assumed from the discrimination classification result are displayed in the diagnosis support information display area 111. indicate. In this embodiment, the classification result (called a class) output from the discriminator is a gland opening (pit) on the mucosal surface, and the diagnosis name diagnosed from the type (pit pattern) is also displayed. . In the calculation of the discriminator, the diagnosis name itself can be a class.

また、レポート表示ウィンドウ110においては特徴量値表示ボタン112、グラフ表示ボタン113,印刷ボタン11 4, 画像/ROI表示ボタン115及び終了ボタン116を備えており、マウス45の操作によりそれぞれ算出した特徴量の値・平均値の表示、特徴量のグラフの表示、診断支援情報の印刷、診断支援情報表示対象の画像とROIの表示及び診断支援情報表示の終了を行う。   The report display window 110 includes a feature value display button 112, a graph display button 113, a print button 114, an image / ROI display button 115, and an end button 116, and feature values calculated by operating the mouse 45, respectively. Value display, average value display, feature value graph display, diagnosis support information printing, diagnosis support information display target image and ROI display, and diagnosis support information display end.

次に、図6を用いて本実施の形態における内視鏡診断支援装置の概要について説明する。   Next, an outline of the endoscope diagnosis support apparatus in the present embodiment will be described with reference to FIG.

図6に示すように、本実施の形態における診断支援処理実行プログラム80は、画像入力・管理ブロック81、 データベース管理ブロック82、仮ROI設定ブロック83,特徴量算出ブロック84、ROI設定ブロック8 5、 判別分類ブロック86、レポート作成ブロック87及び画像処理ブロック88からなっている。以下、診断支援処理実行プログラム80を構成する各ブロックの概要を説明する。   As shown in FIG. 6, the diagnosis support processing execution program 80 in the present embodiment includes an image input / management block 81, a database management block 82, a temporary ROI setting block 83, a feature amount calculation block 84, an ROI setting block 85, It comprises a discrimination classification block 86, a report creation block 87, and an image processing block 88. The outline of each block constituting the diagnosis support process execution program 80 will be described below.

画像入力・管理ブロック81は、診断支援処理において使用する内視鏡画像の入力、管埋及び検索等を行う。   The image input / management block 81 performs input of an endoscopic image used in the diagnosis support processing, tube embedding, search, and the like.

データベース管理ブロック82は、診断支援処理において使用する画像、設定されるROI、算出される特徴量等を記憶及び管理するためのデータベースを管理する。   The database management block 82 manages a database for storing and managing images used in diagnosis support processing, set ROIs, calculated feature amounts, and the like.

仮ROI設定ブロック83は、内視鏡画像上において、詳細な診断支援情報を得る対象とするROIの設定に先立ち、大まかな処理対象とする領域(以下,仮ROIとする)を設定する。   The provisional ROI setting block 83 sets a region to be roughly processed (hereinafter referred to as provisional ROI) prior to setting an ROI to obtain detailed diagnosis support information on an endoscopic image.

特徴量算出ブロック84は、設定された仮ROIに対してROI特徴量算出手法を適用することにより、ROI設定ブロック85におけるROIの設定及びROIごとに算出された特徴量を用いた判別分類ブロック86における判別分類処理及びレポート作成ブロック87における統計処理等に使用するための特徴量を算出する。   The feature amount calculation block 84 applies the ROI feature amount calculation method to the set temporary ROI, thereby setting the ROI in the ROI setting block 85 and the discrimination classification block 86 using the feature amount calculated for each ROI. The feature amount for use in the discriminant classification process in FIG. 5 and the statistical process in the report creation block 87 is calculated.

判別分類ブロック86は、ROI設定ブロック85において設定されたROIに対し,特徴量算出ブロック84において算出された特徴量を用いた判別分類処理を行う。   The discrimination classification block 86 performs discrimination classification processing using the feature quantity calculated in the feature quantity calculation block 84 on the ROI set in the ROI setting block 85.

レポート作成ブロック87は、特徴量算出ブロック84及び判別分析ブロック86により得られた各処理結果の一覧表示、特徴量の病変種別ごとの平均値等の統計処理結果表示及びグラフ上へのプロット等によるレポートを作成する。   The report creation block 87 is based on a list display of each processing result obtained by the feature amount calculation block 84 and the discriminant analysis block 86, a statistical processing result display such as an average value of each feature amount for each lesion type, and a plot on a graph. Create a report.

また,画像処理ブロック88は、診断支援処理に使用する内視鏡画像に対し、例えばノイズ抑制処理、逆γ補正処理、構造成分強調処理等の画像処理を適用する。   The image processing block 88 applies image processing such as noise suppression processing, inverse γ correction processing, and structural component enhancement processing to the endoscopic image used for the diagnosis support processing.

そして、画像処理ブロック88による処理結果画像は、原画像と同様にサーバユニット5におけるハードディスク23に記録されるとともに、診断支援処理の対象データとすることができる。   Then, the processing result image by the image processing block 88 is recorded on the hard disk 23 in the server unit 5 in the same manner as the original image, and can be the target data of the diagnosis support processing.

次に、図7ないし図12を用いて、本実施の形態における内視鏡診断支援装置の動作について説明する。   Next, the operation of the endoscope diagnosis support apparatus according to the present embodiment will be described with reference to FIGS.

なお,以下の説明においては内視鏡画像を構成するR、G及びB画像データの内、粘膜表面構造をよく反映しているG画像データに対し一連の処理を適用するものとする。   In the following description, a series of processing is applied to G image data that well reflects the mucosal surface structure among R, G, and B image data constituting an endoscopic image.

図7に示すように、まず始めにステップS20において,処理対象とする内視鏡画像を入力する。内視鏡画像はサーバユニット5よりLANケーブル5aを経由してカンファレンスユニット6に入力されるか、ハードディスク47におけるデータベースに蓄積されたものがデータベース管理ブロック82により読み出されることにより得ることができる。   As shown in FIG. 7, first, in step S20, an endoscope image to be processed is input. The endoscopic image can be obtained by being input from the server unit 5 to the conference unit 6 via the LAN cable 5a or by being read by the database management block 82 being stored in a database in the hard disk 47.

次に、ステップS21においてG画像を得る。続いて、ステップS22及びS23において、各々図3におけるステップS3及びS4に示したノイズ抑制処理及び逆γ補正処理を適用する。ステップS22及びS23における各処理の適用は、図6における画像処理ブロック88において実行する。   Next, a G image is obtained in step S21. Subsequently, in steps S22 and S23, the noise suppression process and the inverse γ correction process shown in steps S3 and S4 in FIG. 3 are applied. Application of each process in steps S22 and S23 is executed in the image processing block 88 in FIG.

続くステップS24においては、仮ROI設定ブロック83により仮ROIの設定をするかどうかを判定する。仮ROIを設定する場合にはステップS25に進み、設定しない場合にはステップS26に進む。なお、仮ROIは病変部以外の領域に対する処理を省略するためのものであり、本実施の形態において操作者による設定は必ずしも必要なものではない。仮ROIを設定しない場合には以後の処理において内視鏡画像全体をROI設定対象とする。この場合、以下の説明において内視鏡画像全体を指して仮ROIと称する。   In the subsequent step S24, the temporary ROI setting block 83 determines whether or not to set a temporary ROI. If a temporary ROI is set, the process proceeds to step S25, and if not set, the process proceeds to step S26. The provisional ROI is for omitting the processing for the area other than the lesioned part, and the setting by the operator is not necessarily required in the present embodiment. When the temporary ROI is not set, the entire endoscopic image is set as the ROI setting target in the subsequent processing. In this case, the entire endoscope image is referred to as a temporary ROI in the following description.

ステップS25においては、仮ROIを設定する。仮ROIはステップS26以降の処理において計算量を削減するとともに、病変部でない領域に対する診断支援情報の表示を避けるためのものである。すなわち、設定された仮ROI内に本来の診断支援処理を適用するためのROIを設定する。   In step S25, a temporary ROI is set. The provisional ROI is for reducing the amount of calculation in the processing after step S26, and for avoiding the display of diagnosis support information for a region that is not a lesioned part. That is, the ROI for applying the original diagnosis support process is set in the set temporary ROI.

仮ROIの設定については,例えば図8に示す仮ROI設定ウィンドウ200上においてマウス45及びキーボード42を操作することにより行う。   The provisional ROI is set by, for example, operating the mouse 45 and the keyboard 42 on the provisional ROI setting window 200 shown in FIG.

図8において、内視鏡画像表示領域201に表示されたG画像データ上でマウスカーソル202を用いて仮ROIを設定する。ここでは、内視鏡画像表示領域201において破線で示す図形を仮ROIとして設定したものとする。仮ROIの種別を任意の描画形状にするか、または矩形等の固定形状とするかは仮ROI種別選択ボタン203a及び203bを用いて選択されている。続いて仮ROI情報入力・表示領域204において病変の肉眼形態、所見、医師による診断名、コメント等仮ROIに付随する情報を入力もしくは選択の上、仮ROI設定ボタン205によりROI設定を完了する。また、仮ROI設定ウィンドウ200には設定済みの仮ROIを削除するための仮ROI削除ボタン206、仮ROI設定を終了し、仮ROI設定ウィンドウ200を閉じるための終了ボタン207を備えている。   In FIG. 8, a temporary ROI is set using the mouse cursor 202 on the G image data displayed in the endoscopic image display area 201. Here, it is assumed that a figure indicated by a broken line in the endoscope image display area 201 is set as a temporary ROI. Whether the temporary ROI type is an arbitrary drawing shape or a fixed shape such as a rectangle is selected using the temporary ROI type selection buttons 203a and 203b. Subsequently, in the provisional ROI information input / display area 204, information associated with the provisional ROI such as the visual form of the lesion, the findings, the doctor's diagnosis name, and comments are input or selected, and the ROI setting is completed by the provisional ROI setting button 205. The temporary ROI setting window 200 includes a temporary ROI deletion button 206 for deleting the set temporary ROI, and an end button 207 for ending the temporary ROI setting and closing the temporary ROI setting window 200.

続くステップS26において、特徴量算出ブロック84における特徴量算出手法の適用により、設定された仮ROIにおける各面素に対しての特徴量算出を行う。本実施の形態においては、特徴量として特開平10−14864号公報に示されたGaborフィルタを用いたGabor特徴量h(X,Y,θk,λm)を使用する。ここで、X及びYは画像内における画素の座標、θk及びλmはそれぞれGaborフィルタの方向及び波長を規定するパラメータである。本実施の形態においては4方向2周波数のGaborフィルタを使用し、1≦k≦4、1≦m≦2であるものとする。これらのGaborフィルタの適用により各面素ごとに8個の特徴量を算出する。これらをi番目の画素についてCi={h1i,h2i,h3i,...,h8i}とベクトル表記(特徴ベクトル)する。iは仮ROI内の画素の番号を示す1以上の整数である.また,h1iないしh8iは画素iに対して算出された8個のGabor特徴量を示す。 In subsequent step S26, by applying the feature amount calculation method in the feature amount calculation block 84, the feature amount is calculated for each surface element in the set temporary ROI. In the present embodiment, a Gabor feature value h (X, Y, θ k , λ m ) using a Gabor filter disclosed in Japanese Patent Laid-Open No. 10-14864 is used as a feature value. Here, X and Y are the coordinates of the pixel in the image, and θ k and λ m are parameters that define the direction and wavelength of the Gabor filter, respectively. In this embodiment, a Gabor filter having four directions and two frequencies is used, and 1 ≦ k ≦ 4 and 1 ≦ m ≦ 2. Eight feature values are calculated for each surface element by applying these Gabor filters. For the i-th pixel, Ci = {h1i, h2i, h3i,. . . , H8i} and vector notation (feature vector). i is an integer of 1 or more indicating the number of the pixel in the temporary ROI. Further, h1i to h8i indicate eight Gabor feature values calculated for the pixel i.

次に、ステップS27において、テップS26で算出した各面素の特徴量を用いた領域分割処理により、仮ROIをN個(Nは1以上の整数)のROIに分割する。   Next, in step S27, the temporary ROI is divided into N (N is an integer of 1 or more) ROIs by region division processing using the feature values of each surface element calculated in step S26.

図9を用いてステップS27における領域分割処理について説明する。領域分割処理は、同じ所見を示す領域の画素から類似の値が得られることを利用して、仮ROI内の画素を統合することにより分割されたROIを得るものである。特徴量を用いた領域分割処理は種々の手法が存在するが、本実施の形態においては特徴量による領域分割(一般的にはクラスタリングと称する)の代表的手法であるK平均アルゴリズムを用いるものとする。   The area division process in step S27 will be described with reference to FIG. The area division processing is to obtain a divided ROI by integrating the pixels in the temporary ROI using the fact that similar values are obtained from the pixels in the area showing the same findings. There are various methods for area segmentation processing using feature quantities. In this embodiment, a K-means algorithm, which is a typical technique for area segmentation by feature quantities (generally referred to as clustering), is used. To do.

本実施の形態においてはステップS26において算出した各画素の特徴量
Ci={h1i,h2i,h3i,...,h8i}
を図9に示すステップS131以後の一連の処理において使用する。
In the present embodiment, the feature amount of each pixel calculated in step S26.
Ci = {h1i, h2i, h3i,. . . , H8i}
Are used in a series of processes after step S131 shown in FIG.

ステップS131においては、仮ROIに対する初期領域の設定を行う。図10に初期領域の設定例を示す。ここでは機械的に最大L×Lの大きさの矩形となるよう設定する。ただし、必ずしも矩形形状である必要はなく、仮ROI境界部付近は仮ROIの境界線(図10の実線部)を含めた領域を使用する。Lの値は処理対象に基づき決定され、例えば大腸pit patternの観察像であればL=5とする。   In step S131, an initial area is set for the temporary ROI. FIG. 10 shows an example of setting the initial area. Here, the rectangle is mechanically set to a size of a maximum size L × L. However, the shape is not necessarily rectangular, and an area including the boundary line of the temporary ROI (solid line part in FIG. 10) is used in the vicinity of the temporary ROI boundary part. The value of L is determined based on the processing target. For example, if the observation image is a large intestine pit pattern, L = 5.

続くステップS132において、各領域ごとの特徴量の平均値Cmeanj={h1meanj , h2meanj , ・‥,h 8meanj}を算出する。ここで、jは設定された領域の番号を示す1以上の整数である。 In the following step S132, the average value Cmeanj = {h1meanj, h2meanj,..., H8meanj} of the feature amount for each region is calculated. Here, j is an integer of 1 or more indicating the number of the set area.

ステップS133においては、各画素のCiを,各領域のCmeanと以下の式に示す距離によって比較する。   In step S133, Ci of each pixel is compared with Cmean of each region by the distance shown in the following equation.

[数1]

Figure 2007236956
ここで,α1ないしα8は各特徴量に対する重み付け係数を示す。ここでは均等にα1=α2=...=α8=1であるものとする。各領域ごとに得られたDijに基づき、最小のDijを与える領域に画業iを統合することで、領域の再構成を行う。 [Equation 1]
Figure 2007236956
Here, α1 to α8 indicate weighting coefficients for each feature amount. Here, α1 = α2 =. . . = Α8 = 1. Based on the Dij obtained for each area, the area i is integrated into the area that gives the minimum Dij, thereby reconstructing the area.

ステップS134においてはステップS132と同様に再構成後の各領域ごとの特徴量の平均値を算出する。   In step S134, as in step S132, an average value of feature values for each region after reconstruction is calculated.

ステップS135においては、再構成された領域ごとの特徴量の平均値の値の変化により収束を確認する。変化量がしきい値以上である場合にはステップS133に戻り、再度領域の再構成を行う。しきい値未満であれば領域の再構成が収束したものとみなし、ステップS136に進み領域分割処理を完了する。   In step S135, convergence is confirmed by a change in the average value of the feature values for each reconstructed region. If the change amount is greater than or equal to the threshold value, the process returns to step S133 to reconstruct the area again. If it is less than the threshold value, it is considered that the reconstruction of the area has converged, and the process proceeds to step S136 to complete the area dividing process.

ここで、収束判定を行うしきい値は対象となる内視鏡画像と特徴量に基づき実験的に定められる値であり、例えば再構成前後でのCmeanjの差の絶対値に対し1 0. 0と設定する。 Here, the threshold for performing the convergence determination is a value that is experimentally determined based on the target endoscopic image and the feature amount, and is, for example, 10 .0 relative to the absolute value of the difference of Cmeanj before and after reconstruction. Set to 0.

図11に領域分割処理の適用によるROI設定の例を示す。図11において破線で示す仮ROI210は、4個のROIに分割されている。各ROIは、算出された特徴量においてそれぞれが隣接するROIとは異なる傾向を示すものと判定された領域となっている。設定されたN個(Nは1以上の整数)のROI(1)ないしROI(N)に対しては、特徴量算出ブロック84により図7のステップS28において各ROIごとの特徴量を算出する。   FIG. 11 shows an example of ROI setting by applying the area division processing. A temporary ROI 210 indicated by a broken line in FIG. 11 is divided into four ROIs. Each ROI is an area that is determined to have a different tendency from the adjacent ROI in the calculated feature amount. For the set N (N is an integer equal to or greater than 1) ROI (1) to ROI (N), the feature value for each ROI is calculated by the feature value calculation block 84 in step S28 of FIG.

ステップS26及びS28において算出する特徴量の違いについて説明する。ステップS26における特徴量は各面素に対して算出され、同じ所見を示す領域の画素から類似の値が得られることを利用して仮ROI内の画素を統合し、ROI(i)(1≦i≦N)を得るために用いられるものである。一方、ステップS28における特徴量は得られたROI(i)ごとに算出され、例えば各ROI内の各面素の特徴量の平均値や分散等であり、以後の判別分類処理において使用されるものである。各ステップにおいて適用する特徴量算出手法は同じでも異なるものでもよく、診断支援対象となる病変の種別に応じて選択される。   The difference between the feature amounts calculated in steps S26 and S28 will be described. The feature values in step S26 are calculated for each surface element, and the pixels in the temporary ROI are integrated using the fact that similar values are obtained from the pixels in the region showing the same findings, and ROI (i) (1 ≦ It is used to obtain i ≦ N). On the other hand, the feature value in step S28 is calculated for each obtained ROI (i), and is, for example, the average value or variance of the feature values of each surface element in each ROI, which is used in the subsequent classification processing It is. The feature amount calculation method applied in each step may be the same or different, and is selected according to the type of lesion to be diagnosed.

本実施の形態においては、ステップS26において算出した各ROIに含まれる画素のGaborフィルタを用いた特徴量の平均値μ(1)ないしμ(N),標準偏差σ(1)ないしσ(N)をROI(1)ないしROI(N)の各特徴量として算出する。   In the present embodiment, the mean values μ (1) to μ (N) and standard deviations σ (1) to σ (N) of the feature amounts using the Gabor filter of the pixels included in each ROI calculated in step S26. Are calculated as feature values of ROI (1) to ROI (N).

続いて各ROIごとに算出した特徴量を用い、判別分類ブロック86においてステップS29ないしS32に示す一連の処理を適用する。まずステップS29においてカウンタiの値を1とする。   Subsequently, a series of processing shown in steps S29 to S32 is applied in the discrimination classification block 86 using the feature amount calculated for each ROI. First, in step S29, the value of the counter i is set to 1.

ステップS30においては、ROI(i)に対し図3におけるステップS11に示したものと同様に識別器を適用することにより判別分類結果を得る。   In step S30, a discriminant classification result is obtained by applying a discriminator to ROI (i) in the same manner as shown in step S11 in FIG.

ステップS31においてはN個のROIすべてに対する処理が完了したかどうかを判定し、完了していなければステップS32においてiの値を1増加させてステップS30に戻る。完了していればステップS33に進む。   In step S31, it is determined whether or not the processing has been completed for all N ROIs. If not completed, the value of i is incremented by 1 in step S32, and the process returns to step S30. If completed, the process proceeds to step S33.

ステップS33においては、レポート作成ブロック87により判別分類結果を含めた診断支援情報を表示する。   In step S33, the diagnosis support information including the discrimination classification result is displayed by the report creation block 87.

診断支援情報の表示例を、図12に示す。レポート表示ウィンドウ220を開き、診断支援情報を表示する対象となる内視鏡画像のROIの番号、識別器による判別分類結果、判別分類結果から想定される診断名及び仮ROIに占める各ROIの面積比を、診断支援情報表示領域221に表示する。   A display example of the diagnosis support information is shown in FIG. The report display window 220 is opened and the ROI number of the endoscopic image for which diagnosis support information is displayed, the discrimination classification result by the discriminator, the diagnosis name assumed from the discrimination classification result, and the area of each ROI in the temporary ROI The ratio is displayed in the diagnosis support information display area 221.

また、レポート表示ウィンドウ220においては、特徴量値表示ボタン222、グラフ表示ボタン223、印刷ボタン224、画像/ROI表示ボタン225及び終了ボタン226を備えており、マウス45の操作によりそれぞれ算出した特徴量の値・平均値の表示、特徴量のグラフの表示、診断支援情報の印刷、診断支援情報表示対象の画像とROIの表示及び診断支援情報表示の終了を行う。   The report display window 220 includes a feature value display button 222, a graph display button 223, a print button 224, an image / ROI display button 225, and an end button 226, and feature values calculated by operating the mouse 45, respectively. Value display, average value display, feature value graph display, diagnosis support information printing, diagnosis support information display target image and ROI display, and diagnosis support information display end.

以上に説明したように、本実施の形態における内視鏡診断支援装置によれば、診断支援情報の取得を所望する病変部に対して、もれなくROIを設定することが可能となるとともに、各ROIごとにどのような所見や疾患がどのような割合で存在しているのかを提示することができる。   As described above, according to the endoscopic diagnosis support apparatus of the present embodiment, it is possible to set an ROI for all lesions for which it is desired to obtain diagnosis support information, and each ROI. It is possible to present what kind of findings and diseases are present at each rate.

なお,本実施の形態においてはG画像からの特徴量の算出について説明したが、RまたはB画像を用いることも可能である。また、各色信号を用いた変換により得られる輝度画像を用いることも可能である。さらに、R/(R+G+B)あるいはR/Gのように複数の画像を組み合わせて特徴量を算出することも可能である。   In the present embodiment, calculation of a feature amount from a G image has been described, but an R or B image can also be used. It is also possible to use a luminance image obtained by conversion using each color signal. Furthermore, it is also possible to calculate a feature amount by combining a plurality of images such as R / (R + G + B) or R / G.

また,仮ROIに対するROI設定のための領域分割処理に使用する特徴量算出手法と、設定後のROIに対する識別分類に用いる特徴量算出手法を異なるものとしてもよい。その場合は、例えば領域分割処理にR/(R+G+B)を用い、識別分類処理にGaborフィルタに基づく特徴量を使用する。   Further, the feature quantity calculation method used for the region division processing for setting the ROI for the temporary ROI may be different from the feature quantity calculation method used for the identification classification for the ROI after setting. In that case, for example, R / (R + G + B) is used for the region division processing, and a feature amount based on the Gabor filter is used for the identification classification processing.

また、診断支援情報として特徴量の仮ROI全体の平均値、標準偏差及び識別分類結果等の情報を表示してもよい。   In addition, information such as the average value of the entire temporary ROI of the feature amount, the standard deviation, and the identification classification result may be displayed as the diagnosis support information.

第2の実施の形態:
本発明の第2の実施の形態は、診断支援情報の取得を所望する病変部に対してもれなくROIを設定し、各ROIごとにどのような所見や疾患がどのような割合で存在しているのかを提示することができるとともに、各ROIに対する診断支援情報に基づき病変に対してより総合的な診断支援情報を提示することができる内視鏡診断支援装置に関するものである。
Second embodiment:
In the second embodiment of the present invention, all ROIs are set for lesions for which diagnosis support information is desired to be acquired, and what findings and diseases exist for each ROI and in what ratio. The present invention relates to an endoscopic diagnosis support apparatus capable of presenting more comprehensive diagnosis support information for lesions based on diagnosis support information for each ROI.

本実施の形態における内視鏡診断支援装置の構成及び診断支援処理実行プログラムの構成ブロックについては第1の実施の形態において説明した内視鏡診断支援装置に同じである。したがって、以下異なる点について説明する。   The configuration of the endoscope diagnosis support apparatus and the configuration block of the diagnosis support processing execution program in the present embodiment are the same as those in the endoscope diagnosis support apparatus described in the first embodiment. Therefore, different points will be described below.

図13ないし図16は本発明の第2の実施の形態に係わり、図13は本実施の形態における診断支援処理実行プログラムの構成を説明するためのブロック図、図14は診断支援実行プログラムの動作を説明するためのフローチャート、図15は診断支援情報の導出を説明するためのフローチャート、図16は本実施の形態の内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図である。   FIGS. 13 to 16 relate to the second embodiment of the present invention, FIG. 13 is a block diagram for explaining the configuration of the diagnosis support processing execution program in this embodiment, and FIG. 14 shows the operation of the diagnosis support execution program. 15 is a flowchart for explaining the derivation of diagnosis support information. FIG. 16 is a report display window for explaining the display of diagnosis support information in the endoscope diagnosis support apparatus according to this embodiment. It is explanatory drawing.

図13に示すように、診断支援処理実行プログラム230は、画像入力・管理ブロック2 31、 データベース管理ブロック232、仮ROI設定ブロック233、特徴量算出ブロック234、ROI設定ブロック235、判別分類ブロック236、総合診断ブロック237、レポート作成ブロック238及び画像処理ブロック239からなっている。これらの中で、総合診断ブロック237及びレポート作成ブロック238以外のブロックについては、それぞれ第1の実施の形態において説明した診断支援処理実行プログラム80における各ブロックと同様の処理を行う。   As illustrated in FIG. 13, the diagnosis support process execution program 230 includes an image input / management block 231, a database management block 232, a temporary ROI setting block 233, a feature amount calculation block 234, an ROI setting block 235, a discrimination classification block 236, It comprises a comprehensive diagnosis block 237, a report creation block 238, and an image processing block 239. Among these, the blocks other than the comprehensive diagnosis block 237 and the report creation block 238 perform the same processing as the blocks in the diagnosis support processing execution program 80 described in the first embodiment.

総合診断ブロック237は判別分類ブロック236により得られた各ROIの判別分類結果に基づき、仮ROIを設定した病変部全体に対する総合的な診断支援情報を取得するものである。   The comprehensive diagnosis block 237 acquires comprehensive diagnosis support information for the entire lesioned part where the temporary ROI is set based on the discrimination classification result of each ROI obtained by the discrimination classification block 236.

また,本実施の形態におけるレポート作成ブロック238は、第1の実施の形態において示した診断支援情報の表示に加え、総合診断ブロック237により得られた総合的な診断支援情報を表示する。   In addition, the report creation block 238 in the present embodiment displays comprehensive diagnosis support information obtained by the comprehensive diagnosis block 237 in addition to the display of diagnosis support information shown in the first embodiment.

次に,図14を用いて本実施の形態における内視鏡診断支援装置の動作について説明する。本実施の形態においては、第1の実施の形態において図7を用いて説明した動作のステップS20ないしS32については同じである。   Next, the operation of the endoscope diagnosis support apparatus in the present embodiment will be described with reference to FIG. In the present embodiment, steps S20 to S32 of the operation described with reference to FIG. 7 in the first embodiment are the same.

ステップS31においてすべてのROIに対する判別分類処理の適用後、ステップS41における総合診断情報の取得に進む。ここで、総合診断情報は以下のようにして得る仮ROI全体に対する診断支援情報である。   After applying the discriminant classification process to all ROIs in step S31, the process proceeds to acquisition of comprehensive diagnosis information in step S41. Here, the comprehensive diagnosis information is diagnosis support information for the entire provisional ROI obtained as follows.

例えば大腸pit patternの形態に基づく診断においては、どのような型のpit がどのような割合で存在しているかが重要な診断の指標となる。このことから、各ROIから得られた判別分類情報に基づき図15に示すような判定を行う。   For example, in the diagnosis based on the form of the large intestine pit pattern, what type of pit is present and what ratio is an important diagnostic index. Therefore, the determination as shown in FIG. 15 is performed based on the discriminant classification information obtained from each ROI.

図15において、ステップS51より各pit patternが存在しているか、その割合はどの程度かを悪性度の高い疾患より順に判定する。なお、図15において確率として示されている数値は、判定される疾患が判別分類結果に対してどの程度の頻度で出現するかを示す数値である。例えば,ステップS51,S52及びS53を経た場合は「V型pit patternが、20%以上の割合で存在する病変が粘膜下に浸潤した早期癌である確率は60%以上」であることを示すものである。   In FIG. 15, it is determined in order from the disease having the higher malignancy whether each pit pattern exists or its ratio from step S51. In addition, the numerical value shown as the probability in FIG. 15 is a numerical value indicating how often the determined disease appears with respect to the discrimination classification result. For example, when steps S51, S52 and S53 are passed, it indicates that "the probability that the V-type pit pattern is an early stage cancer in which a lesion present at a rate of 20% or more has infiltrated under the mucous membrane is 60% or more" It is.

図14のステップS42においてはレポート作成ブロック87により、総合診断情報を含む診断支援情報を表示する。診断支援情報の表示例を図16に示す。レポート表示ウィンドウ240において、第1の実施の形態において図12を用いて説明した各項目に加え、総合診断情報表示領域241に総合診断情報を表示する。   In step S42 of FIG. 14, the report creation block 87 displays diagnosis support information including comprehensive diagnosis information. A display example of diagnosis support information is shown in FIG. In the report display window 240, in addition to the items described with reference to FIG. 12 in the first embodiment, comprehensive diagnosis information is displayed in the comprehensive diagnosis information display area 241.

以上説明したように、本実施の形態における内視鏡診断支援装置によれば、診断支援情報の取得を所望する病変部に対してもれなくROIを設定し、各ROIごとにどのような所見や疾患がどのような割合で存在しているのかを提示することができるとともに、各ROIに対する診断支援情報に基づき病変に対してより総合的な診断支援情報を提示することが可能となる。   As described above, according to the endoscopic diagnosis support apparatus in the present embodiment, an ROI is set for all lesions for which acquisition of diagnosis support information is desired, and what findings and diseases are set for each ROI. In addition, it is possible to present the comprehensive diagnosis support information for the lesion based on the diagnosis support information for each ROI.

第3の実施の形態:
本発明の第3の実施の形態は、第2の実施の形態として示した内視鏡診断支援装置の他の形態であり、診断支援情報の取得を所望する病変部に対してもれなくROIを設定し、各ROIごとにどのような所見や疾患がどのような割合で存在しているのかを提示することができるとともに、各ROIに対する診断支援情報に基づき病変に対してより総合的な診断支援情報を提示することができる内視鏡診断支援装置に関するものである。
Third embodiment:
The third embodiment of the present invention is another embodiment of the endoscopic diagnosis support apparatus shown as the second embodiment, and the ROI is set for all lesions for which acquisition of diagnosis support information is desired. In addition, it is possible to present what kind of findings and proportions exist for each ROI, and more comprehensive diagnosis support information for lesions based on diagnosis support information for each ROI The present invention relates to an endoscopic diagnosis support apparatus capable of presenting.

本実施の形態における内視鏡診断支援装置の構成及び診断支援処理実行プログラムの構成ブロックについては第2の実施の形態において説明した内視鏡診断支援装置に同じである。したがって、以下異なる点について説明する。   The configuration of the endoscope diagnosis support apparatus and the configuration block of the diagnosis support process execution program in the present embodiment are the same as those in the endoscope diagnosis support apparatus described in the second embodiment. Therefore, different points will be described below.

図17は本発明の第3の実施の形態に係る内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図である。   FIG. 17 is an explanatory diagram of a report display window for explaining display of diagnosis support information in the endoscope diagnosis support apparatus according to the third embodiment of the present invention.

第2の実施の形態においては図15に例示した判定基準を参照することにより、病変部全体の総合診断情報を得たが、本実施の形態においては図14のステップS41において以下の処理を行うことにより総合診断情報を取得する。   In the second embodiment, the overall diagnosis information of the entire lesion is obtained by referring to the determination criteria illustrated in FIG. 15, but in the present embodiment, the following processing is performed in step S41 of FIG. To obtain comprehensive diagnostic information.

図7におけるステップS20ないしS31に示した一連の処理により、N個のROI各々に対する判別分類結果と仮ROIにおいて占める面積比が算出される。本実施の形態においては、得られた判別分類結果に対する該面積比を特徴量として再度判別分類処理を適用する。例えば、大腸pit patternの分類においてI型,II型,IIIs型,IIIL型,IV型,Va型,VN型の7種を想定した場合、各pit pattern の面積比の値により7次元の特徴ベクトルを構成することができる。各pit pattern の占める面積比がそれぞれ0.2,0.0,0.3,0.1,0.0,0.2,0.2であるものとすれば,特徴ベクトル
={0.2,0.0,0.3,0.1,0.0,0.2,0.2}
となる。したがって、あらかじめ癌,腺種等の疾患の診断名をクラスとし、病変部に占める各pit pattern の面積比を特徴ベクトルとした教師データを用いて作成した識別器に適用することで、その病変がいずれの疾患に分類されるものであるかを示すことが可能となる。
By the series of processing shown in steps S20 to S31 in FIG. 7, the discrimination classification result for each of the N ROIs and the area ratio occupied in the temporary ROI are calculated. In the present embodiment, the discrimination classification process is applied again using the area ratio with respect to the obtained discrimination classification result as a feature amount. For example, assuming seven types of type I, II, IIIs, IIIL, IV, Va, and VN in the classification of colon pit patterns, a 7-dimensional feature vector is determined by the area ratio value of each pit pattern. Can be configured. If the area ratio occupied by each pit pattern is 0.2, 0.0, 0.3, 0.1, 0.0, 0.2, 0.2, the feature vector X is
X = {0.2, 0.0, 0.3, 0.1, 0.0, 0.2, 0.2}
It becomes. Therefore, by applying to a discriminator created using teacher data with the diagnosis ratio of a disease such as cancer and glandularity as a class and the area ratio of each pit pattern occupying the lesion as a feature vector, It becomes possible to indicate which disease is classified.

以上説明したように、本実施の形態における内視鏡診断支援装置によれば、診断支援情報の取得を所望する病変部に対してもれなくROIを設定し、各ROIごとにどのような所見や疾患がどのような割合で存在しているのかを提示することができるとともに、各ROIに対する診断支援情報に基づき病変に対してより総合的な診断支援情報を提示することが可能となる。   As described above, according to the endoscopic diagnosis support apparatus in the present embodiment, an ROI is set for all lesions for which acquisition of diagnosis support information is desired, and what findings and diseases are set for each ROI. In addition, it is possible to present the comprehensive diagnosis support information for the lesion based on the diagnosis support information for each ROI.

第4の実施の形態:
本発明の第4の実施の形態は,第1,第2及び第3の実施の形態として示した内視鏡診断支援装置に対し、診断支援情報の表示において診断に重要でない情報の表示をしないことにより重要な情報のみを提示することができる内視鏡診断支援装置に関するものである。
Fourth embodiment:
The fourth embodiment of the present invention does not display information that is not important for diagnosis in the display of diagnosis support information for the endoscope diagnosis support apparatus shown as the first, second, and third embodiments. The present invention relates to an endoscopic diagnosis support apparatus that can present only important information.

本実施の形態における内視鏡診断支援装置の構成及び診断支援処理実行プログラムの構成ブロックについては第2の実施の形態において説明した内視鏡診断支援装置に同じである。したがって、以下異なる点について説明する。   The configuration of the endoscope diagnosis support apparatus and the configuration block of the diagnosis support process execution program in the present embodiment are the same as those in the endoscope diagnosis support apparatus described in the second embodiment. Therefore, different points will be described below.

例えば大腸pit pattern の形態に基づく診断においては、I型pit pattern は正常粘膜の所見であり他のpit patternと比して重要な情報でない場合がある。そこで,図14に示したステップS42における診断支援情報の表示において、図17に示すように判別分類処理結果がI型pit patternと判定されたROIに対する診断支援情報の表示を省略する。   For example, in a diagnosis based on the morphology of the large intestine pit pattern, the type I pit pattern is a finding of normal mucosa and may not be important information as compared with other pit patterns. Therefore, in the display of the diagnosis support information in step S42 shown in FIG. 14, the display of the diagnosis support information for the ROI in which the discrimination classification processing result is determined to be the I type pit pattern as shown in FIG. 17 is omitted.

このとき、ハードデイスク47に記憶したデータベースもしくは専用の設定ファイルに情報表示を省略する判別分類結果を登録しておき、レポート作成ブロック238によるレポート作成時に参照する。   At this time, a discrimination classification result for omitting information display is registered in a database stored in the hard disk 47 or a dedicated setting file, and is referred to at the time of report creation by the report creation block 238.

以上説明したように、本実施の形態における内視鏡診断支援装置によれば、例えば仮ROIに対して非常に多くのROIが設定された場合においても重要な診断支援情報を選択的に提示することが可能となる。   As described above, according to the endoscopic diagnosis support apparatus of the present embodiment, important diagnosis support information is selectively presented even when, for example, a very large number of ROIs are set for the temporary ROI. It becomes possible.

第5の実施の形態:
本発明の第5の実施の形態は,第1ないし第4の実施の形態として示した内視鏡診断支援装置に係わり、通常の内視鏡画像(以下、通常画像と称する)及び薬剤の散布された内視鏡画像(以下、染色画像と称する)のいずれであるかを判定し、特徴量算出において処理対象とする画像をRGB各画像から適切に選択することで常に良好な診断支援情報を提供することができる内視鏡診断支援装置に関するものである。
Fifth embodiment:
The fifth embodiment of the present invention relates to the endoscopic diagnosis support apparatus shown as the first to fourth embodiments, and is a normal endoscopic image (hereinafter referred to as a normal image) and a medicine distribution. By determining whether the image is an endoscopic image (hereinafter referred to as a stained image) and appropriately selecting an image to be processed in the feature amount calculation from each of the RGB images, it is possible to always provide good diagnosis support information. The present invention relates to an endoscopic diagnosis support apparatus that can be provided.

本実施の形態における内視鏡診断支援装置の構成については第1ないし第4の実施の形態において説明した内視鏡診断支援装置に同じである。したがって、以下異なる点について説明する。   The configuration of the endoscope diagnosis support apparatus according to the present embodiment is the same as that of the endoscope diagnosis support apparatus described in the first to fourth embodiments. Therefore, different points will be described below.

図18ないし図20は本発明の第5の実施の形態に係わり、図18は診断支援処理実行プログラムの構成を説明するためのブロック図、図19は診断支援処理実行プログラムの動作を説明するためのフローチャート、図20は通常画像及び染色画像の判定処理について説明するための説明図である。   18 to 20 relate to the fifth embodiment of the present invention, FIG. 18 is a block diagram for explaining the configuration of the diagnosis support processing execution program, and FIG. 19 is for explaining the operation of the diagnosis support processing execution program. FIG. 20 is an explanatory diagram for explaining a determination process for a normal image and a stained image.

図18に示すように、診断支援処理実行プログラム250は、画像入力・管理ブロック251、データベース管理ブロック252、画像種別判定ブロック253、仮ROI設定ブロック254、特徴量算出ブロック255、ROI設定ブロック25 6、 判別分類ブロック257、レポート作成ブロック258及び画像処理ブロック239からなっている。これらの中で、画像種別判定ブロック253以外のブロックについては、それぞれ第1の実施の形態において説明した診断支援処理実行プログラム80における各ブロックと同様の処理を行う。   As shown in FIG. 18, the diagnosis support processing execution program 250 includes an image input / management block 251, a database management block 252, an image type determination block 253, a temporary ROI setting block 254, a feature amount calculation block 255, and an ROI setting block 256. And a classification block 257, a report creation block 258, and an image processing block 239. Among these, the blocks other than the image type determination block 253 perform the same processing as that of each block in the diagnosis support processing execution program 80 described in the first embodiment.

画像種別判定ブロック253においては入力された内視鏡画像に対し、以下に示す一連の処理を適用する。なお、ここではインジゴカルミン、メチレンブルー及びクリスタルバイオレットの3種類の薬剤が選択的に使用される場合について説明する。   In the image type determination block 253, the following series of processing is applied to the input endoscopic image. Here, the case where three types of drugs, indigo carmine, methylene blue and crystal violet are selectively used will be described.

本実施の形態においては、図7を用いて説明した第1の実施の形態に示した診断支援処理実行プログラム80の動作であるステップS20及びS21を、図19のステップS100ないしS107に示す処理に変更する。   In the present embodiment, steps S20 and S21, which are operations of the diagnosis support process execution program 80 shown in the first embodiment described with reference to FIG. 7, are replaced with the processes shown in steps S100 to S107 in FIG. change.

ステップS100において、処理対象とする内視鏡画像を入力する。次に、ステップS101において後述する画像種別判定処理を行う。   In step S100, an endoscope image to be processed is input. Next, in step S101, an image type determination process described later is performed.

ステップS102においては、画像種別判定結果が通常画像であるかどうかを判定し、YesであればステップS106へ、NoであればステツブS103に進む。   In step S102, it is determined whether the image type determination result is a normal image. If Yes, the process proceeds to step S106, and if No, the process proceeds to step S103.

ステップS103においては、画像種別判定結果がクリスタルバイオレットによる染色画像であるかどうかを判定し、判定結果がYesであればステップS106へ、NoであればステップS104に進む。   In step S103, it is determined whether or not the image type determination result is a stained image by crystal violet. If the determination result is Yes, the process proceeds to step S106, and if the determination result is No, the process proceeds to step S104.

ステップS104においては、画像種別判定結果がメチレンブルーによる染色画像であるかどうかを判定し、判定結果がYesであればステップS107へ、NoであればステップS105に進む。   In step S104, it is determined whether the image type determination result is a stained image of methylene blue. If the determination result is Yes, the process proceeds to step S107, and if the determination result is No, the process proceeds to step S105.

ステップS105においては、画像種別判定結果がインジゴカルミンによる染色画像であるかどうかを判定し、判定結果がYesであればステップS107へ、NoであればステップS106に進む。ステップS105においてNoと判定された場合には、他の薬剤を用いた染色画像である可能性がある。本実施の形態においては、このときはG画像を選択するものとする。   In step S105, it is determined whether the image type determination result is a stained image of indigo carmine. If the determination result is Yes, the process proceeds to step S107, and if the determination result is No, the process proceeds to step S106. When it is determined No in step S105, there is a possibility that the image is a stained image using another medicine. In this embodiment, a G image is selected at this time.

ステップS106においては、RGB画像の中でG画像に対し図7に示したステップS21以降の処理に適用するものとし、ステップS22に進む。   In step S106, it applies to the process after step S21 shown in FIG. 7 with respect to G image among RGB images, and progresses to step S22.

ステップS107においては、RGB画像の中でR画像に対し図7に示したステップS21以降の処理に適用するものとし、ステップS22に進む。   In step S107, it applies to the process after step S21 shown in FIG. 7 with respect to R image among RGB images, and progresses to step S22.

次に,ステップS101における画像種別判定の処理内容について説明する。本実施の形態においては、画像種別を内視鏡画像の全体的な色調に応じて判定する。   Next, the processing content of the image type determination in step S101 will be described. In the present embodiment, the image type is determined according to the overall color tone of the endoscopic image.

入力された内視鏡画像におけるRGB画像の画素の値を(ri,gi,bi)とする.ここで、iは各面素に付与した連続する番号で、1以上の整数である。例えば画像の大きさがX×Yであり、そのすべての画素を判定に用いる場合には1≦i≦X×Yとなる。また、サンプリング等によりM個の画素を用いる場合には1≦i≦Mとなる。以下、M個の画素を用いるものとする。   Let the pixel values of the RGB image in the input endoscopic image be (ri, gi, bi). Here, i is a continuous number assigned to each surface element and is an integer of 1 or more. For example, when the size of the image is X × Y and all the pixels are used for the determination, 1 ≦ i ≦ X × Y. Further, when M pixels are used by sampling or the like, 1 ≦ i ≦ M. Hereinafter, it is assumed that M pixels are used.

各面素より、Si=tan-1(gi/r i),Ti=tan-1(bi/r i)を求める。ri,gi及びbiは0以上の値(例えば8bitの階調においては0から255)をとるため、Si及びTiの値は0≦Si, Ti<90の範囲にある実数値となる。実際には該範囲を90分割した近似値を使用する。例えば小数点第1位における四捨五入により,0,1,2,‥,89のそれぞれに離散化することができる。 From each surface element, Si = tan −1 (gi / ri) and Ti = tan −1 (bi / ri) are obtained. Since ri, gi, and bi have values of 0 or more (for example, 0 to 255 in an 8-bit gradation), the values of Si and Ti are real values in the range of 0 ≦ Si and Ti <90. Actually, an approximate value obtained by dividing the range by 90 is used. For example, it can be discretized into 0, 1, 2,..., 89 by rounding off at the first decimal place.

Si及びTiは各面素の値(ri,gi,bi)の比によって規定される数値であり、通常画像及び各種の染色画像では得られる値の分布が異なるものとなる。具体的にはriの値が大きい通常画像はSi及びTiとも比較的小さく,青色系の薬剤であるインジゴカルミン及びメチレンブルーはriの値が通常画像に比較して下がるためSi及びTiとも大きくなる。また、メチレンブルーはインジゴカルミンと比較した場合giが下がるため、Ti>Siとなる。一方、紫色系の薬剤であるクリスタルバイオレットはgiの値に対してri及びbiの値が大きくなるため、Siは小さく、Tiは大きくなる。これらの分布の違いを図20に示す.
図20において、(1)は通常画像、(2)はインジゴカルミンによる染色画像、(3)はメチレンブルーによる染色画像、(4)はクリスタルバイオレットによる染色画像における画素がそれぞれ多く分布する領域を示している。この性質により、例えばM個の画素の60%以上が含まれた場合に該当する領域に対応する画像種別であると判定することができる。また、ごく希ではあるが分布が拡散する等いずれの画像種別とも判定がつかない場合には、不明な画像と判定する。
Si and Ti are numerical values defined by the ratio of the values (ri, gi, bi) of each surface element, and the distribution of values obtained in the normal image and various dyed images is different. Specifically, a normal image with a large value of ri is relatively small for both Si and Ti, and indigo carmine and methylene blue, which are blue drugs, have a lower value of ri compared to the normal image, so both Si and Ti are large. Further, since m i is lower than methylene blue when compared with indigo carmine, T i> S i. On the other hand, crystal violet, which is a purple drug, has a large value of ri and bi with respect to a value of gi, so that Si is small and Ti is large. Figure 20 shows the difference between these distributions.
In FIG. 20, (1) is a normal image, (2) is an indigo carmine stained image, (3) is a methylene blue stained image, and (4) is a region where many pixels are distributed in the crystal violet stained image. Yes. With this property, for example, when 60% or more of M pixels are included, it can be determined that the image type corresponds to the corresponding region. In addition, in the case where it is impossible to determine any image type such as a distribution that is very rare, the image is determined as an unknown image.

以上説明したように、本実施の形態における内視鏡診断支援装置によれば、内視鏡診断支援装置において通常の内視鏡画像及び薬剤の散布された内視鏡画像のいずれであるかを判定し、特徴量算出における処理対象とする画像をRGB各画像から適切に選択することができ、常に良好な診断支援情報を提供することが可能となる。   As described above, according to the endoscopic diagnosis support apparatus in the present embodiment, it is determined whether the endoscopic diagnosis support apparatus is a normal endoscopic image or an endoscopic image in which a medicine is dispersed. It is possible to determine and appropriately select an image to be processed in the feature amount calculation from the RGB images, and it is possible to always provide good diagnosis support information.

また、画像種別判定を操作者が手動で行うことももちろん可能である。   Of course, the operator can manually determine the image type.

また、判定不能時においては判定に使用する画素のサンプル数を増加あるいは位置を変更の上再度判定してもよい。   When the determination is impossible, the determination may be made again after increasing the number of samples of the pixels used for the determination or changing the position.

第6の実施形態:
本発明の第6の実施の形態は、第1ないし第5の実施の形態として示した内視鏡診断支援装置に係わり、通常画像及び染色画像のいずれであるかを判定い、その結果に応じて階調の反転を行うことにより各画像を混在して使用することを可能とすることで良好な診断支援情報を提供することができる内視鏡診断支援装置に関するものである。
Sixth embodiment:
The sixth embodiment of the present invention relates to the endoscope diagnosis support apparatus shown as the first to fifth embodiments, determines whether it is a normal image or a stained image, and according to the result The present invention relates to an endoscopic diagnosis support apparatus that can provide good diagnosis support information by making it possible to use a mixture of images by performing gradation inversion.

本実施の形態における内視鏡診断支援装置の構成及び診断支援処理実行プログラムの構成ブロックについては第5の実施の形態において説明した内視鏡診断支援装置に同じである。したがって、以下異なる点について説明する。   The configuration of the endoscope diagnosis support apparatus and the configuration block of the diagnosis support process execution program in the present embodiment are the same as those in the endoscope diagnosis support apparatus described in the fifth embodiment. Therefore, different points will be described below.

図21は本発明の第6の実施の形態に係る診断支援処理実行プログラムの動作を説明するためのフローチャートである。   FIG. 21 is a flow chart for explaining the operation of the diagnosis support process execution program according to the sixth embodiment of the present invention.

染色画像においては、図23に示したように使用する薬剤の性質の違いにより、粘膜表面構造の画像上での見え方が逆になっている。例えば腺口形態の観察においては、インジゴカルミンを用いた染色画像では腺口部が周辺部に対して低い画素値をとることとなるため、通常画像及びメチレンブルー、クリスタルバイオレット等生体に吸収されることにより効果を得る性質の染色剤とは異なるものとなる。したがって、例えば2値化をともなう特徴量算出手法の適用に当たっては処理結果が異なるものとなるため、階調の反転が必要となる。   In the stained image, the appearance of the mucosal surface structure on the image is reversed due to the difference in the properties of the drugs used as shown in FIG. For example, in the observation of the shape of the ostium, the stained image using indigo carmine has a lower pixel value with respect to the peripheral part in the stained part, so that it is normally absorbed by the living body such as methylene blue and crystal violet. Therefore, it is different from a dye having a property of obtaining an effect. Therefore, for example, when applying a feature value calculation method with binarization, the processing results are different, so that inversion of gradation is necessary.

図21は本実施の形態における診断支援処理実行プログラム250の動作を説明するための説明図である。本実施の形態においては、図7を用いて説明した第1の実施の形態に示した診断支援処理実行プログラム80の動作であるステップS20及びS21を、図21のステップS110ないしS120に示す処理に変更する。   FIG. 21 is an explanatory diagram for explaining the operation of the diagnosis support processing execution program 250 in the present embodiment. In the present embodiment, steps S20 and S21, which are operations of the diagnosis support process execution program 80 shown in the first embodiment described with reference to FIG. 7, are replaced with the processes shown in steps S110 to S120 in FIG. change.

図21において、ステップS110ないしS115に示す各処理の内容は、それぞれ第5の実施形態における図19のステップS100ないしS105と同様である。   In FIG. 21, the content of each process shown in steps S110 to S115 is the same as that in steps S100 to S105 of FIG. 19 in the fifth embodiment.

ステップS112において、画像種別判定結果が通常画像であるかどうかを判定し、YesであればステップS116へ、NoであればステップS113に進む。   In step S112, it is determined whether the image type determination result is a normal image. If Yes, the process proceeds to step S116, and if No, the process proceeds to step S113.

ステップS113において、画像種別判定結果がクリスタルバイオレットによる染色画像でるかどうかを判定し、判定結果がYesであればステップS116へ、NoであればステップS114に進む。   In step S113, it is determined whether or not the image type determination result is a stained image by crystal violet. If the determination result is Yes, the process proceeds to step S116, and if the determination result is No, the process proceeds to step S114.

ステップS114においては、画像種別判定結果がメチレンブルーによる染色画像であるかどうかを判定し、判定結果がYesであればステップS117へ、NoであればステップS115に進む。   In step S114, it is determined whether or not the image type determination result is a methylene blue stained image. If the determination result is Yes, the process proceeds to step S117. If the determination result is No, the process proceeds to step S115.

ステップS115においては、画像種別判定結果がインジゴカルミンによる染色画像であるかどうかを判定し、判定結果がYesであればステップS119へ,NoであればステップS118に進む。ステップS115においてNoと判定された場合には、他の薬剤を用いた染色画像である可能性がある。本実施の形態においては、このときはG画像を選択するものとする。   In step S115, it is determined whether the image type determination result is a stained image of indigo carmine. If the determination result is Yes, the process proceeds to step S119, and if the determination result is No, the process proceeds to step S118. If it is determined No in step S115, there is a possibility that the image is a stained image using another medicine. In this embodiment, a G image is selected at this time.

ステップS116及びS118においては、G画像を以後の処理対象画像として選択の上,ステップS21に進む。   In steps S116 and S118, the G image is selected as a subsequent processing target image, and the process proceeds to step S21.

ステップS117においては、R画像を以後の処理対象画像として選択の上、ステップS21に進む。   In step S117, the R image is selected as a subsequent processing target image, and the process proceeds to step S21.

ステップS119においては、R画像を以後の処理対象画像として選択の上、ステップS120に進む。   In step S119, the R image is selected as a subsequent processing target image, and the process proceeds to step S120.

ステップS120においては、インジゴカルミンとその他の種別の画像との混在使用を可能とするための階調反転処理を適用する。階調反転処理は画像処理ブロック259により、以下の式を用いた画素値の変換を行う。   In step S120, tone inversion processing is applied to enable mixed use of indigo carmine and other types of images. In the gradation inversion processing, the image processing block 259 performs pixel value conversion using the following expression.

r’j=255−rj
ここで、rjはR画像における画素jの値(1≦j≦X×Y,XとYは画像の縦・横の大きさ)で、8bitの階調数であり、0≦rj≦255の範囲をとるものとする。r’jは階調反転後の画素の値で、以後の処理に用いられるものである。ステップS120においてR画像に対する階調の反転処理を適用後、ステップS21に進む。
r'j = 255-rj
Here, rj is the value of pixel j in the R image (1 ≦ j ≦ X × Y, where X and Y are the vertical and horizontal sizes of the image), is the number of gradations of 8 bits, and 0 ≦ rj ≦ 255. The range shall be taken. r′j is the value of the pixel after gradation inversion and is used for the subsequent processing. After applying gradation inversion processing to the R image in step S120, the process proceeds to step S21.

以上説明したように、本実施の形態における内視鏡診断支援装置によれば、通常画像及び染色画像のいずれであるかを判定し、その結果に応じて階調の反転を行うことにより各画像を混在して使用することが可能となり、良好な診断支援情報を提供することができる。   As described above, according to the endoscope diagnosis support apparatus in the present embodiment, each image is determined by determining whether the image is a normal image or a stained image, and performing inversion of gradation according to the result. Can be used in combination, and good diagnostic support information can be provided.

第7の実施の形態:
本発明の第7の実施の形態は,第1ないし第5の実施の形態として示した内視鏡診断支援装置に係わり、インジゴカルミンを用いた染色画像とそれ以外の内視鏡画像のいずれであるかを判定し、その結果に応じて階調の反転を行うことにより各画像を混在して使用することを可能とすることで良好な診断支援情報を提供することができる内視鏡診断支援装置に関するものである。
Seventh embodiment:
The seventh embodiment of the present invention relates to the endoscopic diagnosis support apparatus shown as the first to fifth embodiments, which is either a stained image using indigo carmine or any other endoscopic image. Endoscopic diagnosis support that can provide good diagnosis support information by determining whether or not and by using each image mixed by inverting the gradation according to the result It relates to the device.

本発明の第6の実施の形態においては、入力された内視鏡画像が通常画像及び3種類の染色画像のいずれであるかを判定し、使用された薬剤の性質の違いを考慮の上、RもしくはG画像を選択し,さらにインジゴカルミンを用いた染色画像に対しては階調の反転処理を適用する内視鏡診断支援装置について説明した。   In the sixth embodiment of the present invention, it is determined whether the input endoscopic image is a normal image or three types of stained images, and in consideration of the difference in properties of the used drug, An endoscopic diagnosis support apparatus has been described in which an R or G image is selected and tone reversal processing is applied to a stained image using indigo carmine.

一方,インジゴカルミンは前述の通り、その青緑色の色調からR画像において粘膜表面の構造成分を多く含むが、G画像においても元々の内視鏡画像の性質から特徴量の算出に十分な該構造成分を有していることがあり、このような場合はG画像を共通して使用することが可能である。   On the other hand, as described above, indigo carmine contains many structural components of the mucosal surface in the R image due to its blue-green color tone, but the structure sufficient for calculation of the feature amount also in the G image due to the nature of the original endoscopic image. In such a case, the G image can be used in common.

本実施の形態においては、各種の内視鏡画像からの特徴量算出手法適用においてG画像を共通に使用し、インジゴカルミンを用いた染色画像である場合のみ階調変換処理を適用することで上記第6の実施の形態における処理を簡略化し、メモリ資源の節約と処理の高速化が図れる内視鏡診断支援装置について説明する。   In the present embodiment, the G image is commonly used in applying the feature amount calculation method from various endoscope images, and the gradation conversion process is applied only when the image is a stained image using indigo carmine. An endoscope diagnosis support apparatus that simplifies the processing in the sixth embodiment and saves memory resources and speeds up the processing will be described.

本実施の形態における内視鏡診断支援装置の構成及び診断支援処理実行プログラムの構成ブロックについては第5の実施の形態において説明した内視鏡診断支援装置に同じである.したがって、以下異なる点について説明する。   The configuration of the endoscope diagnosis support apparatus and the configuration block of the diagnosis support processing execution program in this embodiment are the same as those in the endoscope diagnosis support apparatus described in the fifth embodiment. Therefore, different points will be described below.

図22は本発明の第7の実施の形態に係る診断支援処理実行プログラムの動作を説明するためのフローチャートである。   FIG. 22 is a flowchart for explaining the operation of the diagnosis support processing execution program according to the seventh embodiment of the invention.

本実施の形態においては、図7を用いて説明した第1の実施の形態に示した診断支援処理実行プログラム80の動作であるステップS20及びS21を、図22のステップS140ないしS144に示す処理に変更する。   In the present embodiment, steps S20 and S21, which are operations of the diagnosis support process execution program 80 shown in the first embodiment described with reference to FIG. 7, are replaced with the processes shown in steps S140 to S144 in FIG. change.

図21において、ステップS140及びS141に示す各処理の内容は、それぞれ第5の実施形態における図19のステップS100及びS101と同様である。   In FIG. 21, the content of each process shown in steps S140 and S141 is the same as that in steps S100 and S101 of FIG. 19 in the fifth embodiment.

ステップS142においては,入力された内視鏡画像からG画像を得る。   In step S142, a G image is obtained from the input endoscopic image.

ステップS143においては、画像種別判定結果がインジゴカルミンによる染色画像であるかどうかを判定し、判定結果がYesであればステップS144へ、NoであればステップS121に進む。   In step S143, it is determined whether the image type determination result is a stained image of indigo carmine. If the determination result is Yes, the process proceeds to step S144, and if the determination result is No, the process proceeds to step S121.

ステップS144においては、インジゴカルミンとその他の種別の画像との混在使用を可能とするための階調反転処理を適用する。階調反転処理は画像処理ブロック259により,以下の式を用いた画素値の変換を行う。   In step S144, tone reversal processing is applied to enable mixed use of indigo carmine and other types of images. In the gradation inversion processing, the image processing block 259 converts pixel values using the following formula.

g’j=255−gj
ここで、gjはG画像における画素jの値(1≦j≦X×Y,XとYは画像の縦・横の大きさ)で、8bitの階調数であり,0≦gj≦255の範囲をとるものとする。g’ jは階調反転後の画素の値で,以後の処理に用いられるものである。G画像に対する階調の反転処理を適用後、ステップS21に進む。
g'j = 255-gj
Here, gj is the value of pixel j in the G image (1 ≦ j ≦ X × Y, where X and Y are the vertical and horizontal sizes of the image), is the number of gradations of 8 bits, and 0 ≦ gj ≦ 255. The range shall be taken. g ′ j is the value of the pixel after gradation inversion and is used for the subsequent processing. After applying the gradation inversion process for the G image, the process proceeds to step S21.

以上説明したように、本実施の形態における内視鏡診断支援装置によれば、インジゴカルミンを用いた染色画像とそれ以外の内視鏡画像のいずれであるかを判定し、その結果に応じて階調の反転を行うことにより各画像を混在して使用することを可能とすることで良好な診断支援情報を提供することができる。   As described above, according to the endoscopic diagnosis support apparatus in the present embodiment, it is determined whether a stained image using indigo carmine or an endoscopic image other than that is used, and according to the result By performing inversion of gradation, it is possible to provide a good diagnosis support information by making it possible to use each image in a mixed manner.

第8の実施の形態:
本発明の第8の実施の形態は第1ないし第7の実施の形態として示した内視鏡診断支援装置に係わり、特徴量算出において空間周波数解析手法を適用するにあたり、内視鏡画像の空間周波数成分の有するすべての情報を利用することにより高精度の診断支援情報を得ることができる内視鏡診断支援装置に関するものである。
Eighth embodiment:
The eighth embodiment of the present invention relates to the endoscope diagnosis support apparatus shown as the first to seventh embodiments, and in applying the spatial frequency analysis method in the feature amount calculation, the space of the endoscope image The present invention relates to an endoscope diagnosis support apparatus that can obtain highly accurate diagnosis support information by using all information of frequency components.

本実施の形態における内視鏡診断支援装置の構成については第1の実施の形態において説明した内視鏡診断支援装置に同じである。また、本実施の形態における診断支援処理実行プログラムは図6に示した診断支援処理実行プログラム80と同様であり、特徴量算出ブロック84において適用する特徴量算出手法を変更することによりその目的を達成するものである。   The configuration of the endoscope diagnosis support apparatus according to the present embodiment is the same as that of the endoscope diagnosis support apparatus described in the first embodiment. The diagnosis support process execution program in the present embodiment is the same as the diagnosis support process execution program 80 shown in FIG. 6, and the object is achieved by changing the feature amount calculation method applied in the feature amount calculation block 84. To do.

空間周波数解析手法は、画像に対するフィルタリングの適用により周波数成分を抽出し特徴量化するものである。例えば最も一般的な手法として以下に示すパワースペクトラム法が知られている。   The spatial frequency analysis method extracts a frequency component by applying filtering to an image and converts it into a feature amount. For example, the following power spectrum method is known as the most general method.

画像t(x,y)及びフィルタf(x,y)によるフィルタリング処理結果g(x,y)は
[数2]
G(u,v)=T(u,v)・F(u,v) (2)
により表される。ここで、G(u,v)、T(u,v)及びF(u,v)はそれぞれg(x,y)、t(x,y)及びf(x,y)のフーリエ変換である。フィルタf(x,y)は低域、高域もしくは帯域通過型の周波数特性を有しており、画像における特定の周波数成分を抽出する効果を備えている。また,式(2)は画像とフィルタの畳み込み演算により実空間上では
[数3]
g(x,y)=t(x,y)*f(x,y) (3)
と表すことができ,一般的にはFIRフィルタ等によるデジタルフィルタリングにより実行されている。
The filtering processing result g (x, y) by the image t (x, y) and the filter f (x, y) is expressed by [Equation 2].
G (u, v) = T (u, v) · F (u, v) (2)
It is represented by Here, G (u, v), T (u, v), and F (u, v) are Fourier transforms of g (x, y), t (x, y), and f (x, y), respectively. . The filter f (x, y) has a low-frequency, high-frequency, or band-pass type frequency characteristic, and has an effect of extracting a specific frequency component in the image. Also, Equation (2) is calculated by [Equation 3] in the real space by the convolution operation of the image and the filter.
g (x, y) = t (x, y) * f (x, y) (3)
Generally, it is executed by digital filtering using an FIR filter or the like.

G(u,v)は複素数であり、その実数項及び虚数項をそれぞれRe(G(u,v))及びIm(G(u,v))とすると
[数4]
G(u,v)=Re(G(u,v))+jIm(G(u,v)) (4)
と表される。ここで,jは虚数単位を示す。さらに,式(4)より、G(u,v)を振幅項A(u,v)と位相項ψ(u,v)を用いて
[数5]
G(u,v)=A(u,v)exp(jψ(u,v)) (5)
[数6]

Figure 2007236956
[数7]
ψ(u,v)=tan-1{Im(G(u,v))/Re(G(u,v)} (7)
と表される。 G (u, v) is a complex number, and its real and imaginary terms are Re (G (u, v)) and Im (G (u, v)), respectively [Equation 4]
G (u, v) = Re (G (u, v)) + jIm (G (u, v)) (4)
It is expressed. Here, j represents an imaginary unit. Furthermore, from Equation (4), G (u, v) is expressed by using the amplitude term A (u, v) and the phase term ψ (u, v) [Equation 5]
G (u, v) = A (u, v) exp (jψ (u, v)) (5)
[Equation 6]
Figure 2007236956
[Equation 7]
ψ (u, v) = tan −1 {Im (G (u, v)) / Re (G (u, v)} (7)
It is expressed.

パワースペクトラム法においては、式(6)に示す振幅項A(u,v)を適用するn個(nはl以上の整数)のフィルタf(x,y)より求め、特徴量として使用するものである。   In the power spectrum method, it is obtained from n (f is an integer greater than or equal to 1) filters f (x, y) to which the amplitude term A (u, v) shown in Equation (6) is applied and used as a feature quantity It is.

また,近年画像解析分野において広く用いられているGabor特徴は、フィルタf(x,y)の周波数特性を人間の視覚系の特性を考慮したGabor関数により設定したものであり、本質的にはパワースペクトラム法と同様に振幅項A(u,v)を特徴量として用いている。   In addition, the Gabor feature widely used in the field of image analysis in recent years is a frequency characteristic of the filter f (x, y) set by a Gabor function considering the characteristics of the human visual system. Similar to the spectrum method, the amplitude term A (u, v) is used as the feature quantity.

式(5)に示すように、画像は周波数成分に関する情報として振幅項A(u,v)と位相項ψ(u,v)を含んでいるが、後者は特徴量として用いられていないため情報の損失が生じることとなる。本実施の形態においては、振幅項A(u,v)に基づく特徴量に加え、位相項ψ(u,v)に基づく特徴量を算出することにより、診断支援情報の精度向上を図る。   As shown in Expression (5), the image includes an amplitude term A (u, v) and a phase term ψ (u, v) as information on frequency components, but the latter is not used as a feature quantity, and thus information. Loss will occur. In the present embodiment, in addition to the feature quantity based on the amplitude term A (u, v), the feature quantity based on the phase term ψ (u, v) is calculated, thereby improving the accuracy of the diagnosis support information.

本実施の形態においては、内視鏡画像における周波数成分の抽出にK×M個のGaborフィルタを用いるものとする。K及びMはGaborフィルタを規定する後述するパラメタの個数である。Gaborフィルタは2次元ガウス曲面と2次元平面上を一方向に伝わる平面波とをかけあわせたものであり、ガウス曲面における標準値差σxとσy,平面波の進行方向θk及び波長λmにより決定される。ここで,k及びmはそれぞれGaborフィルタを規定する進行方向及び波長のパラメータであり、0≦k<K及び0≦m<Mであるものとする。標準値差σxとσyは波長λmと密接に関係しており、波長λmの関数とすることができ、それぞれσx(λm)及びσy(λm)と表される。Gaborフィルタfは実部Re(g)及び虚部Im(g)からなる2次元フイルタであり、それぞれ、
[数8]

Figure 2007236956
[数9]
Figure 2007236956
で定義される。大きさN×Nの画像tとGaborフィルタfとの畳み込み演算による処理結果gは,画素t(X,Y)に対して、
[数10]
Figure 2007236956
で与えられる。 In the present embodiment, it is assumed that K × M Gabor filters are used to extract frequency components from an endoscopic image. K and M are the number of parameters to be described later that define the Gabor filter. The Gabor filter is a product of a two-dimensional Gaussian curved surface and a plane wave propagating in one direction on a two-dimensional plane. The Gabor filter has a standard value difference σ x and σ y on the Gaussian curved surface, the plane wave traveling direction θ k and the wavelength λ m It is determined. Here, k and m are parameters of the traveling direction and wavelength that define the Gabor filter, respectively, and 0 ≦ k <K and 0 ≦ m <M. Standard value difference sigma x and sigma y is closely related to the wavelength lambda m, can be a function of the wavelength lambda m, are respectively expressed as σ xm) and σ ym). The Gabor filter f is a two-dimensional filter composed of a real part Re (g) and an imaginary part Im (g).
[Equation 8]
Figure 2007236956
[Equation 9]
Figure 2007236956
Defined by The processing result g by the convolution operation of the image t of size N × N and the Gabor filter f is the pixel t (X, Y),
[Equation 10]
Figure 2007236956
Given in.

. 式(10)のgを用いてGabor特徴の値hk,m(X,Y)は、
[数11]
k,m(X,Y)=|gk,m(X,Y)| (11)
となる.ここで,|・|は複素数α+jβの絶対値(α2+β21/2を表す。
Using g in equation (10), the values of Gabor features hk, m (X, Y) are
[Equation 11]
h k, m (X, Y) = | g k, m (X, Y) | (11)
It becomes. Here, | · | represents the absolute value (α 2 + β 2 ) 1/2 of the complex number α + jβ.

本実施の形態においては振幅及び位相情報を用いた特徴量として,文献4 [Rotation-Invariant Texture Classification Using a Complete Space-Frequency Model,G.M.Haley and B.S.Manjunath,IEEE TRANS. ON IMAGE PROCESSING, Vol.8,No.2,FEB. 1999]に示された各特徴量を算出する。   In this embodiment, as a feature quantity using amplitude and phase information, Reference 4 [Rotation-Invariant Texture Classification Using a Complete Space-Frequency Model, GMHaley and BSManjunath, IEEE TRANS. ON IMAGE PROCESSING, Vol.8, No.2, FEB. 1999] is calculated.

[数12]

Figure 2007236956
[数13]
Figure 2007236956
[数14]
Figure 2007236956
[数15]
Figure 2007236956
[数16]
Figure 2007236956
[数17]
Figure 2007236956
ここで,nx及びnyはそれぞれ大きさISX×ISYの画像における画素の座標で、0≦nx<ISX, 0≦ny<ISYである。また、sはGaborフィルタの波長λmに対応するパラメタであり、1≦s≦Mである。また、rはGaborフィルタの方向θkに対応するパラメタであり、0≦r<Kである。ここでは表記を文献4に合わせ,R=Kであるものとする。また、arg[・]はtan-1{Im(・)/Re(・)}を示す。 [Equation 12]
Figure 2007236956
[Equation 13]
Figure 2007236956
[Formula 14]
Figure 2007236956
[Equation 15]
Figure 2007236956
[Equation 16]
Figure 2007236956
[Equation 17]
Figure 2007236956
Here, nx and ny are pixel coordinates in an image of size ISX × ISY, and 0 ≦ nx <ISX and 0 ≦ ny <ISY. Further, s is a parameter corresponding to the wavelength λ m of the Gabor filter, and 1 ≦ s ≦ M. R is a parameter corresponding to the direction θ k of the Gabor filter, and 0 ≦ r <K. Here, the notation is adjusted to Document 4 and R = K. Further, arg [•] indicates tan −1 {Im (•) / Re (•)}.

.また,a s,r(nx,ny),φs,r(nx,ny)及びus,r(nx,ny)は以下のように求められる.
[数18]
s,r(nx,ny)=|g s,r(nx,ny)| (18)
[数19]

Figure 2007236956
[数20]
Figure 2007236956
ここで、∇x()及び∇y()は勾配推定関数、θrはGaborフィルタの方向である。また、
[数21]
θ∇=tan-1{▽y(ψs,r(nx,ny))/▽x(ψs,r(nx,ny)} (21)
より求められる。また、arg[・]はatan(Im(・)/Re(・))を示す。 Further, a s, r (nx, ny), φ s, r (nx, ny) and u s, r (nx, ny) are obtained as follows.
[Equation 18]
a s, r (nx, ny) = | g s, r (nx, ny) | (18)
[Equation 19]
Figure 2007236956
[Equation 20]
Figure 2007236956
Here, ∇ x () and ∇ y () are gradient estimation functions, and θ r is the direction of the Gabor filter. Also,
[Equation 21]
θ∇ = tan −1 {▽ ys, r (nx, ny)) / ▽ xs, r (nx, ny)} (21)
More demanded. Also, arg [•] indicates atan (Im (•) / Re (•)).

式(#11)ないし(#16)に示す特徴量は各面素ごとに算出されるものであり、第1の実施の形態において示した図7におけるステップS26に適用することができる。   The feature amounts shown in the equations (# 11) to (# 16) are calculated for each surface element, and can be applied to step S26 in FIG. 7 shown in the first embodiment.

さらに、式(12)ないし(17)により得られる画素ごとの特徴量から、以下に示す領域ごとの特徴量を算出することが可能である。   Furthermore, it is possible to calculate the following feature quantity for each region from the feature quantity for each pixel obtained by the equations (12) to (17).

[数22]

Figure 2007236956
ここで,fAfFfYfDAfDF及びfDYはそれぞれfAs,p,fFs,q,fYs,q,fDAs,q,fDFs,q及びfDYs,qに対するpまたはqに基づくベクトル表記である。また、E{}は算出対象とする領域内(ROI)の各面素に碁づく期待値(平均値),*は複素共役を示す。 [Equation 22]
Figure 2007236956
Where fA , fF , fY , fDA , fDF, and fDY are p or q for fA s, p , fF s, q , fY s, q , fDA s, q , fDF s, q, and fDY s, q, respectively. Vector notation based on. E {} represents an expected value (average value) associated with each surface element in the region (ROI) to be calculated, and * represents a complex conjugate.

また、各特徴量の分散及び共分散に基づく特徴量を算出することも可能である。例えば,式(12)及び(13)に示したfAs,p及びfFs,qを用いた分散及び共分散は分散共分散行列Σとして算出される。例えばs=1、R=8の場合、fAs,p及びfFs,qはそれぞれ各面素につき3個ずつ算出され、ROI内のj番目の画素(座標(nx,ny)とする)に対してv1j=fA0,0(nx,ny),v2j=fA0,1(nx,ny),v3j=fA0,2(nx,ny),v4j=fF0,0(nx,ny),v5j=fF0,1(nx,ny),v6j=fF0,2(nx,ny)とすると共分散行列Σは、
[数23]

Figure 2007236956
で定義される.式(23)においてσst
[数24]
Figure 2007236956
により求められる。ここで、NはROI内の画素数、μs及びμtはそれぞれvs及びvtのROI内の平均値を示す。得られた共分散行列Σにおいて、各σst をROIの特徴量として使用する。式(14)ないし(17)に示した各特徴量を含め、同様に分散共分散行列を求めることができる。 It is also possible to calculate a feature quantity based on the variance and covariance of each feature quantity. For example, the variance and covariance using fA s, p and fF s, q shown in equations (12) and (13) are calculated as a variance covariance matrix Σ. For example, when s = 1 and R = 8, three fA s, p and fF s, q are calculated for each surface element , and are assigned to the j-th pixel (coordinates (nx, ny)) in the ROI. V1j = fA 0,0 (nx, ny), v2j = fA 0,1 (nx, ny), v3j = fA 0,2 (nx, ny), v4j = fF 0,0 (nx, ny), If v5j = fF 0,1 (nx, ny) and v6j = fF 0,2 (nx, ny), then the covariance matrix Σ is
[Equation 23]
Figure 2007236956
Is defined by. In Equation (23), σ st is [Equation 24].
Figure 2007236956
Is required. Here, N is the number of pixels in the ROI, and μs and μt are the average values in the ROI of vs and vt, respectively. In the obtained covariance matrix Σ, each σ st is used as a feature amount of ROI. A variance-covariance matrix can be obtained in a similar manner including the feature amounts shown in equations (14) to (17).

また、さらに共分散行列Σより相関行列を求め、相関係数を特徴量として使用することもできる。   It is also possible to obtain a correlation matrix from the covariance matrix Σ and use the correlation coefficient as a feature quantity.

本実施の形態においては、第1の実施の形態において示した図7におけるステップS27に適用することが可能であり、領域分割処理適用後の各ROI(i)よりFCA(i)ないしFDMY(i)の分散、共分散(もしくは相関係数)を求め、ステップS29における判別分類処理に使用する。 This embodiment can be applied to step S27 in FIG. 7 shown in the first embodiment, and FCA (i) to FDMY (i ) from each ROI (i) after application of the region division processing. ) And covariance (or correlation coefficient) are obtained and used for the discrimination classification process in step S29.

以上説明したように、本実施の形態における内視鏡診断支援装置によれば、特徴量算出において空間周波数解析手法を適用するにあたり、内視鏡画像の空間周波数成分の有するすべての情報を利用することにより高精度の診断支援情報を得ることができる。   As described above, according to the endoscope diagnosis support apparatus in the present embodiment, all information of the spatial frequency component of the endoscopic image is used when applying the spatial frequency analysis method in the feature amount calculation. Thus, highly accurate diagnosis support information can be obtained.

[付記]
(付記項1) 被検体を撮像した撮像信号から所定の周波数成分を抽出する周波数成分抽出手段と、
前記周波数成分抽出手段で抽出された前記周波数成分の位相情報を検出する位相情報検出手段と、
前記位相情報検出手段で検出された前記位相情報に基づき前記被検体の特徴量を演算する特徴量演算手段と
を具備したことを特徴とする診断支援装置。
[Appendix]
(Additional Item 1) Frequency component extraction means for extracting a predetermined frequency component from an imaging signal obtained by imaging a subject;
Phase information detection means for detecting phase information of the frequency component extracted by the frequency component extraction means;
A diagnostic support apparatus, comprising: feature amount calculation means for calculating a feature amount of the subject based on the phase information detected by the phase information detection means.

(付記項2) 複数の色信号からなる内視鏡画像を入力する内視鏡画像入力手段と、
前記内視鏡画像入力手段に入力された前記内視鏡画像に対し第1の領域を設定する第1の領域設定手段と、
前記内視鏡画像の少なくとも1つの色信号に基づく特徴量を算出する特徴量算出手段と、
前記特徴量算出手段により算出された前記特徴量に基づき前記第1の領域設定手段により設定された第1の領域に第2の領域を設定する第2の領域設定手段と、
前記第2の領域設定手段により設定された少なくとも1つの領域に対し前記特徴量算出手段により算出された前記特徴量に基づく判別分類処理を適用する判別分類手段と、
前記判別分類手段による判別分類結果を表示する表示手段と
を備えたことを特徴とする内視鏡診断支援装置。
(Additional Item 2) Endoscopic image input means for inputting an endoscopic image composed of a plurality of color signals;
First area setting means for setting a first area for the endoscopic image input to the endoscopic image input means;
Feature quantity calculating means for calculating a feature quantity based on at least one color signal of the endoscopic image;
Second area setting means for setting a second area in the first area set by the first area setting means based on the feature quantity calculated by the feature quantity calculation means;
Discriminating and classifying means for applying the discriminating and classifying process based on the feature quantity calculated by the feature quantity calculating means to at least one area set by the second area setting means;
An endoscopic diagnosis support apparatus, comprising: display means for displaying a discrimination classification result obtained by the discrimination classification means.

(付記項3) 前記表示手段が前記特徴量算出手段により算出された特徴量を表示する
ことを特徴とする付記項2に記載の内視鏡診断支援装置。
(Additional Item 3) The endoscope diagnosis support apparatus according to Additional Item 2, wherein the display unit displays the feature amount calculated by the feature amount calculation unit.

(付記項4) 前記第2の領域設定手段により設定された第2の領域の面積を算出する面積算出手段
を備えたことを特徴とする付記項2または3に記載の内視鏡診断支援装置。
(Additional Item 4) The endoscope diagnosis support apparatus according to Additional Item 2 or 3, further comprising an area calculating unit that calculates an area of the second region set by the second region setting unit. .

(付記項5) 前記第2の領域が面積比を算出する面積比算出手段を備え、前記表示手段が前記面積比算出手段により算出された面積比を表示する
ことを特徴とする付記項4に記載の内視鏡診断支援装置。
(Additional Item 5) In the Additional Item 4, the second region includes an area ratio calculation unit that calculates an area ratio, and the display unit displays the area ratio calculated by the area ratio calculation unit. The endoscope diagnosis support apparatus described.

(付記項6) 前記面積算出手段が画素数に基づく面積を算出する
ことを特徴とする付記項4または5に記載の内視鏡診断支援装置。
(Additional Item 6) The endoscope diagnosis support apparatus according to Additional Item 4 or 5, wherein the area calculating unit calculates an area based on the number of pixels.

(付記項7) 前記第2の領域設定手段及び前記判別分類手段において、各々が種類の異なる特徴量を用いる
ことを特徴とする付記項2,3,4,5または6に記載の内視鏡診断支援装置。
(Additional Item 7) The endoscope according to Additional Item 2, 3, 4, 5, or 6, wherein each of the second region setting unit and the discriminating / classifying unit uses different types of feature quantities. Diagnosis support device.

(付記項8) 前記第2の領域設定手段が前記特徴量算出手段により算出された特徴量に基づく領域分割により第2の領域を設定する
ことを特徴とする付記項2,3,4,5,6または7に記載の内視鏡診断支援装置。
(Additional Item 8) Additional Item 2, 3, 4, 5 in which the second region setting unit sets the second region by region division based on the feature amount calculated by the feature amount calculation unit. , 6 or 7 of the endoscopic diagnosis support apparatus.

(付記項9) 前記第1の領域設定手段により設定される第1の領域が内視鏡画像全体である
ことを特徴とする付記項2,3,4,5,6,7または8に記載の内視鏡診断支援装置。
(Supplementary Item 9) The supplementary item 2, 3, 4, 5, 6, 7 or 8, wherein the first region set by the first region setting unit is the entire endoscope image. Endoscopic diagnosis support device.

(付記項10) 前記第2の領域に対する前記判別分類手段による判別分類結果に基づき総合的な診断支援情報を導出するための総合情報導出手段を備え、前記表示手段が前記総合情報導出手段により導出された診断支援情報表示する
ことを特徴とする付記項2,3,4,5,6,7,8または9に記載の内視鏡診断支援装置。
(Additional Item 10) Comprehensive information deriving means for deriving comprehensive diagnosis support information based on a discrimination classification result by the discrimination classifying means for the second area, and the display means is derived by the comprehensive information deriving means The endoscopic diagnosis support apparatus according to the additional item 2, 3, 4, 5, 6, 7, 8 or 9, wherein the diagnosis support information is displayed.

(付記項11) 前記総合情報導出手段が前記判別分類結果ごとに前記第2の領域を統合した面積比を算出するとともに、前記判別分類結果及び前記面積比に基づき診断支援情報を導出する
ことを特徴とする付記項10に記載の内視鏡診断支援装置。
(Additional Item 11) The comprehensive information deriving unit calculates an area ratio obtained by integrating the second regions for each discrimination classification result, and derives diagnosis support information based on the discrimination classification result and the area ratio. The endoscopic diagnosis support apparatus according to Item 10, wherein the endoscope diagnosis support apparatus is characterized.

(付記項12) 前記総合情報導出手段が前記面積比を特徴量とする識別分類処理を実行することにより診断支援情報を導出する
ことを特徴とする付記項11に記載の内視鏡診断支援装置。
(Additional Item 12) The endoscope diagnosis support apparatus according to Additional Item 11, wherein the comprehensive information deriving unit derives diagnosis support information by executing an identification classification process using the area ratio as a feature amount. .

(付記項13) 複数の色信号からなる内視鏡画像を入力する内視鏡画像入力手段と、
前記内視鏡画像入力手段に入力された前記内視鏡画像に対し領域を設定する領域設定手段と、
前記内視鏡画像の種別を判定する内視鏡画像種別判定手段と、
前記内視鏡画像の少なくとも1つの色信号に基づく特徴量を算出する特徴量算出手段と、
前記領域設定手段により設定された領域に対し前記特徴量算出手段により算出された特徴量に基づく判別分類処理を適用する判別分類手段と、
前記判別分類手段による判別分類結果を表示する表示手段と
を備え、
前記内視鏡画像種別判定手段の判定結果に基づき前記特徴量算出手段が特徴量を算出する色信号を変更する
ことを特徴とする内視鏡診断支援装置。
(Additional Item 13) Endoscopic image input means for inputting an endoscopic image composed of a plurality of color signals;
Area setting means for setting an area for the endoscopic image input to the endoscopic image input means;
Endoscopic image type determining means for determining the type of the endoscopic image;
Feature quantity calculating means for calculating a feature quantity based on at least one color signal of the endoscopic image;
Discriminating and classifying means for applying a discriminating and classifying process based on the feature quantity calculated by the feature quantity calculating means to the area set by the area setting means;
Display means for displaying the discrimination classification result by the discrimination classification means,
An endoscope diagnosis support apparatus, wherein the feature amount calculation unit changes a color signal for calculating a feature amount based on a determination result of the endoscope image type determination unit.

(付記項14) 前記内視鏡画像入力手段に入力された内視鏡画像の種別を判定する内視鏡画像種別判定手段を備えるとともに、前記内視鏡画像種別判定手段の判定結果に基づき前記特徴量算出手段が特徴量を算出する色信号を変更する
ことを特徴とする付記項2,3,4,5,6,7,9,10,11または12に記載の内視鏡診断支援装置。
(Additional Item 14) An endoscope image type determining unit that determines the type of the endoscope image input to the endoscope image input unit is provided, and based on a determination result of the endoscope image type determining unit Endoscopic diagnosis support apparatus according to additional clause 2, 3, 4, 5, 6, 7, 9, 10, 11 or 12, wherein the feature amount calculation means changes the color signal for calculating the feature amount .

(付記項15) 前記内視鏡画像種別判定手段が薬剤散布の有無に基づく内視鏡画像の種別を判定する
ことを特徴とする付記項13または14に記載の内視鏡診断支援装置。
(Additional Item 15) The endoscope diagnosis support apparatus according to Additional Item 13 or 14, wherein the endoscope image type determination unit determines the type of the endoscope image based on the presence / absence of drug dispersion.

(付記項16) 前記内視鏡画像種別判定手段が散布された薬剤の種別に基づく画像の種別を判定する
ことを特徴とする付記項15に記載の内視鏡診断支援装置。
(Additional Item 16) The endoscope diagnosis support apparatus according to Additional Item 15, wherein the endoscope image type determination unit determines the type of image based on the type of medicine dispersed.

(付記項17) 前記内視鏡画像種別判定手段の判定結果に基づき前記特徴量算出手段が特徴量を算出する色信号を補正する色信号補正手段を設けた
ことを特徴とする付記項13,14,15または16に記載の内視鏡診断支援装置。
(Additional Item 17) Additional Item 13, wherein the feature amount calculation unit corrects a color signal for calculating a feature amount based on the determination result of the endoscope image type determination unit. The endoscopic diagnosis support apparatus according to 14, 15 or 16.

(付記項18) 前記色信号補正手段が階調の反転に基づく補正を行う
ことを特徴とする付記項17に記載の内視鏡診断支援装置。
(Additional Item 18) The endoscope diagnosis support apparatus according to Additional Item 17, wherein the color signal correction unit performs correction based on inversion of gradation.

(付記項19) 前記内視鏡画像種別判定手段が前記内視鏡画像の色調に基づき内視鏡画像の種別を判定する
ことを特徴とする付記項13,14,15,16,17または18に記載の内視鏡診断支援装置。
(Additional Item 19) The additional image item 13, 14, 15, 16, 17 or 18 in which the endoscope image type determination unit determines the type of the endoscope image based on the color tone of the endoscope image. The endoscopic diagnosis support apparatus according to 1.

(付記項20) 前記特徴量算出手段が前記内視鏡画像の空間周波数成分に基づく特徴量を算出する
ことを特徴とする付記項2,3,4,5,6,7,9,10,11,12,13,14,15,16,17,18または19に記載の内視鏡診断支援装置。
(Additional Item 20) Additional Item 2, 3, 4, 5, 6, 7, 9, 10, wherein the feature amount calculating means calculates a feature amount based on a spatial frequency component of the endoscopic image. The endoscope diagnosis support apparatus according to 11, 12, 13, 14, 15, 16, 17, 18, or 19.

(付記項21) 前記特徴量算出手段が前記内視鏡画像の空間周波数成分における振幅及び/または位相に基づく特徴量を算出する
ことを特徴とする付記項20に記載の内視鏡診断支援装置。
(Additional Item 21) The endoscope diagnosis support apparatus according to Additional Item 20, wherein the feature amount calculating unit calculates a feature amount based on an amplitude and / or a phase in a spatial frequency component of the endoscopic image. .

(付記項22) 前記判別分類手段が少なくとも1つの統計的または非統計的識別器を用いた分類を適用する
ことを特徴とする付記項2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20または21に記載の内視鏡診断支援装置。
(Additional Item 22) Additional Item 2, 3, 4, 5, 6, 7, 8, 9 wherein the discriminant classification means applies classification using at least one statistical or non-statistical classifier. , 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20 or 21.

(付記項23) 複数の色信号からなる内視鏡画像を入力する内視鏡画像入力手段と、
前記内視鏡画像入力手段に入力された前記内視鏡画像の少なくとも1つの色信号に基づき空間周波数成分を抽出する空間周波数成分抽出手段と、
前記空間周波数成分抽出手段により抽出された空間周波数成分に基づき前記内視鏡画像の位相成分を検出する位相成分検出手段と、
前記位相成分検出手段により検出された位相成分に基づく特徴量を算出する特徴量算出手段と
を備えたことを特徴とする内視鏡画像処理装置。
(Additional Item 23) Endoscopic image input means for inputting an endoscopic image composed of a plurality of color signals;
Spatial frequency component extraction means for extracting a spatial frequency component based on at least one color signal of the endoscopic image input to the endoscopic image input means;
Phase component detection means for detecting a phase component of the endoscopic image based on the spatial frequency component extracted by the spatial frequency component extraction means;
An endoscope image processing apparatus comprising: a feature amount calculating unit that calculates a feature amount based on the phase component detected by the phase component detecting unit.

(付記項24) 前記特徴量算出手法が前記位相成分の変化の方向に基づく特徴量を算出する
ことを特徴とする付記項23に記載の内視鏡画像処理装置。
(Additional Item 24) The endoscopic image processing device according to Additional Item 23, wherein the feature amount calculation method calculates a feature amount based on a change direction of the phase component.

(付記項25) 前記特徴量算出手法が前記位相成分の変化の大きさに基づく特徴量を算出する
ことを特徴とする付記項23または24に記載の内視鏡画像処理装置。
(Additional Item 25) The endoscopic image processing device according to Additional Item 23 or 24, wherein the feature amount calculation method calculates a feature amount based on a magnitude of a change in the phase component.

(付記項26) 前記空間周波数成分抽出手段により抽出された空間周波数成分に基づき前記内視鏡画像の振幅成分を検出する振幅成分検出手段と、
前記位相成分検出手段により検出された位相成分及び前記振幅成分検出手段により検出された振幅成分に基づく特徴量を算出する特徴量算出手段と、
を備えたことを特徴とする付記項23,24または25に記載の内視鏡画像処理装置。
(Additional Item 26) Amplitude component detection means for detecting an amplitude component of the endoscopic image based on the spatial frequency component extracted by the spatial frequency component extraction means;
A feature amount calculating unit that calculates a feature amount based on the phase component detected by the phase component detecting unit and the amplitude component detected by the amplitude component detecting unit;
An endoscopic image processing device according to Additional Item 23, 24 or 25, comprising:

(付記項27) 前記特徴量算出手段が前記位相成分及び振幅成分の共分散または相関に基づく特徴量を算出する
ことを特徴とする付記項26に記載の内視鏡画像処理装置。
(Additional Item 27) The endoscopic image processing device according to Additional Item 26, wherein the feature amount calculating unit calculates a feature amount based on a covariance or correlation of the phase component and the amplitude component.

(付記項28) 前記空間周波数成分抽出手段がフーリエ変換またはデジタルフィルタを用いたフィルタリングを行う
ことを特徴とする付記項23,24,25,26または27に記載の内視鏡画像処理装置。
(Additional Item 28) The endoscopic image processing device according to Additional Item 23, 24, 25, 26, or 27, wherein the spatial frequency component extracting unit performs Fourier transform or filtering using a digital filter.

(付記項29) 内視鏡画像を入力するステップと、
前記内視鏡画像に対し空間周波数成分を抽出するフィルタリングを適用するステップと、
前記フィルタリングの適用結果に基づき前記内視鏡画像の位相情報を検出するステップと、
前記位相情報に基づく特徴量を算出するステップと
を備えたことを特徴とする内視鏡画像処理方法。
(Additional Item 29) A step of inputting an endoscopic image;
Applying filtering to extract a spatial frequency component on the endoscopic image;
Detecting phase information of the endoscopic image based on the application result of the filtering;
An endoscopic image processing method comprising: calculating a feature amount based on the phase information.

(付記項30) 複数の色信号からなる内視鏡画像を入力する内視鏡画像入力手段と、 前記内視鏡画像入力手段に入力された内視鏡画像に対し領域を設定する領域設定手段と、
前記内視鏡画像の種別を判定する内視鏡画像種別判定手段と、
前記内視鏡画像の少なくとも1つの色信号に基づく特徴量を算出する特徴量算出手段と
を備え、
前記内視鏡画像種別判定手段の判定結果に基づき前記特徴量算出手段が特徴量を算出する色信号を変更する
ことを特徴とする内視鏡画像処理装置。
(Additional Item 30) Endoscopic image input means for inputting an endoscopic image composed of a plurality of color signals, and area setting means for setting an area for the endoscopic image input to the endoscopic image input means When,
Endoscopic image type determining means for determining the type of the endoscopic image;
A feature amount calculating means for calculating a feature amount based on at least one color signal of the endoscopic image,
An endoscope image processing apparatus, wherein the feature amount calculation unit changes a color signal for calculating a feature amount based on a determination result of the endoscope image type determination unit.

(付記項31) 複数の色信号からなる内視鏡画像を入力するステップと、
前記内視鏡画像に対し領域を設定するステップと、
前記内視鏡画像の種別を判定するステップと、
前記内視鏡画像の少なくとも1つの色信号に基づく特徴量を算出するステップと
からなり、
前記内視鏡画像種別判定手段の判定結果に基づき前記特徴量算出ステップにおいて特徴量を算出する色信号を変更する
ことを特徴とする内視鏡画像処理方法。
(Additional Item 31) Inputting an endoscope image composed of a plurality of color signals;
Setting an area for the endoscopic image;
Determining the type of the endoscopic image;
Calculating a feature amount based on at least one color signal of the endoscopic image,
An endoscopic image processing method, comprising: changing a color signal for calculating a feature amount in the feature amount calculation step based on a determination result of the endoscope image type determination unit.

付記項2,3,4,5,6,7,8,9,1 0,11,12及び22の目的は内視鏡画像において病変の粘膜表面構造が複数の異なる所見を呈する場合,あるいは病変中に他の異なる腫瘍等が混在する場合においても,各所見を示す部位ごとに関心領域を設定するとともに,どのような所見,あるいは所見に関連して診断される腫瘍等が存在しているか,さらにはそれらがどのような割合で混在しているかを知ることができる診断支援装置を提供することにある。   The purpose of supplementary items 2, 3, 4, 5, 6, 7, 8, 9, 10, 12, and 22 is when the mucosal surface structure of the lesion shows a plurality of different findings in the endoscopic image, or the lesion Even when other different tumors are mixed, a region of interest is set for each site showing each finding, and what kind of findings or tumors are diagnosed in relation to the findings. Furthermore, it is providing the diagnostic assistance apparatus which can know what ratio those are mixed.

付記項1 3,1 4,1 5,1 6,1 7,1 8,19, 30及び31の目的は特徴量算出においてRGB画像のいずれを処理の対象とするかについて,薬剤散布の有無及び散布に使用した薬剤の種別に応じて変更し,より高精度に客観的・数値的な診断を行うことにある。   Additional Item 1 3,1 4,1 5,1 6,1 7,1, 8, 19, 30 and 31 are used to determine which of the RGB images is to be processed in the feature quantity calculation, The objective is to make an objective and numerical diagnosis with higher accuracy, depending on the type of drug used for spraying.

付記項20,22,23,24,25,26,27,28及び29の目的は内視鏡画像中の空間周波数成分の特徴量化において,位相情報を考慮した特徴量算出手法を適用することにより空間周波数成分の有するすべての情報を利用し,より高精度の客観的・数値的な診断を行うことにある。   The purpose of the additional items 20, 22, 23, 24, 25, 26, 27, 28, and 29 is to apply a feature quantity calculation method that takes phase information into consideration in the feature quantity of the spatial frequency component in the endoscopic image. The objective is to make more accurate objective and numerical diagnosis using all the information of spatial frequency components.

本発明の第1の実施の形態に係る内視鏡診断支援装置の構成を示す構成図The block diagram which shows the structure of the endoscope diagnosis assistance apparatus which concerns on the 1st Embodiment of this invention. 従来の内視鏡診断支援装置における診断支援処理実行プログラムの構成を説明するための機能ブロック図Functional block diagram for explaining the configuration of a diagnosis support processing execution program in a conventional endoscope diagnosis support apparatus 従来の内視鏡診断支援装置における診断支援処理実行プログラムの動作を説明するためのフローチャートFlowchart for explaining the operation of a diagnosis support process execution program in a conventional endoscope diagnosis support apparatus 従来の内視鏡診断支援装置におけるROI設定を説明するためのROI設定ウィンドウ説明図ROI setting window explanatory diagram for explaining ROI setting in a conventional endoscope diagnosis support apparatus 従来の内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図Report display window explanatory diagram for explaining display of diagnosis support information in a conventional endoscope diagnosis support apparatus 第1の実施の形態の内視鏡診断支援装置における診断支援処理実行プログラムの構成を説明するための機能ブロック図Functional block diagram for demonstrating the structure of the diagnostic assistance process execution program in the endoscope diagnostic assistance apparatus of 1st Embodiment 第1の実施の形態の内視鏡診断支援装置における診断支援処理実行プログラムの動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the diagnosis assistance process execution program in the endoscope diagnosis assistance apparatus of 1st Embodiment. 第1の実施の形態の内視鏡診断支援装置における仮ROI設定を説明するための仮ROI設定ウィンドウ説明図Temporary ROI setting window explanatory drawing for demonstrating temporary ROI setting in the endoscope diagnosis assistance apparatus of 1st Embodiment 第1の実施の形態の領域分割処理の動作を説明するためのフローチャートFlowchart for explaining the operation of area division processing according to the first embodiment 第1の実施の形態の領域分割処理を説明するための第1の説明図1st explanatory drawing for demonstrating the area division | segmentation process of 1st Embodiment 第1の実施の形態の領域分割処理を説明するための第2の説明図2nd explanatory drawing for demonstrating the area | region division process of 1st Embodiment 第1の実施の形態の内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図Report display window explanatory drawing for demonstrating the display of the diagnostic assistance information in the endoscope diagnostic assistance apparatus of 1st Embodiment 本発明の第2の実施の形態に係る本実施の形態における診断支援処理実行プログラムの構成を説明するためのブロック図The block diagram for demonstrating the structure of the diagnosis assistance process execution program in this Embodiment which concerns on the 2nd Embodiment of this invention. 第2の実施の形態の診断支援実行プログラムの動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the diagnostic assistance execution program of 2nd Embodiment 第2の実施の形態の診断支援情報の導出を説明するためのフローチャートFlowchart for explaining derivation of diagnosis support information according to the second embodiment 第2の実施の形態の内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図Report display window explanatory drawing for demonstrating the display of the diagnostic assistance information in the endoscope diagnostic assistance apparatus of 2nd Embodiment 本発明の第3の実施の形態に係る内視鏡診断支援装置における診断支援情報の表示を説明するためのレポート表示ウィンドウ説明図Report display window explanatory drawing for demonstrating the display of the diagnostic assistance information in the endoscope diagnostic assistance apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第5の実施の形態に係る診断支援処理実行プログラムの構成を説明するためのブロック図The block diagram for demonstrating the structure of the diagnostic assistance process execution program which concerns on the 5th Embodiment of this invention 第5の実施の形態における診断支援処理実行プログラムの動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the diagnostic assistance process execution program in 5th Embodiment 第5の実施の形態における通常画像及び染色画像の判定処理について説明するための説明図Explanatory drawing for demonstrating the determination process of the normal image and dyed | stained image in 5th Embodiment 本発明の第6の実施の形態に係る診断支援処理実行プログラム250の動作を説明するための説明図Explanatory drawing for demonstrating operation | movement of the diagnostic assistance process execution program 250 which concerns on the 6th Embodiment of this invention. 本発明の第7の実施の形態に係る診断支援処理実行プログラムの動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the diagnostic assistance process execution program which concerns on the 7th Embodiment of this invention 染色画像に関する説明のための説明図Explanatory drawing for explanation about dyed image

符号の説明Explanation of symbols

1…診断支援装置
2…ビデオプロセッサ
3、35…観察モニタ
4…入力ユニット
5…サーバユニット
6…カンファレンスユニット
11…A/Dコンバータ
12、32、50…画像処理部
13、21、31L…LANコントローラ
14、26、36…コントローラ
22…メモリ
23、47…ハードディスク
24…ハードディスクドライバ
25…圧縮装置
33…伸張装置
34…D/Aコンバータ
41…CPU
42…キーボード
43…キーボードI/F
44…検索モニタ
45…マウス
46…マウスI/F
48…ハードディスクI/F
49…作業メモリ
50…画像処理部
51…プリンタ
52…プリンタI/F
61…パスワード記憶部
62…パスワード監視部
63…制御制限部
80…診断支援処理実行プログラム
81…画像入力・管理ブロック
82…データベース管理ブロック
83…仮ROI設定ブロック
84…特徴量算出ブロック
85…ROI設定ブロック
86…判別分類ブロック
87…レポート作成ブロック
88…画像処理ブロック
DESCRIPTION OF SYMBOLS 1 ... Diagnosis support apparatus 2 ... Video processor 3, 35 ... Observation monitor 4 ... Input unit 5 ... Server unit 6 ... Conference unit 11 ... A / D converter 12, 32, 50 ... Image processing part 13, 21, 31L ... LAN controller 14, 26, 36 ... Controller 22 ... Memory 23, 47 ... Hard disk 24 ... Hard disk driver 25 ... Compression device 33 ... Expansion device 34 ... D / A converter 41 ... CPU
42 ... Keyboard 43 ... Keyboard I / F
44 ... Search monitor 45 ... Mouse 46 ... Mouse I / F
48 ... Hard disk I / F
49 ... Work memory 50 ... Image processing unit 51 ... Printer 52 ... Printer I / F
61 ... Password storage unit 62 ... Password monitoring unit 63 ... Control restriction unit 80 ... Diagnosis support processing execution program 81 ... Image input / management block 82 ... Database management block 83 ... Temporary ROI setting block 84 ... Feature quantity calculation block 85 ... ROI setting Block 86 ... Discrimination classification block 87 ... Report creation block 88 ... Image processing block

Claims (10)

被検体を撮像した複数の撮像信号のうち少なくとも1つの撮像信号から所定の周波数成分を抽出する周波数成分抽出手段と、
前記周波数成分抽出手段により抽出された所定の周波数成分に基づく位相情報を検出する位相情報検出手段と、
前記位相情報検出手段によって検出された前記位相情報に基づいて前記被検体の特徴量を算出する特徴量算出手段と、
前記特徴量算出手段によって算出された特徴量を演算する特徴量演算手段と、
を備えることを特徴とする診断支援装置。
Frequency component extraction means for extracting a predetermined frequency component from at least one imaging signal among a plurality of imaging signals obtained by imaging the subject;
Phase information detection means for detecting phase information based on the predetermined frequency component extracted by the frequency component extraction means;
Feature quantity calculating means for calculating the feature quantity of the subject based on the phase information detected by the phase information detecting means;
Feature quantity calculation means for calculating the feature quantity calculated by the feature quantity calculation means;
A diagnostic support apparatus comprising:
前記特徴量算出手段は、前記内視鏡画像の空間周波数成分に基づく特徴量を算出することを特徴とする請求項1に記載の内視鏡診断支援装置。   The endoscope diagnosis support apparatus according to claim 1, wherein the feature amount calculation unit calculates a feature amount based on a spatial frequency component of the endoscopic image. 前記特徴量算出手段は、前記内視鏡画像の空間周波数成分における振幅及び/または位相に基づく特徴量を算出することを特徴とする請求項2に記載の内視鏡診断支援装置。   The endoscope diagnosis support apparatus according to claim 2, wherein the feature amount calculation unit calculates a feature amount based on an amplitude and / or a phase in a spatial frequency component of the endoscopic image. 複数の色信号からなる内視鏡画像を入力する内視鏡画像入力手段と、
前記内視鏡画像入力手段に入力された前記内視鏡画像の少なくとも1つの色信号に基づき空間周波数成分を抽出する空間周波数成分抽出手段と、
前記空間周波数成分抽出手段により抽出された空間周波数成分に基づき前記内視鏡画像の位相成分を検出する位相成分検出手段と、
前記位相成分検出手段により検出された位相成分に基づく特徴量を算出する特徴量算出手段と
を備えたことを特徴とする内視鏡画像処理装置。
Endoscopic image input means for inputting an endoscopic image composed of a plurality of color signals;
Spatial frequency component extraction means for extracting a spatial frequency component based on at least one color signal of the endoscopic image input to the endoscopic image input means;
Phase component detection means for detecting a phase component of the endoscopic image based on the spatial frequency component extracted by the spatial frequency component extraction means;
An endoscope image processing apparatus comprising: a feature amount calculating unit that calculates a feature amount based on the phase component detected by the phase component detecting unit.
前記特徴量算出手法は、前記位相成分の変化の方向に基づく特徴量を算出することを特徴とする請求項4に記載の内視鏡画像処理装置。   The endoscopic image processing apparatus according to claim 4, wherein the feature amount calculation method calculates a feature amount based on a change direction of the phase component. 前記特徴量算出手法は、前記位相成分の変化の大きさに基づく特徴量を算出することを特徴とする請求項4又は5に記載の内視鏡画像処理装置。   The endoscopic image processing apparatus according to claim 4, wherein the feature amount calculation method calculates a feature amount based on a magnitude of the change in the phase component. 前記空間周波数成分抽出手段により抽出された空間周波数成分に基づき前記内視鏡画像の振幅成分を検出する振幅成分検出手段と、
前記位相成分検出手段により検出された位相成分及び前記振幅成分検出手段により検出された振幅成分に基づく特徴量を算出する特徴量算出手段と、
を備えたことを特徴とする請求項4に記載の内視鏡画像処理装置。
Amplitude component detection means for detecting an amplitude component of the endoscopic image based on the spatial frequency component extracted by the spatial frequency component extraction means;
A feature amount calculating unit that calculates a feature amount based on the phase component detected by the phase component detecting unit and the amplitude component detected by the amplitude component detecting unit;
The endoscopic image processing apparatus according to claim 4, further comprising:
前記特徴量算出手段は、前記位相成分及び振幅成分の共分散または相関に基づく特徴量を算出することを特徴とする請求項7に記載の内視鏡画像処理装置。   The endoscopic image processing apparatus according to claim 7, wherein the feature amount calculation unit calculates a feature amount based on a covariance or correlation between the phase component and the amplitude component. 前記空間周波数成分抽出手段は、フーリエ変換またはデジタルフィルタを用いたフィルタリングを行うことを特徴とする請求項4に記載の内視鏡画像処理装置。   The endoscope image processing apparatus according to claim 4, wherein the spatial frequency component extraction unit performs filtering using Fourier transform or a digital filter. 複数の色信号からなる内視鏡画像を入力するステップと、
前記入力した内視鏡画像に対し空間周波数成分を抽出するフィルタリングを適用するステップと、
前記フィルタリングの適用結果に基づき前記内視鏡画像の位相情報を検出するステップと、
検出した前記位相情報に基づく特徴量を算出するステップと、
を備えたことを特徴とする内視鏡画像処理方法。
Inputting an endoscopic image comprising a plurality of color signals;
Applying filtering for extracting a spatial frequency component to the inputted endoscopic image;
Detecting phase information of the endoscopic image based on the application result of the filtering;
Calculating a feature amount based on the detected phase information;
An endoscopic image processing method comprising:
JP2007069055A 2007-03-16 2007-03-16 Endoscopic diagnosis support apparatus and endoscopic image processing method Pending JP2007236956A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007069055A JP2007236956A (en) 2007-03-16 2007-03-16 Endoscopic diagnosis support apparatus and endoscopic image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007069055A JP2007236956A (en) 2007-03-16 2007-03-16 Endoscopic diagnosis support apparatus and endoscopic image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000365855A Division JP4450973B2 (en) 2000-11-30 2000-11-30 Diagnosis support device

Publications (1)

Publication Number Publication Date
JP2007236956A true JP2007236956A (en) 2007-09-20

Family

ID=38583039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007069055A Pending JP2007236956A (en) 2007-03-16 2007-03-16 Endoscopic diagnosis support apparatus and endoscopic image processing method

Country Status (1)

Country Link
JP (1) JP2007236956A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104315A1 (en) * 2008-02-21 2009-08-27 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2014023566A (en) * 2012-07-24 2014-02-06 Olympus Corp Image processor, image processing method, and image processing program
WO2015092904A1 (en) 2013-12-19 2015-06-25 オリンパス株式会社 Image-processing apparatus, image-processing method, and image-processing program
WO2020100630A1 (en) * 2018-11-14 2020-05-22 富士フイルム株式会社 Medical image processing system
CN116468727A (en) * 2023-06-19 2023-07-21 湖南科迈森医疗科技有限公司 Method and system for assisting in judging high-risk endometrial hyperplasia based on endoscopic image recognition

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104315A1 (en) * 2008-02-21 2009-08-27 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2014023566A (en) * 2012-07-24 2014-02-06 Olympus Corp Image processor, image processing method, and image processing program
WO2015092904A1 (en) 2013-12-19 2015-06-25 オリンパス株式会社 Image-processing apparatus, image-processing method, and image-processing program
CN105828691A (en) * 2013-12-19 2016-08-03 奥林巴斯株式会社 Image-processing apparatus, image-processing method, and image-processing program
US9881381B2 (en) 2013-12-19 2018-01-30 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
WO2020100630A1 (en) * 2018-11-14 2020-05-22 富士フイルム株式会社 Medical image processing system
US20210264592A1 (en) * 2018-11-14 2021-08-26 Fujifilm Corporation Medical image processing system
JPWO2020100630A1 (en) * 2018-11-14 2021-09-30 富士フイルム株式会社 Medical image processing system
JP7263387B2 (en) 2018-11-14 2023-04-24 富士フイルム株式会社 Medical image processing system
US11961228B2 (en) 2018-11-14 2024-04-16 Fujifilm Corporation Medical image processing system
CN116468727A (en) * 2023-06-19 2023-07-21 湖南科迈森医疗科技有限公司 Method and system for assisting in judging high-risk endometrial hyperplasia based on endoscopic image recognition
CN116468727B (en) * 2023-06-19 2023-12-12 湖南科迈森医疗科技有限公司 Method and system for assisting in judging high-risk endometrial hyperplasia based on endoscopic image recognition

Similar Documents

Publication Publication Date Title
JP4450973B2 (en) Diagnosis support device
JP4451460B2 (en) Endoscopic diagnosis support device
US11562820B2 (en) Computer classification of biological tissue
US20200035350A1 (en) Method and apparatus for processing histological image captured by medical imaging device
US11937973B2 (en) Systems and media for automatically diagnosing thyroid nodules
Rubegni et al. Digital dermoscopy analysis and artificial neural network for the differentiation of clinically atypical pigmented skin lesions: a retrospective study
EP3638115A1 (en) Systems and methods for integrating tomographic image reconstruction and radiomics using neural networks
CN107133638B (en) Multi-parameter MRI prostate cancer CAD method and system based on two classifiers
JP3895400B2 (en) Diagnosis support device
WO2010042211A1 (en) Methods for tissue classification in cervical imagery
JP2018514844A (en) System and method for deep convolution network-based classification of cellular images and video
Rakotomamonjy et al. Scattering features for lung cancer detection in fibered confocal fluorescence microscopy images
DE112015002822T5 (en) Image processing apparatus, image processing method and image processing program
JP2007151645A (en) Medical diagnostic imaging support system
JP2007236956A (en) Endoscopic diagnosis support apparatus and endoscopic image processing method
JP2000155840A (en) Image processing method
US20240062904A1 (en) Tumor diagnosis system and construction method thereof, terminal device and storage medium
JP2007236957A (en) Endoscopic diagnosis support apparatus and endoscopic image processing method
KR101118211B1 (en) Diagnosis of submucosal tumor using endoscopic ultrasonic image analysis
Krausert et al. Spatiotemporal analysis of normal and pathological human vocal fold vibrations
JP2006340835A (en) Displaying method for abnormal shadow candidate, and medical image processing system
Ye et al. Segmentation and feature extraction of endoscopic images for making diagnosis of acute appendicitis
Meyer-Veit et al. Hyperspectral endoscopy using deep learning for laryngeal cancer segmentation
Zhang et al. A novel endoscopy image fusion system: combine white light imaging and compound band imaging
Salamh Investigation the effect of using gray level and rgb channels on brain tumor image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223